XControllo del traffico aereo e GNSS: ENAV lancia la sfida XIl Trimble Express fa tappa a Roma XUn report dall'undicesima conferenza degli Utenti ESRI XCartografia e nuovi media XCosmo-SkyMed: i nuovi scenari del telerilevamento da satellite - 2a parte
6 6
FOCUS
20
REPORTS
SOMMARIO Nuovi orizzonti del controllo del traffico aereo: ENAV affronta la sfida satellitare di Giovanni Del Duca
16
Il posizionamento satellitare compie trent’anni: lo stato dell’arte del GNSS di Fulvio Bernardini
Database GIS delle strade e delle piste ciclabili: un sistema di calcolo percorso ciclabile nel Comune di Roma di Michele Ieradi, Annalisa Perla e Davide Surgo
24
Il Trimble Express fa tappa a Roma a cura della Redazione
26
Il GIS per la gente secondo ESRI a cura della Redazione
28 Il laser scanner e CloudCUBE per le grotte di Naica di Erminio Paolo Canevese, Roberta Tedeschi e Paolo Mora
32 CARTOGRAFICA
Il terzo incontro GIT navigando tra geologia, GIS e strumenti IT a cura della Redazione
34
Nuovi strumenti di telerilevamento da satellite nel controllo del territorio - 2a parte di Michele Dussi
42
ALTRE RUBRICHE :Controllo del traffico aereo e GNSS: ENAV lancia la sfida :Il Trimble Express fa tappa a Roma :Un report dall'undicesima conferenza degli Utenti ESRI :Cartografia e nuovi media :Cosmo-SkyMed: i nuovi scenari del telerilevamento da satellite - 2a parte
In copertina il vulcano Harrat Khaybar, in Arabia Saudita. L’area vulcanica copre una superficie di oltre 14.000 km2. L’ultima eruzione risale al 600-700 d.C. L’immagine è una delle dieci migliori Fotografie della Terra catturate dalla Stazione Spaziale Internazionale. Immagine: cortesia di NASA.
10
MERCATO
38
AZIENDE E PRODOTTI
46
AGENDA
46
INDICE DEGLI INSERZIONISTI
TERRA E SPAZIO
Cartografia e nuovi media di Alberta Bianchin
Abbonamento per l’edizione 2008 di GEOmedia
CARTOLINA
DI
ABBONAMENTO
Ragione Sociale P.I./C.F. Cognome
Nome
Indirizzo
5 numeri + numeri monografici
€ 45
N°
Cap
Comune
Tel.
Fax
Tipo di organizzazione
Attività primaria
Società di ingegneria
Cartografia
Consulenza
Rilievi GPS
Formazione
Topografia, Geodesia
Università
Catasto
Produttore
GIS/SIT
Assoc. categoria
Ingegneria del territorio
PAC
Protezione ambientale
PAL
Banche dati territoriali
Ente parco
Formazione
Comunità montana
Editoria
Uff. Tecnico
Consulenza
Altro _ _ _ _ _ _ _ _ _ _
Altro _ _ _ _ _ _ _ _ _ _
I dati forniti saranno utilizzati in conformità con le vigenti norme sulla privacy (d.lgs 196/03)
Scelgo di pagare secondo quanto di seguito indicato:
Conto corrente postale n. 67876664 intestato a: A&C 2000 S.r.l.
Bonifico bancario alle seguenti coordinate: IBAN: IT91T0760103200000067876664 Banco Posta S.p.a intestato a: A&C 2000 S.r.l.
Pagamento con carta di credito all’indirizzo: www.rivistageomedia.it, nella sezione “abbonamento online”.
Da inviare completo delle informazioni + allegata copia di pagamento
Spedire la cartolina in busta chiusa a: Geo4all - Viale Arrigo Boito, 126 00199 Roma oppure inviarla via fax al numero: 06.62.20.95.10 o via E-mail a: diffusione@geo4all.it
EDITORIALE
Dal GPS al GNSS Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale FABRIZIO BERNARDINI, VIRGILIO CIMA, LUIGI COLOMBO, MATTIA CRESPI, MICHELE DUSSI, SANDRO GIZZI, LUCIANO SURACE, DONATO TUFILLARO Direttore Responsabile DOMENICO SANTARSIERO sandom@geo4all.it Hanno collaborato a questo numero: ALBERTA BIANCHIN, GIOVANNI DEL DUCA, ERMINIO PAOLO CANEVESE, MICHELE DUSSI,MICHELE IERADI, GABRIELE MARASCHIN, PAOLO MORA, ANNALISA PERLA, DAVIDE SURGO, ROBERTA TEDESCHI Redazione FULVIO BERNARDINI Skype: redazione.geomedia redazione@geo4all.it www.rivistageomedia.it Geo4All Viale Arrigo Boito, 126 00199 Roma Tel. 06.62279612 Fax 06.62209510 Marketing e Distribuzione ALFONSO QUAGLIONE marketing@geo4all.it Diffusione TATIANA IASILLO diffusione@geo4all.it Amministrazione A&C2000 s.r.l. Viale Arrigo Boito, 126 00199 Roma Web: www.geo4all.it E-mail: info@geo4all.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@aec2000.eu Stampa S.B. Servizi s.r.l. Via Monte delle Gioie, 1 00199 Roma Condizioni di abbonamento La quota annuale di abbonamento alla rivista per il 2008 è di € 45,00. Il prezzo di ciascun fascicolo compreso nell'abbonamento è di € 9,00. Il prezzo di ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa. L’abbonamento decorre dal 1° gennaio per n° 5 fascioli con diritto di ricevimento dei fascicoli arretrati ed avrà validità per il solo anno di sottoscrizione. L’editore comunque, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall'abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Editore Domenico Santarsiero Registrato al tribunale di Roma con il N° 243/2003 del 14.05.03 ISSN 1386-2502 Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Dovevamo aspettarcelo: prima o poi gli americani avrebbero perso la supremazia sul posizionamento satellitare (GPS), si sapeva. Ci immaginavamo anche che prima o poi avremmo correntemente usato il sistema russo (GLONASS) il quale, se prima sembrava abbandonato a se stesso, oggi è continuamente manutenuto con nuovi lanci. Un po’ meno prevedibile era forse il fatto che un sistema cinese (COMPASS) potesse minare la credibilità di uno europeo (GALILEO) o che addirittura l'India (IRNSS) tentasse di copiare la Francia (DORIS) o il Giappone (QZSS) per avere un sistema proprietario valido all'interno del proprio paese. A parte tutto ciò, nella situazione di oggi sembra difficile usare il termine GPS per indicare un sistema di posizionamento satellitare e per questo è stato coniato, già da tempo, il termine GNSS – Global Navigation Satellite System – a voler indicare qualsivoglia sistema satellitare venga usato per il posizionamento. La spinta alla realizzazione di tanti sistemi proprietari è stata data senza dubbio dal carattere militare e selettivo del GPS americano. Sono stati memorabili gli effetti di spoofing (inquinamento dei dati) avuti durante la prima guerra del Golfo e neanche l'intervento di riduzione della selettività di Bill Clinton del maggio 2000 – con il conseguente aumento della precisione disponibile anche a scopo civile – è servito ad arrestare questa corsa al posizionamento globale. Gli attuali sistemi di posizionamento arrivano oggi tranquillamente a precisioni dell'ordine di qualche metro, sufficienti a soddisfare tutte le richieste di navigazione veicolare e di servizi relativi alla propria posizione (LBS). Ma quale sia la sicurezza e l'affidabilità rimane un problema da affrontare. Un esempio tipico è il lento ingresso di tale tecnologia all'interno della navigazione aerea. Vi proponiamo a tale proposito un report da ENAV, l'Ente Nazionale per l'Assistenza al Volo, che ci illustra la sfida in atto in tale settore. L'esperienza di molti di noi, che hanno avuto a che fare con determinazioni di misure e coordinate, ci porta ad essere cauti in tale settore e a prendere con le dovute cautele qualsiasi numero venga determinato da sistemi topografici. Figuriamoci se si tratta poi di determinazioni – in tempo reale – di coordinate di posizione di aeromobili. Gli errori che ci possiamo aspettare in tali strumentazioni sono legati a fattori molto particolari ma molto spesso a anche spettacolari situazioni di grossolanità dell'informazione geografica. Per fortuna nel caso dell'ENAV ci sono uomini – come i controllori di volo – che sanno come validare il dato fornito dagli strumenti e di conseguenza prendere gli opportuni accorgimenti manuali in caso di necessità. Il caso ENAV ci fa comunque notare come l'epoca dell'uso dei sistemi GNSS anche per situazioni ad alto rischio sia giunta ma che solo nel prossimo futuro, quando cioè l'affidabilità real-time raggiungerà livelli accettabili, potremo iniziare a fare affidamento su sistemi intelligenti per la navigazione aerea, terrestre o marina. Buona lettura, Renzo Carlucci direttore@rivistageomedia.it
GEOmedia
N°3 2008
Nuovi orizzonti nel controllo del traffico aereo
FOCUS
ENAV affronta la sfida satellitare A cura di Giovanni Del Duca L'evoluzione dei sistemi GNSS, è ormai evidente, copre diversi ambiti applicativi a diversi livelli: si va dall'utilizzo personale del posizionamento satellitare fino a quello, molto più critico, del posizionamento nell'ambito della gestione del traffico aereo. Proprio in questo settore, in grande crescita visto il grande aumento della domanda di spostamenti aerei in ambito commerciale e civile, si è attivata ENAV - La società nazionale per l'assistenza al volo che, anche tramite la ricezione dei nuovi progetti europei sul GNSS, si pone in una posizione assolutamente all'avanguardia.
O
ggi per gestire il traffico aereo e per identificare la posizione degli aeromobili si usano delle testate radar posizionate sul territorio. I segnali radar arrivano sui monitor dei Centri di controllo del traffico aereo e oltre a segnalare al controllore posizione, quota e velocità, è anche possibile visualizzare il codice dell’aereo in cui sono sintetizzati tutti i dettagli del volo: ovvero tipo di aeromobile e compagnia aerea. Nel prossimo futuro, visto l’esponenziale aumento delle movimentazioni aeree si renderà necessario un sistema che sia ancora più preciso ed immediato rispetto alla rete radar. Il sistema satellitare è la soluzione. In questo modo le distanze di sicurezza tra gli aeromobili, previste dai regolamenti internazionali, potranno essere diminuite così da consentire un traffico più fluido con gli stessi standard di sicurezza. In realtà il mondo aeronautico è in continua evoluzione dal punto di vista delle sperimentazioni legate sia a progetti satellitari che alla riorganizzazione dello spazio aereo e delle rotte: in questo contesto rientra l’utilizzo dell’attuale costellazione GPS.
La componente spaziale del sistema GPS è costituita da 24 satelliti operativi disposti in 6 piani orbitali ognuno dei quali ne contiene 4. I piani orbitali hanno un’inclinazione rispetto all’equatore di 55°, l’altezza orbitale è di 20.200 chilometri ed il periodo orbitale di ogni satellite è di circa 1 ora e 58 minuti. Tutti i satelliti trasmettono i propri segnali, caratterizzandoli con un particolare codice di identificazione, alle stesse 2 frequenze L1 ed L2 (rispettivamente 1.575,42 MHz e 1.227,6 MHz). I satelliti adottati sono a tre assi stabilizzati, sono dotati di pannelli solari e di una batteria per i periodi di eclissi e sono equipaggiati fra l’altro con un orologio atomico. La vita media dei satelliti del Blocco II GPS (II, II A e II R) varia dai 7,5 ai 10 anni. Il ruolo di ENAV In Italia il controllo del traffico aereo è affidato ad ENAV S.p.A., la Società nazionale per l’assistenza al volo che, con i suoi 3300 dipendenti – due terzi dei quali impegnati in attività operative – fornisce i servizi di terminale (avvicinamento, decollo, atterraggio) dalle Torri di Controllo di 39 aeroporti sparsi su tutto il territorio nazionale, compresi i servizi di rotta dai 4 Centri di Controllo d’Area di Roma, Milano, Padova, Brindisi. Attraverso queste complesse unità operative la società fornisce ogni giorno, 24 ore su 24, i Varie fasi del controllo del traffico aereo
Schematizzazione della costellazione satellitare GPS
6
servizi del traffico aereo assicurando la fluidità e la regolarità del traffico, in assoluta sicurezza. ENAV gestisce attualmente più di 2 milioni di voli l’anno, in media oltre 6000 al giorno. Ma questo è un dato destinato a crescere nel medio e lungo periodo. Le previsioni di crescita dell’aviazione commerciale e del traffico aereo indicano, infatti, che la domanda continuerà a crescere nel prossimo secolo in modo significativo sino ad un punto in cui essa non potrà essere soddisfatta dagli attuali sistemi, schemi e concetti operativi dell’ATM (Air Traffic Management). Divisone degli spazi aerei Lo scenario europeo previsto a medio termine, indica che entro il 2020 si avrà complessivamente un raddoppio della domanda di traffico rispetto ai livelli di traffico del 1995. ENAV, in un impegno congiunto con molti partner e sotto l’egida di organizzazioni internazionali, si è attivata per trasformare in realtà il consistente lavoro svolto dall’ICAO (International Civil Aviation Organization). Più in particolare, il Centro Simulazione e Sperimentazione (CSS) di ENAV conduce attività di Ricerca e Sviluppo a livello nazionale e internazionale, fornendo supporto alle varie Funzioni dell’Area Operativa nelle fasi di sperimentazione e validazione pre-operativa di nuovi concetti ATM, procedure e sistemi. Il Centro si avvale dell’esperienza di un team qualificato di ingegneri, tecnici e controllori del traffico aereo attraverso cui la società partecipa attivamente a tutte le fasi di sviluppo dei sistemi di controllo det traffico aereo.
Il team del CSS ha, inoltre, maturato importanti esperienze e capacità di simulazione e sperimentazione in tutti i settori e lavora in cooperazione con gli analoghi Centri di Ricerca e Sviluppo europei, come l’Experimental Centre a Bretigny di EUROCONTROL (Organizzazione europea per la sicurezza della navigazione aerea), CENA (Francia), NLR (Olanda), DLR (Germania), con enti intergovernativi e le più importanti realtà industriali del settore. La Società italiana per l’assistenza al volo è, infatti, partner e talvolta leader in numerosi progetti internazionali tesi a modificare l’attuale assetto delle strade del cielo. E’ notizia recente la conclusione della prima fase del programma SESAR (Single European Sky ATM Research), un’iniziativa lanciata dalla Commissione Europea per fornire al Cielo Unico tutti gli elementi innovativi in grado di permettere la realizzazione di un nuovo sistema di gestione del traffico aereo pan-europeo ed interoperabile. Il progetto si propone infatti di unire aspetti tecnologici, operativi ed economici, accogliendo la crescente domanda di traffico, mantenendo i record di sicurezza odierni, dimezzando i costi e sviluppando una forte sensibilità alle problematiche ambientali. In particolare entro il 2020 si calcola un risparmio totale per il sistema di circa 40 miliardi di euro così suddivisi: 9 miliardi in meno grazie all’aumento di capacità dello spazio aereo, 8 miliardi di euro risparmiati per una maggior efficienza del servizio di gestione del traffico, una riduzione di 50 milioni di tonnellate di carburante (pari a 8 miliardi in meno), 2 miliardi risparmiati per il contenimento degli effetti dovuti alle avverse condizioni meteo. Inoltre la riduzione dei ritardi dovuti ad una maggior efficienza del sistema si tradurrà in un risparmio di quasi 13 miliardi di euro per i passeggeri. Immagini dal Centro di Controllo d’Area di Roma, il più grande d’Europa
GEOmedia
N°3 2008
Il sistema di potenziament o EGNOS European Geostationary Navigation & Overlay Service
I progetti satellitari di ENAV Per quanto riguarda, invece, i progetti satellitari, ENAV per prima è stata promotrice di una piattaforma comune in Europa; ha contribuito fin dall’inizio all’European Geostationary Navigation & Overlay Service – EGNOS– il sistema di potenziamento sviluppato dall’Europa e che avrà un margine di errore più basso rispetto al GPS. ENAV infatti ospita, nell’aeroporto di Ciampino, uno dei quattro Mission Control Centre (MCC) europei di EGNOS, ed ha, tra l’altro, concentrato i propri sforzi verso la Commissione Europea e l’Agenzia Spaziale Europea per dimostrare la possibile estensione del servizio EGNOS all’area est del Mediterraneo, con il progetto MIDAN. Inoltre il personale ENAV fornisce, con la propria partecipazione, un costante contributo alle attività di Eurocontrol, finalizzate a garantire la sicurezza delle operazioni GNSS. Il Global Navigation Satellite System è un impianto globale di navigazione satellitare composto dallo statunitense GPS (Global Positioning System), dal russo GLONASS (Global Navigation Satellite System) e in futuro dal sistema europeo Galileo, oltre a sistemi per il miglioramento del segnale come EGNOS, GBAS, etc . Il messaggio EGNOS è trasmesso sulla stessa frequenza del GPS L1 ossia 1575,42 MHz. Esso contiene sia correzioni di tipo fast, relative ad errori che cambiano rapidamente, sia di tipo slow. L’ENAV ha finanziato direttamente il programma europeo per la navigazione satellitare (EGNOS) ed altri programmi di ESA correlati ad esso, per un totale di circa 78 milioni di euro. Di notevole importanza, in aggiunta, anche un progetto nazionale denominato SENECA, condotto insieme ad ASI – per un costo totale di circa 38 milioni di euro derivati dai fondi della legge 10/2001 – allo scopo di realizzare a livello nazionale un’infrastruttura per il monitoraggio del segnale satellitare nello spazio aereo nazionale. Il sistema GNSS permetterà atterraggi con ridotta visibilità, questo grazie anche ad ENAV che farà presto delle sperimentazioni nell’aeroporto di Linate. EGNOS sarà disponibile entro il 2015. La sfida di Galileo Il sistema GALILEO, iniziativa della Unione Europea (EU) e della European Space Agency (ESA), costituisce il sistema di Navigazione Satellitare Europeo dedicato ad usi civili. Per quel che riguarda le applicazioni aeronautiche, tale sistema è previsto poter supportare tutte le operazioni sino ad avvicinamenti CAT I (il termine CAT fa riferimento alla categoria di aeroporto; con le categorie vengono identificati gli aeroporti attrezzati agli avvicinamenti con bassa visibilità: la CAT III è la più avanzata, in cui è possibile atterrare anche in condizioni di visibilità molto ridotta. NdR). ENAV è impegnata in diverse attività collegate allo sviluppo di tecnologie satellitari ed in particolare nella realizzazione delle condizioni per un’efficace utilizzazione de sistemi di posizionamento satellitare per la navigazione aerea, oltre a garantire condizioni ottimali nel processo di transizione da EGNOS a GALILEO. Il segmento spaziale del sistema GALILEO è progettato per essere composto da una costellazione di 30 satelliti (27 operativi e 3 spares) disposti su 3 piani orbitali inclinati 56° rispetto all’equatore orbitanti ad una altitudine di circa 23.222 Km. È previsto che il satellite trasmetta in banda L, il suo payload è ridondato. La posizione del satellite nell'orbita è stata studiata in modo tale da consentire ai pannelli solari di essere perennemente esposti ai raggi diretti del sole.
8
Il segmento terrestre del sistema GALILEO Ground Control System è composto da un Navigation System Control Center (NSCC), una rete globale di Stazioni di Orbitografia e Sincronizzazione (OSS) ed una serie di stazioni di tracking remoto, telemetria e comando (TT&C). Ogni OSS effettua delle misurazioni che vengono inviate al NSCC insieme ai navigation messages provenienti dai satelliti GALILEO, ad informazioni meteorologiche ed altri dati. Altri componenti del NSCC sono: le Satellite Control Facilities (SCF) che effettuano la manutenzione dei satelliti, controllano le orbite ed operano telemetria e controllo a distanza tramite le stazioni TT&C; le Orbitography and Synchronisation Processing Facility (OSPF), che calcolano le effemeridi per ogni satellite, l’offset degli orologi a bordo, ed effettuano una predizione di questi parametri per generare il SISA (signal in-space accuracy); le Precision Timing Station (PTS), che, comprendendo gli orologi atomici ad alta precisione, generano il GALILEO System Time (GST), cioè il riferimento di tempo del sistema ed infine la Navigation Control Facilitiy (NCF), che si occupa di controllare, monitorare e gestire gli OSPF, OSS, PTS ed NCF. Esiste inoltre un’interfaccia esterna al sistema, la Service Centres Interface, che si occupa di gestire la comunicazione con entità esterne. Il sistema è progettato per trasmettere 10 tipi di segnale. Sei segnali saranno accessibili a tutti gli utenti sulle frequenze portanti E5a (1176,45 MHz), E5b (1207,14 MHz) ed L1 (1575,42 MHz). Offriranno l’Open Service (OS) ed il servizio Safety of Life (SoL). Due segnali saranno criptati e trasmessi sulla frequenza portante E6 (1278,75 MHz) ed offriranno il Commercial Service (CS). Infine 2 segnali saranno criptati e trasmessi sulle 2 frequenze portanti E6 (1278,75 MHz) ed E2L1-E1 (1575,42 MHz) ed offriranno il così denominato Public Regulated Service (PRS). GBAS: Ground Based Augmentation System Il Ground Based Augmentation System – GBAS – è un sistema di potenziamento locale del GPS previsto complementarmente alle prestazioni GPS/EGNOS/GALILEO, allo scopo di consentire le più spinte applicazioni in fase di atterraggio di precisione. Esso è composto di 2 sottosistemi: il sottosistema di terra e quello di bordo. Per quanto riguarda il primo è costituito da 2 o più ricevitori GNSS di riferimento, da una stazione di processamento dati ed una o più antenne VDB per la diffusione agli utenti dei dati in VHF. I ricevitori GNSS calcolano gli pseudo-ranges per i satelliti in vista, la stazione di processamento calcola le correzioni differenziali basandosi sulle posizioni note delle antenne dei ricevitori ed invia tramite le antenne VDB il messaggio di correzione al ricevitore di bordo. Il trasmettitore diffonde inoltre i parametri di integrità e altri dati di diversa natura, ad esempio il modello atmosferico e i dati in WGS84 sul FAS – Final Approach Segment (includendo la soglia di atterraggio e la soglia di attraversamento verticale), in modo da definire la traiettoria nello spazio da perseguire per effettuare un avvicinamento di precisione. ENAV, nell’ambito del programma GFTI (GBAS Flight Trias in Italy), ha installato presso l’aeroporto di Linate un sistema GBAS, al momento in fase di upgrading presso Stoccarda. L’upgrading HW/SW è finalizzato al soddisfacimento del requisito di accuratezza per avvicinamenti CAT 1 ed ai requisiti di ranging source monitoring, come prescritti dall’annesso 10 ICAO emendamenti 76-77. Il sistema aggiornato sarà installato presso l’aeroporto di Palermo Punta Raisi per la sperimentazione. Per quanto riguarda invece il sottosistema di bordo, esso è costituito da un ricevitore GNSS che riceve e decodifica i segnali dai satelliti, un ricevitore VDB che riceve e decodifica i messaggi trasmessi dal sottosistema di terra GBAS e da un processore che elabora i dati ricevuti dai 2 ricevitori di cui
GEOmedia
N°3 2008
sopra e fornisce la nuova posizione corretta al pilota. Il sistema GBAS è previsto che debba fornire – in vari step – prestazioni atte a supportare avvicinamenti di precisione sino alla CAT III. In particolare GBAS operativi capaci di avvicinamenti CAT I sono previsti nel 2010, GBAS CAT II e III sono previsti operativi intorno al 2012. È previsto che a medio-lungo termine il GBAS possa supportare procedure avanzate quali avvicinamenti curvilinei e su runway parallele così come applicazioni di navigazione A-SMGCS e di sorveglianza ADS-B. In particolare le tipologie di servizio che possono essere fornite dal GBAS sono le seguenti: GBAS Approach Service L’Approach Service provvede alla guida fornendo le deviazioni orizzontale e verticale rispetto a un definito FAS (Final Approach Segment). GBAS Positionig Service Il Positioning Service fornisce informazioni di posizione orizzontale, velocità e tempo per supportare l’operazione di navigazione in varie fasi del volo (in rotta, segmento iniziale, intermedio e partenze) ed altre applicazioni (ad esempio sorveglianza ADS, supporto alla navigazione su superficie aeroportuale). Naturalmente il servizio GBAS dipende dalla presenza nella zona di servizio di un sistema GNSS operante sia esso GPS, EGNOS o GALILEO. La copertura del sistema – che comunque è locale – dipende dal servizio che il GBAS è chiamato a supportare. Il GBAS nel suo volume di servizio può servire contemporaneamente un numero di utenti illimitato. La cartografia digitale aeroportuale Il GPS in campo aeronautico attualmente è utilizzato anche per produrre la cartografia digitale sugli aeroporti. Il sistema realizzato dall’ENAV per costruire queste mappe utilizza una nuova tecnologia interamente italiana. Il processo si articola in due fasi: quella della raccolta dati e quella della loro elaborazione e gestione. Nella prima fase si utilizzano due aeromobili – il primo dei quali è munito di camera fotogrammetrica, ossia uno strumento in grado di produrre immagini aeree con alta precisione. L’altro veicolo è invece equipaggiato con un laserscanner ad alta risoluzione per il rilievo morfologico del terreno. Questo laser non solo ha la capacità di rilevare l’andamento del suolo, ma anche di ciò che di artificiale o di naturale si trova sopra l’area scansionata (alberi, edifici, e così via). Durante il volo le coordinate degli apparecchi sono costantemente controllate attraverso sistemi di rilevazione GPS, mentre ulteriori rilievi altimetrici e di posizione sono effettuati dal suolo. La precisione che si ottiene è molto
interessante, con mappe che hanno una approssimazione massima di 50 cm. Questa precisione migliora mano a mano che ci si avvicina all’aeroporto, raggiungendo i pochi centimetri all’interno dell’aeroscalo o nelle sue immediate vicinanze. Il sistema di scansione con i due aerei è già predisposto per il trattamento e la diffusione telematica dei dati consentendo quindi la navigazione tridimensionale. Ottenere rappresentazioni in 3D con questa precisione è un’operazione estremamente complessa, al punto tale che per la realizzazione della mappa di un solo aeroporto e dei suoi dintorni occorrono in media fra le 30 e le 50 settimane. I dati, una volta raccolti, confluiscono in un database chiamato TOD, acronimo di Terrain Obstacle Database, che li amministra e li etichetta. Il tutto può però essere gestito da una workstation o anche da un normale PC. Tra l’altro, è proprio nel trattamento delle informazioni che la tecnologia ENAV si distingue in quanto l’unicità non sta nella raccolta dei dati, ma nella loro gestione. Il sistema informatico, infatti, anche quando la mappa è stata realizzata continua a configurare, aggiornare e conservare tutti i dati e le varie informazioni correlate. Inoltre ogni dato è protetto da un particolare algoritmo in grado di individuare possibili errori. Conclusioni Come desunto dall’articolo, è chiaro quanto ENAV si stia impegnando nel mettere in campo tutte le risorse possibili per favorire il sistema di navigazione aerea basato sui satelliti. L’inizio di questa nuova era nel controllo del traffico aereo porterà benefici a tutto il comparto aereo, ai service provider, alle compagnie aeree ed ai passeggeri. I molti vantaggi del sistema satellitare rispetto a quello di sorveglianza radar si traducono dunque in una maggiore capacità e fruibilità dello spazio aereo senza per Autore questo pregiudicare i fondamentali standard di GIOVANNI DEL DUCA - Responsabile dei progetti sicurezza. satellitari di ENAV S.p.A Roma tel.06.81.66.1- ufficiostampa@enav.it
Abstract New horizons in flight control management: ENAV faces GNSS ENAV – the italian company for air navigation services – is operating on various satellite projects dedicated to flight traffic management, together with other european providers, to resolve increasing flight movements. The actual GNSS – GPS, Glonass and Galileo – already used for maritime, ground and aerial transportation, is ENAV's working objective. ENAV is also active on EGNOS (European Geostationary Navigation & Overlay Service), the satellite augmented system developed by the EU that will provide a lower GPS error margin.
Immagine satellitare del terreno in prossimità dell’aeroporto di Malpensa
GEOmedia
N°3 2008 Prime incredibili notizie da Phoenix Phoenix, la sonda lanciata lo scorso agosto dalla NASA e che il 25 maggio ha finalmente toccato il suolo di Marte in prossimità del polo Nord, ha inviato le prime strabilianti notizie riguardo la composizione del terreno del pianeta. Grazie al braccio meccanico di cui è dotata, la sonda è riuscita a scavare per qualche centimetro nel suolo marziano, portando alla luce quello che, a detta di tutti gli scienziati impegnati nella missione, era ghiaccio e che poi, dopo un paio di giorni, si è addirittura sciolto. Mentre si sta tentando di raccogliere un intero pezzo ghiacciato in modo da poterlo analizzare nel laboratorio interno e rilevare eventuali presenze di batteri, Phoenix ha fornito altre fondamentali indicazioni riguardo la composizione del terreno; la prima di queste è che Marte non è un pianeta del tutto alieno. A livello mineralogico infatti, sembra che vi sia una forte somiglianza con alcune aree della Terra, come ad esempio l’Antartide. L’altra sbalorditiva scoperta riguarda l’alcalinità del terreno: esso si è rivelato molto meno acido del previsto tanto da spingere i ricercatori ad affermare che sarebbe adatto per...coltivare asparagi! Quello marziano risulta essere infatti un suolo normalissimo che non presenta, in poche parole, sostanze tossiche ostili al proliferare di possibili forme di vita. La porzione di terreno in cui sono affiorate quelle che, presumibilmente, sono tracce di ghiaccio.
Nuovo allarme sul fronte clima
MERCATO
La notizia è di qualche settimana fa: un gruppo di ricercatori canadesi imbarcati su una rompighiaccio diretta verso il polo Nord, analizzando i ghiacci in prossimità della loro destinazione, si è reso conto che essi sono troppo giovani. Questo equivale a dire che sono anche meno resistenti allo scioglimento. Secondo le prime valutazioni dei ricercatori è addirittura possibile che già da questa estate potremmo avere uno scenario polare privo di ghiacci. Questo va addirittura in controtendenza con quanto previsto dall’IPCC - Intergovernmental Panel on Climate Change, che aveva previsto il culmine di questo processo nei prossimi venti anni. Sempre secondo l’IPCC il fenomeno è principalmente da imputare all’utilizzo dei combustibili fossili che hanno alterato la composizione dell’atmosfera. Ad aggravare la situazione c’è anche il recente rapporto del WWF che, in coincidenza con l’inizio dei lavori del G8 ad Hokkaido, ha
10 10
(Fonte: Redazionale)
presentato le pagelle ecologiche dei paesi che, in teoria, dovrebbero essere più sensibili nei confronti delle contromisure per la difesa dell’ambiente. La situazione è abbastanza drammatica per quasi tutti i rappresentanti del G8 che, solo in qualche raro caso, ottengono un semaforo verde nelle diverse voci (risparmio energetico, sviluppo di energie rinnovabili e riduzione delle emissioni di gas serra). Abbastanza bene solo la Gran Bretagna. L’Italia è messa male: quel poco che si è fatto sembra debba essere imputato alle decisioni di Bruxelles più che ad una reale programmazione nazionale. (Fonte: Redazionale)
Ai nastri di partenza una nuova edizione della conferenza ASITA Nel cuore verde d’Europa, dalla regione che vanta la maggior estensione di aree protette, da quell’Italia minore che è la vera ricchezza della nostra nazione, riparte con nuovo slancio, nel solco tracciato dalle precedenti edizioni, l’iniziativa della Federazione italiana delle Associazioni Scientifiche per il Territorio e l’Ambiente. Le quattro Associazioni che nel 1997 fondarono la Federazione ASITA, celebrano a L’Aquila i propri convegni, integrandosi e confrontandosi nella consapevolezza che le informazioni ambientali e territoriali sono il nodo centrale delle politiche pubbliche e lo strumento primario per progettare uno sviluppo sostenibile e contrastare il declino incombente. Per affrontare i problemi dello sviluppo sostenibile è necessaria una continua e costante sinergia tra mondo delle istituzioni, responsabili della formazione, produttori e utenti: la Conferenza ASITA costituisce il momento naturale di incontro tra questi mondi e la risposta alle domande di conoscenza scientifica organizzata ed efficace. Attraverso le sessioni parallele, le sessioni speciali, le sessioni poster e la conclusiva sessione plenaria, tra gli stands della più vasta esposizione tecnico-commerciale di geomatica mai organizzata in Italia, lungo i percorsi della prestigiosa mostra cartografica, scienziati e neofiti, docenti e studenti, tecnici e operatori, aziende di produzione e di servizi troveranno spazi e momenti di crescita culturale, opportunità comunicative, scambio di esperienze, di risposte e di domande. I cultori delle scienze legate alle informazioni ambientali e territoriali, i produttori e gli utenti, pubblici e privati, potranno cogliere a L’Aquila l’occasione, unica ed irrinunciabile, di una visione aggiornata dell’universo della geomatica e delle sue articolazioni, dalla topografia alla cartografia, dalla fotogrammetria al telerilevamento, dai Sistemi Informativi Geografici e Territoriali alle infrastrutture di dati spaziali, dalla geodesia alle geotecnologie, dalla geografia all’urbanistica. La 12a edizione della Conferenza nazionale, rinnovata nel format e arricchita di contenuti ed eventi culturali e sociali, dedicherà la sessione plenaria conclusiva al tema “Informazioni geografiche ed emergenze ambientali”, sul quale si confronteranno i massimi specialisti di differente estrazione scientifica, nella consapevolezza che i complessi problemi che una società civile deve oggi affrontare esigono soluzioni articolate e interdisciplinari. L’appuntamento è dunque a L’Aquila, dal 21 al 24 ottobre. Per informazioni è possibile consultare il sito www.asita.it
Luciano Surace
Monitoraggio di movimenti strutturali in città di ogni tipo… o quasi! Vi presentiamo la Stazione Totale Trimble® S8™, il nostro sistema ottico topografico e di monitoraggio più avanzato: uno strumento dalle altissime prestazioni, massima flessibilità e precisione. Trimble S8 è dotato di caratteristiche dedicate al monitortaggio, ed è lo strumento ideale per una vasta gamma di applicazioni, dallo scavo e controllo di tunnel ai trasporti, con facilità di impiego e precisione unici. Grazie alla tecnologia innovativa FineLock™, Trimble® S8 è in grado di rilevare qualsiasi movimento strutturale – caratteristica essenziale soprattutto quando si lavora in situazioni ad alto rischio - mentre il software avanzatissimo consente di velocizzare le analisi dei dati: un pacchetto completo quindi, per espandere all’istante le possibilità di scelta e la vostra attività. Per saperne di più sul potente sistema Trimble S8 adatto alle vostre esigenze, visitate www.trimble.com/S8
© 2007, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe & Triangle sono marchi commerciali di Trimble Navigation Limited, registrata negli Stati Uniti e in altri paesi. S8 e FineLock sono marchi commerciali di Trimble Navigation Limited. SUR-160
GEOmedia
N°3 2008
Dalla
NASA le dieci più
In occasione del decimo anniversario della nascita della Stazione Spaziale Internazionale, il Crew Earth Observations della NASA ha pubblicato le dieci migliori immagini tra le molte raccolte nel corso degli anni. Il team in questione ha il compito di monitorare, proprio tramite il supporto fotografico imbarcato sulla ISS, i cambiamenti che avvengono sul nostro pianeta, siano essi di origine naturale che dovuti a fenomeni antropici. Le immagini, oltre che nella galleria che vi proponiamo, sono consultabili e scaricabili anche direttamente dal sito della NASA (http://www.nasa.gov/mission_pages/station/expeditions/expedition17/earthday_imgs.html). Tutte le immagini sono cortesia di NASA. (Fonte: Redazionale) Aurora Boreale e luci in Finlandia, Russia, Estonia e Latvia
Aurora verde che danza nella parte nascosta della Terra
Harrat Khaybar, Arabia Saudita
La Commissione Europea approva il piano di acquisizione di Nokia per Navteq
Lembo di terra
Nuovo presidente per Fugro EarthData
Nokia ha recentemente annunciato di aver ricevuto dalla Commissione Europea l’approvazione incondizionata al piano di acquisizione di Navteq. Quest’ultimo passo rappresenta l’apertura nei confronti dell’operazione che, a quanto sembra, verrà conclusa nel più breve tempo possibile. Nokia fa sapere che l’acquisizione sarà di fondamentale importanza per i suoi piani, dal momento che la compagnia finlandese ha intenzione di allargare il suo bacino d’utenza per quanto riguarda i servizi internet e di navigazione. Nokia iniltre saluta con molto entusiasmo la decisione della Commissione che ha positivamente letto, per entrambe le compagnie coinvolte, la strategia che ha portato all’acquisizione.
MERCATO
(Fonte: Redazionale)
Accordo quinquennale Google-Tele Atlas Tele Atlas, uno dei maggiori player nel mercato delle mappe digitali, ha annunciato di aver stipulato un accordo con Google che gli permetterà di sfruttare le correzioni che proprio l’immensa comunità di utenti Google è potenzialmente in grado di apportare. La compagnia, infatti, dopo essere stata acquistata dalla TomTom e potendo quindi sfruttare anche i vantaggi della tecnologia MapShare, ora potrà essere sicura di avere mappe sempre aggiornate grazie all’enorme bacino d’utenza fornito da Google. Quest’ultima, in compenso, vedrà garantita la fornitura di mappe digitali su scala globale per le sua applicazioni per PC e cellulari. Tutto questo mentre Navteq, competitor diretto di Tele Atlas, sta per essere acquistata da Nokia. Tele Atlas ha sottolineato l’importanza dei dati trasmessi - volontariamente o automaticamente - dagli utenti: i possessori di navigatori diventeranno così veri e propri topografi. (Fonte: Redazionale)
12 12
Edward Saade è stato eletto presidente e direttore generale di Fugro EarthData Inc. Saade prende il posto di Anne Hale Miglarese, che aveva preceentemente guidato la transizione della compagnia da proprietà privata a membro dell’organizzazione internazionale di Fugro. Il nuovo presidente si occuperà del settore mapping tradizionale, di quello GeoSAR radar e della linea commerciale per quello GIS, in modo da assicurare un continuo sforzo per migliorare la qualità, l’innovatività ed i servizi al cliente legati alla propria linea di prodotti. Il nuovo ruolo conquistato da Edward Saade segue l’esperienza quinquennale come presidente di Fugro Pelagos, un’azienda californiana specializzata in rilievi idrografici: durante il suo incarico, Fugro Pelagos ha espanso considerevolmente la sua presenza all’interno del mercato statunitense. (Fonte: Redazionale))
belle foto del nostro pianeta
GEOmedia
N°3 2008
Le Alpi vicino Berna
Eruzione del Vulcano Cleveland, Isole Aleutine, Alaska
Vista della Luna
Monti Everest e Makalu
Veduta notturna di Los Angeles, California
Atollo di Nukuoro, Stati Federali di Micronesia
L’Open Geospatial Consortium ha ufficialmente invitato il pubblico ad offrire il proprio contributo per migliorare lo standard OpenGIS GML (Geographic Markup Language). Il GML rappresenta una codifica XML di dati geografici ed una vera e propria grammatica per esprimere i modelli di tali dati attraverso schemi XML. Il GML ha goduto di ampia diffusione proprio da quando l’OGC, nel 2002, ne ha sancito il carattere di standard. Il linguaggio è effettivo su tutta la piattaforma di standard geospaziali di cui si dota l’Open Geospatial Consortium e permette alle comunità ed alle organizzazioni che hanno a che fare con informazioni basate su questo tipo di dati di inserire componenti geospaziali all’interno dei loro standard, avendo la certezza della compatibilità con le principali infrastrutture di divulgazione di informazioni spazio/temporali. L’attuale versione del GML è stata approvata lo scorso anno ed ora l’OGC intende dunque ottenere feedback dalla comunità in generale: eventuali questioni riguardanti il linguaggio devono essere inviate all’OGC entro il 19 settembre (www.opengeospatial.org/standards/cr).
La International Astronautical Federation (IAF) ha organizzato, lo scorso 9-10 luglio, un simposio dedicato al decimo anno di vita della Stazione Spaziale Internazionale ed intitolato, appunto, “Celebrating Ten Years of the International Space Station”. L’evento si è svolto al quartier generale dell’UNESCO, a Parigi, ed ha visto la presenza di molte figure istituzionali e del settore industriale, proprio allo scopo di fornire una panoramica di questi dieci anni, che hanno visto una forte spinta
MERCATO
L’OGC chiede collaborazione per migliorare la nuova versione dell’OpenGIS GML
La Stazione Spaziale Internazionale compie dieci anni
collaborativa a livello internazionale; grazie ad essa infatti l’intero settore scientifico – compreso quello della geomatica – ha potuto sfruttare importanti innovazioni tecnologiche. I partecipanti hanno anche avuto modo di discutere gli importanti temi che caratterizzano il futuro della ISS che, una volta che avrà completato l’assemblaggio, sarà un punto chiave per le future missioni esplorative su Marte e sulla Luna. Erano presenti al simposio anche alcuni astronauti, veri protagonisti e inquilini della ISS, che hanno descritto in prima persona cosa significa abitare nello spazio. (Fonte: Redazionale)
Credits: ESA
(Fonte: Redazionale)
13
GEOmedia
N°3 2008 Accordo tra Intermap e G-VR per il lavoro di progettazione CAD Intermap Technologies ha annunciato di aver stipulato un accordo con G-VR Limited per produrre modelli ottimizzati di TIN (Triangulated Irregular Network) direttamente dai dati dei modelli di elevazione digitale (DEM) di Intermap. Questo tipo di modelli (gli Optimised TIN Models o OTM) sono solitamente utilizzati da ingegneri ed operatori che utilizzano applicativi CAD per settori assai diversi come: modellazione del
paesaggio, progettazione e pianificazione, visualizzazione architettonica e videogiochi. Gli OTM possono essere combinati con altri layer ed immagini geospaziali in modo da creare potenti ed utilissime visualizzazione 3D. Un’applicazione degli OTM per la modellazione del paesaggio, è in grado di fornire la forma di terreni particolari prima che essi vengano sviluppati, ad esempio con l’introduzione di strutture. (Fonte: Redazionale)
Topcon aiuta la Cina donando i suoi strumenti Topcon ha annunciato di voler intervenire direttamente in aiuto del governo cinese impegnato a contrastare i danni per il terremoto nello Sichuan, donando alcuni strumenti. Rappresentanti di Topcon hanno infatti recentemente incontrato il personale esecutivo cinese a Pechino e con loro si sono accordati affinchè venissero distribuiti alcuni strumenti topografici e venisse impartito un training di base ai tecnici impegnati nella devastata provincia, oltre che una cospicua donazione in denaro per alcune associazioni altrettanto impegnate nell’area. Tra gli strumenti forniti si segnalano alcuni GPS Odissey-RS ed antenne CR-G3.
MERCATO
(Fonte: Redazionale)
INSPIRE: dalla direttiva europea al geoportale
TerraGo e Adobe annunciano un’alleanza “geospaziale”
L’INSPIRE Community Geoportal (www.inspire-geoportal.eu) è il punto d’accesso telematico ad una vasta raccolta di dati geografici e servizi compresi all’interno del framework della direttiva INSIPRE (Infrastructure for Spatial Information in Europe). Come ben saprete grazie anche alla copertura della questione da parte della nostra rivista, INSPIRE punta a rendere disponibili dati affidabili ed armonizzati, al fine di migliorare la qualità dell’informazione geografica ed aiutare così la formulazione, l’implementazione ed il monitoraggio di politiche ed attività direttamente legate alla gestione del territorio. La funzione del geoportale non è comunque quella di mantenere o archiviare dati: esso è piuttosto un gateway nei confronti dei dati stessi. Si può in sostanza di accedere ai dati geografici ed ai servizi distribuiti in Europa, permettendo agli utenti di cercare, visualizzare o – nei limiti dell’accessibilità – scaricare tali informazioni, eventualmente accedendo ai servizi derivati da esse.
TerraGo e Adobe hanno siglato un patto di alleanza in cui è previsto che Adobe fornisca supporto per la tecnologia GeoPDF di TerraGo, all’interno di Acrobat 9. Viceversa, TerraGo supporterà pienamente lo sfruttamento dei PDF geoenabled da parte di Adobe ed altre eventuali vendors. TerraGo - che da adesso sarà un Gold Level Partner ed un LiveCycle reseller di Adobe - si aspetta di espandere ulteriormente le sue offerte nel settore geospaziale, grazie proprio all’integrazione con la suite LiveCycle di prodotti server.
(Fonte: Redazionale)
(Fonte: Redazionale)
Problemi di coordinate? Non hai ancora
CartLab3!
Questa nuova edizione del programma permette il passaggio di coordinate fra i sistemi WGS84, ED50 e ROMA40, con le relative rappresentazioni UTM e Gauss-Boaga. E’ possibile elaborare file con liste di coordinate, file di georeferenziazione (es. tfw), shapefile e dxf. I calcoli possono essere eseguiti sulla base dei “grigliati” nazionali: il programma richiede l’indicazione della cartella che contiene i file *.gr1 o *.gr2, quindi carica automaticamente tutti quelli presenti. Viene considerata anche la componente altimetrica, con le opportune trasformazioni fra quote ellissoidiche e geoidiche. Il programma ovviamente non contiene al proprio interno alcun valore dei grigliati: l’acquisizione dei grigliati presso l’IGMI compete all’utente. Nel caso in cui non siano presenti i grigliati nell’area relativa ai file da trasformare, CartLab3 permette di eseguire il calcolo col modello approssimato. Cartlab conserva comunque le funzionalità di impiego e trasformazione delle coordinate catastali già implementate nella versione 2.
Per maggiori informazioni consulta la pagina web dedicata www.geo4all.it/cartlab
- GPS + GLONASS + GALILEO - Tracciamento di tutti i segnali - Radio modem e GSM / GPRS integrati - Completamente senza cavi
grafit-werbeagentur.de
- Resistente alla caduta da 2mt.
Aggancia . . . e parti
GR-3 Ricevitore Topcon con tecnologia G3 tripla costellazione di satelliti
www.geotop.it
GEOmedia
N°3 2008
Il posizionamento satellitare compie trent’anni: lo stato dell’arte del
FOCUS
GNSS di Fulvio Bernardini Trent’anni fa iniziava l’era del posizionamento satellitare; nel 1978 gli Stati Uniti, col lancio del primo satellite sperimentale gettavano le basi per quella che, in una quindicina di anni, sarebbe diventata la costellazione operativa del Global Positioning System: nasceva il GPS. Nel volgere di tre decadi il concetto di “posizionamento satellitare” ha però avuto modo di evolvere. Da un uso prettamente militare si è passati all’utilizzo in campo civile ma, soprattutto, accanto al GPS, sono stati sviluppati progetti analoghi ma indipendenti, anch’essi protagonisti nell’universo dei Global Navigation Satellite Systems (GNSS).
Q
uando verso la fine degli anni ’50 iniziò la Corsa allo spazio, probabilmente l’idea che grazie ai satelliti si sarebbe potuto anche determinare la propria posizione sulla Terra non era ancora prevista dagli scienziati nell’agenda delle possibili applicazioni; ma così fu, invece.
Un po’ di storia Il bisogno di determinare la posizione nello spazio come saprete, accompagna l’uomo praticamente da sempre. In quegli anni, in effetti, esistevano già alcuni sistemi di posizionamento che, sebbene svolgessero abbastanza bene il loro lavoro, erano molto limitati; i sistemi DECCA e LORAN (e a livello globale Omega, però solo dagli anni ’70) utilizzavano infatti radiotrasmettitori terrestri ad onde lunghe i quali, elaborando il tempo che intercorreva dalla trasmissione alla ricezione di segnali da una posizione master nota e varie stazioni slave, riuscivano a determinare poi, grazie anche a dei calcoli di correzione, l’esatta locazione di un ricevitore. Il primo sistema di posizionamento satellitare, come abbiamo detto, nacque invece negli anni ’60, parallelamente allo sviluppo dei vari progetti spaziali. Il sistema statunitense Transit, questo era il suo nome, era composto da cinque satelliti e basava la sua operatività sull’effetto Doppler: data l’esatta orbita del satellite e la frequenza di trasmissione, era possibile trasformare – grazie a diversi tipi di operazioni – la variazione di frequenza in fase di ricezione dovuta proprio al noto effetto in una posizione specifica. Il problema, oltre che
16
nella scarsa precisione, risiedeva nel fatto di dover sempre inviare da terra messaggi ai satelliti relativamente ad eventuali modifiche del percorso orbitale in modo che poi essi aggiornassero i dati di trasmissione; inoltre, data l’esiguità del numero di satelliti, il segnale di posizionamento veniva aggiornato a cadenza quasi oraria. Verso la fine degli anni ’70, però, qualcosa cambiò. Il lavoro degli scienziati nel tentativo di migliorare le funzionalità di un sistema di posizionamento satellitare che evidentemente – siamo in piena Guerra Fredda – avrebbe portato dei benefici strategici di indubbio valore, era stato spinto dalla stessa Amministrazione statunitense, che investì ingenti somme in questo campo. Nel 1978, dopo molti test terrestri, il primo satellite sperimentale del NAVSTAR Global Positioning System (o più comunemente GPS) fu lanciato. L’obiettivo era quello di raggiungere il più presto possibile una costellazione di 24 satelliti, grazie alla quale il servizio sarebbe stato operativo su scala globale; inutile dire che le sole applicazioni previste per il sistema erano di natura militare. Nel 1983, dopo l’incidente che vide l’abbattimento di un volo di linea coreano che erroneamente aveva invaso lo spazio aereo russo, il presidente Reagan annunciò la possibilità di utilizzo anche in campo civile del GPS. Nel 1994 la costellazione di satelliti era attiva e le applicazioni del nuovo sistema di posizionamento cominciarono a fiorire. Nasceva l’era dei Global Navigation Satellite Systems o GNSS. La tecnologia su cui è basato il sistema GPS coagula molte esperienze provenienti da diversi campi scientifici. In sostanza un ricevitore GPS calcola la sua posizione misurando in maniera estremamente precisa i tempi dei segnali inviati dai satelliti in orbita. Ogni satellite trasmette infatti in maniera continua messaggi contenenti il tempo, l’orbita precisa (effemeridi), le condizioni generali del sistema e le orbite grezze dei satelliti (l’almanacco). Questi segnali attraversano lo spazio alla velocità della luce penetrando l’atmosfera fino a giungere al ricevitore a terra (o in volo, a seconda delle
A sinistra un navigatore DECCA; a destra un sistema di navigazione LORAN a bordo di velivolo
GEOmedia
N°3 2008
Un satellite GPS - immagine NASA
applicazioni). Il ricevitore a questo punto utilizza il tempo di arrivo di ogni messaggio GPS al fine di misurare la distanza da ogni satellite, dalla quale poi determina la propria posizione grazie a calcoli geometrici e trigonometrici. Il risultato, sotto forma di coordinate 3D, viene poi convertito in parametri più semplici come latitudine, longitudine o direttamente visualizzando la locazione su una mappa. GNSS oggi Organizzato in tre segmenti diversi ma complementari (il segmento di terra, quello di controllo e quello spaziale), il ruolo del GPS nelle applicazioni di tutti i giorni è, negli ultimi anni, enormemente cresciuto. Nonostante il più grosso limite del sistema sia sempre quello di dipendere interamente – anche per i suoi segnali civili – dall’esercito americano, molte attività come la navigazione (stradale e marittima), la cartografia, i rilievi topografici, l’ambito scientifico, l’intrattenimento e così via, fanno pienamente affidamento sui servizi del sistema. Il mercato dei ricevitori, poi, è stato protagonista di un vero e proprio boom che ha portato, oltre alla drastica riduzione delle dimensioni e dei costi dei dispositivi, ad una diffusione della tecnologia che probabilmente non era stata prevista. La possibilità di un congruo ritorno economico ha così spinto alcuni colossi internazionali a lanciarsi anch’essi nel tentativo di sviluppare i propri sistemi di posizionamento satellitari, migliorando i servizi rispetto a quello che viene ormai indicato come l’obsoleto GPS. In realtà, un altro sistema è potenzialmente già attivo ed anche da un po’ di tempo. Nel 1982, infatti, l’ex Unione Sovietica, in risposta al progetto statunitense, aveva cominciato a lanciare satelliti per il posizionamento. GLONASS (Global’naya Navigatsionnaya Sputnikovaya Sistema), dopo aver raggiunto una costellazione di quasi due dozzine di satelliti nel 1996, ha cominciato lentamente a decadere, a causa dei tagli a cui il governo russo ha dovuto far fronte. Negli ultimi anni si sta tentando di rivitalizzare il sistema e le previsioni indicano che per il 2010, anche grazie ad investimenti indiani, si dovrebbe tornare ad avere i 24 satelliti necessari per assicurare un servizio efficace. Ricostruzione grafica dei tre satelliti GPS, GLONASS e GALILEO
La sfida europea La vera e propria sfida nei confronti del GPS sembra però provenire dall’Europa che, ufficialmente per non dipendere totalmente dall’esercito americano ma più verosimilmente per dotarsi di una tecnologia strategica all’interno del mercato GNSS, dal 2003 ha lanciato il progetto per lo sviluppo di Galileo. Il sistema europeo ha effettivamente tutte le carte in regola per porsi come una valida alternativa al GPS: esso presenta infatti una maggior precisione rispetto a quella attuale, una migliorata copertura dei segnali dai satelliti soprattutto per le regioni ad altitudini maggiori ed, ovviamente, un servizio funzionante anche in tempo di guerra e cioè staccato dalle esigenze di sicurezza del governo statunitense. I satelliti, poi, sono quanto di più moderno sia mai stato messo in orbita per questi scopi. A cominciare dagli orologi atomici che, vista anche la grande importanza di cui gode un preciso timing dei segnali, è fondamentale per stabilire, oltre alla posizione sulla Terra, anche una corretta definizione dell’orbita dei satelliti. Orologi così precisi, dotati di una stabilità vicina ai 10 nanosecondi al giorno, saranno utili anche per applicazioni scientifiche diverse dal semplice posizionamento. Le critiche da parte dei sostenitori del GPS non sono affatto mancate. La polemica divampa ormai dal 2003 (testimoniata anche sulle pagine di GEOmedia, edizione 5-2003. NdR) e vede contrapposti gli apologeti dei due sistemi. C’è infatti chi afferma che Galileo è un sistema inutile, nato solo per motivi economici e che, invece di creare una costellazione di satelliti che lavora su frequenze solamente compatibili con il GPS, sarebbe stato meglio fornire altri satelliti pienamente interoperabili col sistema americano, in modo da fornire un servizio d’eccellenza. Il punto di vista europeo è invece fortemente incentrato sull’idea di indipendenza dalle questioni militari che muovono il GPS, allo scopo di restituire
Giove-B ha sfruttato il vettore Soyuz-Fregat per essere immesso in orbita. (Immagine ESA)
17
GEOmedia
N°3 2008 ai milioni (miliardi?) di utenti del prossimo futuro, un sistema di navigazione nato esclusivamente per scopi civili oltre decisamente all’avanguardia su questioni tecniche come l’affidabilità, l’autenticazione dei segnali, l’integrità e l’accuratezza per attività specifiche. La verità, come spesso accade, sta nel mezzo. Ed è anche vero che il GPS è una sorta di vittima del suo stesso successo: dal 1978, funzionando meglio di quanto fosse previsto, molti fondi che erano destinati all’implementazione del sistema sono stati invece dirottati su altri progetti. In questo senso l’introduzione di un sistema moderno come Galileo potrebbe rappresentare effettivamente un punto di svolta, introducendo l’utenza al mondo del GNSS-2. Il mercato si è comunque già adattato alla situazione futura e, come è ben noto, già sono disponibili ricevitori 3G, in grado cioè di operare con i tre sistemi di cui abbiamo finora parlato. E così stanno comunque facendo anche gli americani, che dal 2009 cominceranno a lanciare i primi satelliti GPS Block-III, più moderni ed in linea con le esigenze dei sistemi GNSS-2. La piena operatività del sistema Galileo è prevista per il 2012, mentre intanto – come avrete letto anche sulle pagine di GEOmedia – i due satelliti sperimentali Giove (A e B) sono stati lanciati con successo ed hanno confermato le principali funzionalità del sistema. In questi giorni, poi, la Comunità Europea ha completato il piano di finanziamenti per Galileo, superando in questo modo l’impasse in cui il progetto si era trovato negli ultimi tempi. Con questo accordo, l’Europa dimostra ancora di credere pienamente nelle potenzialità del sistema, nonostante si abbia il timore che gli investimenti non trovino copertura nel breve periodo. E’ indubbio comunque che un progetto
evoluto come questo porterà comunque dei benefici importanti in molti campi come i trasporti, la sicurezza, il settore energetico, le telecomunicazioni, l’agricoltura, il settore assicurativo, l’ingegneria civile, l’ambiente, la protezione civile, l’intrattenimento, oltre che le tradizionali attività del settore delle Scienze della Terra. Da stabilire rimane invece la posizione delle altre figure attive nel settore GNSS: oltre ai tre sistemi “G”, infatti, la volontà di dotarsi di un proprio sistema sta contagiando anche un’altra importante realtà come la Cina. Quest’ultima ha infatti annunciato di voler allargare il proprio sistema regionale Beidou: Compass è il sistema globale che, secondo le autorità cinesi, sarà operativo nel breve termine. Ancora non è chiaro come questa scelta si leghi con gli investimenti già operati dalla Cina all’interno del progetto Galileo. La sfida è dunque tutt’altro che chiusa. Il posizionamento satellitare, da esigenza pratica e di comune utilità, sta spostando l’interesse degli investitori su questioni prettamente economiche ed il mercato sta per ora dando ragione e basi di sviluppo a questo tipo di politica.
Abstract Satellite Positioning 30th anniversary: GNSS state of the art This year marks the 30th anniversary of the Satellite Positioning system. In 1978 the United States launched the first ever experimental satellite which formed the basis for the first Global Positioning System, commonly referred to as GPS. The system has evolved over the years from strict military use to more commercial mainstream applications. Today GPS is used in varied independent projects in the GNSS universe.
Autore FULVIO BERNARDINI redazione@geo4all.it
w w w . a b a c o g r o u p . e u
G I S
Made in Italy distribuito in tutto il mondo
tecnologie e servizi superiori per enti ed aziende
DbCAD 2D/3D, DbMAP 2D/3D
base tecnologica semplice ed economica per sofisticate applicazioni CAD/GIS e per avanzati Sistemi Informativi Territoriali su web 2D e 3D integrati.
Progetto SITI, Progetto ASSIOMA
soluzioni per la gestione centralizzata su web dei dati catastali e di tutti gli aspetti applicativi legati al territorio e al patrimonio immobiliare. Per informazioni: info@abacogroup.com (Uff. Marketing)
Sede Legale
Sedi Operative
Mantova - c.so Umberto I, 43 tel. 0376 222181
Roma - Via Nepi, 15 tel. 06 3338501
Padova - Via G.B. Ricci, 6 tel. 049 7387935
GEOmedia
N°3 2008
Database GIS delle strade Un sistema di calcolo percorso ciclabile nel Comune di Roma di Michele Ieradi, Annalisa Perla e Davide Surgo L’ATAC – Agenzia della Mobilità del Comune di Roma riporta la propria esperienza di gestione informatizzata del territorio illustrando, attraverso le metodologie GIS, l’iter realizzativo di un servizio di calcolo percorso per i ciclisti nel Comune di Roma, simile all’attuale Sistema di Calcolo Percorso già attivo nel portale istituzionale ATAC (www.atac.roma.it).
I
l progetto ha permesso la realizzazione di un network di piste ciclabili, interconnesso alla rete stradale e ottenuto dalla sinergia di informazioni relative al grafo stradale, alle piste ciclabili, alla pendenza delle strade ed altre informazioni derivate dalla Centrale della Mobilità. Tale servizio nasce con lo scopo di far conoscere ai cittadini l’itinerario ottimale, da percorrere con bicicletta o con bicicletta e trasporto pubblico locale, da un punto ad un altro della Città. Il lavoro principale effettuato nel corso del progetto è stato quello di classificare l’intero grafo stradale di Roma secondo nuovi criteri utili per la percorrenza in bicicletta. Per prima cosa sono stati definiti nel corso di sedute di brainstorming tutti i parametri di accessibilità delle strade significativi per un ciclista. Questi sono stati poi analizzati e inseriti in un nuovo modello concettuale di rete stradale. Quelli giudicati significativi sono stati inseriti nel nuovo grafo stradale. In particolare sono stati inseriti i seguenti parametri: ✓ ✓ ✓ ✓ ✓
Classe funzionale della strada; Pendenza; Traffico; Piste ciclabili; Orari di apertura e chiusura delle Ville e Parchi.
Nel presente documento verrà posta particolare attenzione ai parametri relativi alla pendenza e alla interconnessione della rete stradale con la rete ciclabile attualmente disponibile a Roma.
20
Fig 1 – Shapefile lineare: “Grafo_Stradale” e Shapefile puntuale: “Value Quota Junction Roma” (nodi degli archi contenenti il valore dell’elevazione).
Di seguito verranno descritte le procedure GIS che sono state effettuate per aggiungere al modello dati le informazioni relative alla pendenza delle strade, essendo questa giudicata vincolante (a Roma) ai fini del calcolo del percorso. Per prima cosa è stato necessario realizzare un modello digitale del terreno, per due motivi principali: osservare, a livello descrittivo, l’aspetto morfologico dell’
area oggetto di studio; attribuire ai nodi degli archi del grafo stradale del
Comune di Roma il valore relativo alla quota, per calcolare la pendenza di ogni singolo arco in relazione alla direzione di marcia. Per la realizzazione del DEM (Modello Digitale di Elevazione) è stato utilizzato lo shapefile dei Punti Quotati del Comune di Roma (derivato dalla cartografia Atac) generando così un raster in cui ogni pixel contiene il valore relativo alla quota del dato sorgente. Attraverso il Modello Digitale del Terreno è stato possibile attribuire il valore quota di ogni pixel allo shapefile puntuale relativo alle Junction, ovvero ai nodi degli archi del grafo stradale (Fig. 1). Attraverso lo strumento di ArcToolbox Extract Value to Points è stato assegnato il valore della quota allo shapefile puntuale dei nodi appartenenti agli archi del grafo stradale. Si è così ottenuto un nuovo shapefile dove in ogni punto (nodo del grafo stradale - Junction) è presente il valore relativo alla quota assegnatogli dai pixel ricadenti in quel punto (Fig. 2). Lo scopo della procedura è quello di creare un grafo stradale che consideri la pendenza degli archi in relazione alla lunghezza degli stessi. I passaggi sino ad ora compiuti saranno impiegati Fig. 2 - Confronto tra il valore della quota del pixel e per attribuire al il valore della quota del punto ricadente in quel pixel.
GEOmedia
N°3 2008
e delle piste ciclabili grafo stradale tutti i valori relativi alla quota precedentemente calcolati. Il sistema di calcolo percorso, come già anticipato, prende soprattutto in considerazione la pendenza, in quanto essa costituisce un elemento vincolante ai fini del calcolo. Successivamente è stata attribuita l’elevazione ai nodi dello shapefile lineare del grafo stradale, grazie allo shapefile puntuale del valore della quota ottenuto nei passaggi precedenti. Si è successivamente effettuato uno “Spatial Join” tra il grafo e lo shapefile puntuale. In seguito è stata calcolata la Quota Inizio e Quota Fine di ogni nodo del grafo stradale e ciò ha consentito il calcolo della pendenza in proporzione alla lunghezza dell’arco (differenza quota x 100 / lunghezza). Una volta calcolato il valore della pendenza dato dalla
Fig. 4 - Attribuzione dei pesi in base alla classe funzionale e la classe di pendenza.
Fig. 3 - Rete Stradale e Rete Ciclabile.
proporzione tra la differenza di Quota Inizio e Quota Fine in rapporto con la lunghezza dell’arco, è stato analizzato ogni singolo arco in base alla direzione di marcia FROM TO (FT), TO FROM (TF) e Doppio Senso. In questo modo si è lavorato ogni singolo arco per singola direzione e si sono ottenute tre diverse classi di pendenza: discesa, salita media (valori di pendenza presenti nell’intervanno 0 e 5) e salita elevata (valori di pendenza > 5), grazie ai valori di pendenza precedentemente ottenuti. In tutti i casi dove il senso di marcia avviene in ambedue le direzioni è stato necessario lo sdoppiamento degli archi, lavorandoli con la stessa procedura appena esposta per gli archi a senso unico (FT e TF). Il passaggio successivo è stato quello di unire il grafo stradale completo con lo shapefile delle piste ciclabili (Fig. 3). Al fine di non creare problemi nell’avvio del calcolo percorso, si è provveduto all’eliminazione degli archi del grafo precisamente coincidenti con gli archi delle piste ciclabili, ottenendo così un unico shapefile, in cui sono stati assegnati a tutti gli archi i codici univoci relativi al nodo di partenza (STRTNDEID) e al nodo di arrivo dell’arco (ENDNDEID). Le operazioni fin qui eseguite, hanno portato alla realizzazione di uno shapefile completo con tutte le informazioni relative sia al grafo che alle piste ciclabili (Fig. 4).
Fig. 6 – Attribuzione dei pesi in base alla classe funzionale e alla classe di pendenza
GEOmedia
N°3 2008 Successivamente sono stati assegnati dei pesi ai valori della Classe Funzionale e della Classe di Pendenza, in quanto utili alla creazione del sistema di calcolo percorso. La Classe Funzionale raggruppa le strade in diversi livelli di percorrenza rappresentati da codifiche (da 0 alla 8), dove 0 e 1 sono le consolari principale e 7 e 8 le strade secondarie. La Classe di Pendenza, ottenuta attraverso procedure GIS, raggruppa in tre livelli il valore della pendenza degli archi, salita elevata, salita media e discesa in relazione alla lunghezza degli stessi. Dopo aver attribuito a ciascun livello della classe di pendenza ed a ciascun livello di classe funzionale un peso, che corrisponde alla velocità espressa in Km/h, è stata calcolata la velocità totale, data dalla somma tra la classe funzionale e la classe di pendenza. Si sono ottenuti, così, valori che avranno un massimo di 30 Km/h per le strade facilmente accessibili dal ciclista, quali piste ciclabili su strada e nel verde (nella fascia oraria 07 -18), fino a valori di velocità pari a 0 Km/h per le strade non accessibili dal ciclista, quali strade a maggiore percorrenza (Classi Funzionali 0 e 1) e piste ciclabili nel verde (nella fascia oraria 18 - 07) (Fig. 5). Dopo numerosi test effettuati con un prototipo del servizio di calcolo percorso, è stata rilevata una tendenza residuale da parte dell’algoritmo di proporre la percorrenza di strade con velocità = 0 km/h. Quindi ai fini di migliorare l’accuratezza delle risposte del servizio, è stata inserita la codifica N (NON percorribile) a tutti i valori con velocità pari 0 Km/h (classe funzionale 0/1 e piste ciclabili nel verde tra le ore 18 e le ore 07) in modo da impedire all’algoritmo di proporre alcuna strada non percorribile in bicicletta (Fig. 6). Contemporaneamente, nello shapefile finale abbiamo aggiunto un nuovo campo (INFOCLASS) in cui è stato attribuito ad ogni arco la codifica corrispondente alla velocità Fig. 5 – Differenziazione tra piste nel verde (blu) e piste su strada (rosse)
totale espressa in Km/h. Considerando che la velocità varia anche col variare della fascia oraria, si è ritenuto opportuno realizzare 24 file testuali (uno per ogni ora della giornata), in modo tale che il sistema legga la codifica relativa al campo INFOCLASS associandola alla velocità corrispondente ad essa, presente nel file testuale; il sistema di calcolo percorso in base alla fascia oraria, in cui si avvia il sistema, dovrà collegarsi al file testuale corrispondente e leggere le codifiche INFOCLASS per ottenere un calcolo percorso ottimale riferito all’ora in cui viene effettuata l’operazione. Dalla sinergia di tutte le informazioni elaborate è stato ottenuto un unico network, formato dal grafo stradale e dalle piste ciclabili ricadenti nel Comune di Roma, interamente formato dai dati necessari al raggiungimento dell’obiettivo del progetto. Successivamente, il network realizzato, è stato esaminato attraverso il motore di calcolo percorso di Atac. per mettere a punto il servizio. Tale servizio permetterà ai cittadini di conoscere l’itinerario ottimale, da percorrere con la bicicletta o con bicicletta e TPL nel territorio del Comune di Roma. Il progetto è stato presentato all'11a Conferenza Utenti ESRI (21-22 Maggio 2008).
Abstract A GIS database for roads and bicycle paths: a cycle route processing system in Rome municipality ATAC, the mobility Agency of Rome municipality, incorporates GIS methodologies for the management of territorial data. ATAC will present the procedure followed to realise a best routing calculation system for cyclists, designed from the existing system developed for PT users in Rome, available on ATAC web site (www.atac.roma.it). Thanks to this project ATAC has created a network of cycling pathways, created by mashing up the following information: the road network, bicycle paths, street slopes and other information derived from the Mobility Centre. The service developed will allow the Roman citizens to find out the best route from one point to another in the Capital that can be reached either by bicycle, public transport or a combination therof.
Autori Dott. MICHELE IERADI (Responsabile Ufficio SIT - Atac Spa) E-mail: Michele.ieradi@atac.roma.it Tel. 06/46954906 Dott.sa ANNALISA PERLA (Ufficio SIT - Atac Spa) E-mail: annalisa.perla@atac.roma.it Tel. 06/46954827
22
Dott. DAVIDE SURGO Tel. 06/46954827
29
GEOmedia
N°3 2008
Il Trimble Express fa tappa a Roma
Trimble Express è un evento itinerante organizzato in tutta Europa allo scopo di far conoscere e promuovere le ultime novità nel mondo delle tecnologie targate Trimble. Il road show ha fatto tappa anche in Italia dispiegandosi in 5 diversi appuntamenti; quello del 29 maggio, organizzato dalla Crisel e tenutosi a Roma, ha concluso il tour italiano. La redazione di GEOmedia è andata a dare un’occhiata.
N
ella prima metà del 2008, Trimble ha organizzato in Europa un tour promozionale che ha toccato molte importanti città, giungendo direttamente a casa di molti potenziali o già affermati utenti di tecnologia Trimble per il surveying. L’evento, chiamato Trimble Express, è giunto anche da noi, in Italia: cominciato lo scorso 14 maggio a Padova, è poi continuato lungo la penisola, toccando Milano (Concorezzo), Catania, Caserta ed, infine il 29 maggio, Roma, più precisamente il Borgo di Tragliata, alle porta della città. L’edizione romana del Trimble Express 2008 è stata organizzata dalla Crisel, che dallo scorso mese di marzo rappresenta il nuovo punto di riferimento di Lazio e Umbria per i prodotti Trimble. Crisel, già distributore unico nazionale dei sistemi per il mapping GIS ed il timing e già inserita nella più ampia rete di rivenditori Assogeo, ha così aggiunto alle sue competenze anche la componente topografia, rinnovando lo staff commerciale e tecnico e organizzando il supporto per i topografi di Lazio e Umbria attraverso un contatto diretto sul territorio e con un nuovo sito internet dedicato a questo particolare settore (www.criselsurvey.it). Come dicevamo, l’ultima tappa del Trimble Express 2008 si è svolto nei pressi di Tragliata, un incantevole borgo immerso nella campagna che ha contribuito notevolmente a valorizzare l’intera giornata, nonostante la pioggia che ha accompagnato le prime ore del convegno. Un’ottima organizzazione ha fatto sì che nulla mancasse ai quasi 100 presenti: una graditissima colazione, alcune pause caffè ed un lauto pranzo che…ha rallentato un po’ la ripresa dei lavori (!), sono state il piacevole corollario all’evento che, soprattutto nel pomeriggio, ha goduto della benedizione del
24
sole, il che ha permesso anche lo svolgimento della sessione pratica come da programma. Passando ai contenuti dell’incontro, gli interventi tecnici – ossia dedicati specificatamente agli strumenti e tenuti da alcuni tecnici Trimble – sono stati inframmezzati da relazioni più generiche ma utili nel fornire ai convenuti una panoramica del mondo del GPS e del surveying così come lo conosciamo al giorno d’oggi. L’intervento di benvenuto, tenuto da Ettore Cattania di Assogeo, ha fatto presente i vantaggi che una capillare catena distributiva può apportare ai clienti, soprattutto nella fase di supporto che segue l’acquisto e l’utilizzo di un certo prodotto. Il professor Giorgio Manzoni, del laboratorio di geomatica e SIT dell’Università di Trieste, ha poi fornito un interessante resoconto dell’evoluzione delle tecniche di rilievo: in poco più di 20 anni si è infatti assistito ad una crescita esponenziale sia in termini di competenze che di tecnologie. Le dimensioni dei sistemi sono diminuite drasticamente, la precisione stessa ne ha guadagnato e la diffusione delle più recenti tecniche topografiche deve molto a quanto fatto da Trimble in questi anni. Non sono qui mancati riferimenti a vecche campagne di rilievo – molti dei pionieri di questa evoluzione erano infatti presenti tra il pubblico – e ciò ha contribuito a creare quel clima di condivisione delle conoscenze e delle esperienze sul quale un evento del genere trova il naturale fondamento. E’ stato poi il momento del nostro direttore – Domenico Santarsiero – che ha scelto di illustrare la rinnovata figura del geometra, così come si presenta al giorno d’oggi. La rivoluzione tecnologica ha infatti profondamente cambiato il geometra che, assieme anche alle nuove opportunità che si sono create, rappresenta una figura chiave nel vasto settore della geomatica. Una carrellata delle
GEOmedia
N°3 2008
principali tecnologie al momento a disposizione degli operatori di settori diversi ma complementari, ha portato a concludere sottolineando l’altra tendenza forte che si è fatta largo negli ultimi tempi, ossia la convergenza tra mercato consumer e professionale (e di cui potete leggere un’analisi approfondita sulle pagine del numero 2-2008 di GEOmedia. NdR). E’ poi seguito – da parte del Professor Giorgio Vassena dell’Università degli Studi di Brescia – un approfondimento sulle reti GNSS ed i nuovi servizi di posizionamento disponibili sul territorio, ponendo una particolare attenzione alla rete VRS della regione Lombardia. La sequenza degli interventi divulgativi si è poi conclusa con quello di Carlo Cannafoglia – direttore centrale del Catasto all’Agenzia del Territorio – che ha sottolineato le problematiche inerenti gli sviluppi e le novità in materia di rilevazione catastale. Per quanto riguarda gli aspetti tecnici, il Trimble Express, è stato un ottimo modo per fornire una veduta d’insieme delle tecnologie collegate al mondo del rilievo topografico: stazioni totali, software, gestione dati, ricevitori GNSS e spatial imaging sono stati gli argomenti principali affrontati dai tecnici Trimble. Il sistema S8, in particolare, ha goduto di un ampio risalto, data la grande duttilità che lo caratterizza e che rende questa stazione totale ottima per lavori di monitoraggio, tunneling e applicazioni dinamiche. Sono stati presentate anche alcune novità per quanto riguarda gli accessori dedicati al rilievo come il Trimble MultiTrack Target, per impedire che vengano agganciati bersagli esterni all’oggetto da rilevare, o le nuove unità centrali, con nuovi display, una nuova e più ampia memoria (1GB) e dotati di Windows CE. Sul lato software è stato presentato Trimble Survey Controller, che permette una migliore gestione del lavoro, possiede un display in grado di aiutare l’utente a gestire i DTM, effettua la verifica in tempo reale dei progetti di tunneling e prevede la possibilità di stilare report del lavoro in maniera definita dall’operatore. Ancora sul lato hardware è stato presentato il ricevitore GNSS R7, dotato di tecnologia Trimble R-Track avanzata per il processamento di dati L2C, L5 e Glonass, oltre che di un
nuovo motore RTK e di una nuova strumentazione come l’antenna Zephyr 2, l’antenna Zephyr Geodetic 2 e un processore a 72 canali. E’ stata poi la volta della Trimble VX Spatial Station, grazie alla quale è possibile entrare nel mondo dello spatial imaging, catturando forme, dettagli e coordinate attraverso una combinazione di scanning 3D e di immagini digitali. Sempre per il settore dell’imaging è stato poi introdotto il laser scanner GX 3D che, grazie alla tecnologia Trimble SureScan, garantisce un’ottimizzazione del rilievo. In sostanza, dunque, il Trimble Express 2008 è stato senz’altro un modo nuovo e molto interessante di far conoscere e circolare le potenzialità delle tecnologie Trimble che, in questo modo, ha anche confermato il suo ruolo di player nel mercato high end della topografia. E’ soprattutto questo aspetto – in confronto ad alcune delle scelte a basso profilo che alcune altre grandi figure del settore hanno fatto nel tentativo di avvicinarsi ad una concezione più cinese del mercato – il vero risultato della giornata svoltasi a Tragliata: se a queste garanzie, poi, sommiamo anche i plus che derivano da un supporto al cliente di primissima qualità, è facile rendersi conto di quanto le tecnologie Trimble, ampiamente presentate durante il tour Express 2008, risultino da più di dieci anni decisamente all’avanguardia.
A cura della Redazione
Abstract Trimble Express stops over Rome Trimble Express is a european road show set up to promote the latest news regarding Trimble technologies. The event stopped in Italy, in 5 different cities.On May 29th the stopover was in Rome at Borgo di Tragliata. The event was organized by Crisel, a Trimble instruments dealer in Lazio and Umbria.
GEOmedia
N°3 2008
Il
GIS per la gente secondo ESRI
REPORTS
L’appuntamento tra la comunità di utenti ed il GIS di ESRI si è svolto, come da undici anni a questa parte, in primavera, nel consueto scenario dell’auditorium del Massimo a Roma. La due giorni tecnologica è stata foriera di interessanti spunti, soprattutto per quanto riguarda la nuova immagine che accompagna ESRI Italia e le novità legate all’uscita di ArcGIS 9.3.
a cura della Redazione
L
a comunità degli utenti ESRI si è riunita, come ormai annuale e consolidata tradizione, lo scorso 21 e 22 maggio a Roma, all’Auditorium del Massimo. L’evento, quest’anno particolarmente curato nonostante una fastidiosa pioggia che ha accompagnato l’organizzazione dello spazio espositori ma che non dovrebbe aver influito sulla presenza dei partecipanti, è stato un ottimo momento di confronto tra le diverse figure che si trovano ad aver a che fare con i prodotti ESRI e chi, come i partner della società americana, sviluppano il loro lavoro proprio grazie alla piattaforma ArcGIS.
I lavori dell’undicesima Conferenza degli Utenti ESRI – che quest’anno era accompagnata dallo slogan GIS people for people – si sono aperti con la sessione plenaria in cui, davanti ad una sala pressochè gremita, gli interventi di Bruno Ratti – presidente di ESRI Italia – prima, e di Claudio Carboni – responsabile tecnico – poi, hanno fatto un po’ il punto della situazione sulle novità e le nuove tendenze nel variegato mondo del GIS e dell’informazione geografica in generale. Come in molti avevano notato, infatti, ESRI Italia ha
26
abbandonato il consueto logo normalizzandosi verso l’adozione dell’ESRI globe, simbolo della casa madre. Questa scelta, condivisa peraltro con tutte le altre unità locali ESRI sparse per il mondo, coincide con la volontà di unificare il lavoro delle varie entità che fanno parte dell’universo ESRI. Come ha sottolineato Bruno Ratti, il minimo comun denominatore tra queste figure – diverse ma complementari – è rappresentato dalla conoscenza geografica che trova poi la massima espressione nella conferenza mondiale che si tiene usualmente negli Stati Uniti. Un passo importante per ESRI Italia dunque che, proprio nel 2008, compie i diciotto anni di attività: il raggiungimento della maturità viene concretizzato tramite una scelta unificatrice e collaborativa, cosa che sempre maggiormente viene richiesta soprattutto ad aziende della caratura di ESRI, proprio allo scopo di risolvere problemi su scala globale. Proprio i problemi globali poi– nei confronti dei quali la stessa ESRI aveva sottolineato l’importanza di un approccio sostenibile durante la scorsa edizione della conferenza – sono stati il legame per introdurre il discorso sulle tecnologie ESRI, pronunciato da Claudio Carboni. In questo contesto, il GIS si pone come trait d’union tra la disciplina geografica e i nostri comportamenti, aumentando in questo modo la conoscenza geografica, necessario punto di partenza se veramente si intende gestire, pianificare, progettare, analizzare e organizzare gli interventi dedicati al territorio che abitiamo ed al pianeta in cui viviamo. I sistemi informativi geografici, seguendo questo punto di vista, forniscono strumenti, metodologie e flussi di lavoro a supporto della collaborazione e dell’azione; i vantaggi nell’utilizzo dei GIS si concretizzano in decisioni mirate, una maggior efficienza ed una comunicazione più efficace. Corollario a questo scenario, è il tentativo di portare i dati geografici alla portata di tutti: soprattutto sfruttando le potenzialità della rete si potrà infatti favorire una maggior diffusione di una cultura della conoscenza geografica.
ArcGIS è una piattaforma GIS integrata e completa
La tecnologia GIS, dunque, viene vista come strumento indispensabile in un periodo – come questo che stiamo vivendo – in cui il ricorso a decisioni corrette, che spesso devono essere prese in contesti temporali assai ristretti, sarà decisivo. ArcGIS, così, sembra essere la soluzione che, per la sua completezza e scalabilità, ben si adatta a questo tipo di esigenze. La sessione plenaria è stata proprio l’occasione per presentare quelle che saranno le principali novità dell’espansione del popolare software di ESRI, ormai giunto alla versione 9.3. Già annunciate da alcuni service pack, le principali innovazioni presenti nella 9.3 possono essere ritrovate innanzitutto negli ambienti del mapping, dell’editing e del geoprocessing, in cui sono state implementate nuove funzioni riguardanti vari aspetti che vanno dalla cartografia, simbologia ed editing fino all’analisi e la modellazione. Si segnalano anche novità nella gestione delle immagini, dei raster e della visualizzazione 3D, una maggiore sicurezza e strumenti nuovi dedicati agli sviluppatori. In ArcGIS 9.3 saranno disponibili API in Java-Script per supportare lo sviluppo in mashup, una specifica SDK per i web service sia SOAP che REST e un web ADF basato su AJAX per lo sviluppo e l’integrazione dei servizi in architetture enterprise. Uno sforzo è stato poi dedicato agli standard e all’interoperabilità: gli utenti potranno infatti pubblicare direttamente i servizi in Microsoft Virtual Earth e Google Earth; queste applicazioni, poi, potranno accedere ai servizi ArcGIS. Sono state estese poi alcune funzionalità già esistenti con l’aggiunta di nuovi strumenti dedicati agli ambiti spatial, network, 3D, geostatistic, survey, tracking, schematics, publishing e job tracking. Dalla versione 9.3, poi, gli utenti ESRI potranno anche far riferimento ai nuovi Resource Centers, portali unici dove trovare risposte a quesiti e problemi: i portali saranno organizzati per prodotto e serviranno come risorse per gli utenti e gli sviluppatori ArcGIS. La sessione è poi proseguita fornendo uno spaccato – con la conduzione di Paolo Bernardi, anchorman di Rai International – di come la user community di ESRI vive il proprio rapporto con la tecnologia GIS: grazie ad una troupe televisiva si è letteralmente entrati nelle case degli utenti ESRI, riuscendo così a vedere come la GIS people opera, cresce e crea valore. Nelle altre sale, intanto, si sono svolte numerose sessioni parallele; gli interventi sono stati organizzati rispettando la maggior parte dei temi cari ai tecnici ed ai professionisti attivi nel campo dei GIS: si è andati dai SIT e i servizi al cittadino ai trasporti, monitoraggio, sicurezza e mobilità; dalla cartografia e DBTI ai GIS per la progettazione e gestione delle reti tecnologiche e dei beni culturali; dalla modellizzazione e le strutture di geodatabase alle applicazioni per le reti viarie. Il ciclo di sessioni è stato poi inframmezzato dai workshop organizzati da ESRI, in cui si metteva in pratica l’ampia gamma di funzionalità proposte da ArcGIS. La conferenza comprendeva poi uno spazio dedicato agli sponsor, in cui i partner ESRI hanno potuto dar visibilità al loro marchio e mostrare gli strumenti o le tecnologie protagonisti del loro core business, complementarmente alle tecnologie della casa americana. Anche GEOmedia con il suo staff ha fatto la sua parte: presente tra i media partner dell’evento – che già da tempo era stato coperto sui nostri canali informativi – si è sfruttato l’evento per intavolare interessanti discussioni e programmare futuri contributi editoriali. Con la conclusione dei lavori, il 22 maggio, l’appuntamento con la dodicesima Conferenza degli Utenti ESRI, evento di riferimento per la scena GIS italiana, è rimandato dunque alla prossima primavera.
A Cura della Redazione
Abstract ESRI's GIS people for people The eleventh edition of the local ESRI User Conference took place at the Massimo Auditorium in Rome. The event featured interesting issues, regarding the new ArcGIS version 9.3 and the unified company image. This decision symbolizes the will of ESRI US to unify the different efforts and brands of local multinational companies into a single recognizable logo.
GEOmedia
N°3 2008
Il laser scanning
REPORTS
e CloudCUBE per le grotte di
Naica
di Erminio Paolo Canevese, Roberta Tedeschi e Paolo Mora Virtualgeo, società che si occupa di geomatica, sviluppo software e comunicazione, ha preso parte nel maggio 2007 alla prima spedizione ufficiale in Messico del Progetto Naica, che coinvolge ricercatori afferenti a dieci Università e a quattro imprese e laboratori. Nell’ambito di questo progetto di ricerca dal carattere multidisciplinare e di valenza internazionale, Virtualgeo ha svolto il rilevamento con tecnologia laser scanning di grotte ipogee rivestite di cristalli di selenite, utilizzando per la gestione e modellazione 3D delle nuvole di punti il software proprietario CloudCUBE. In questo articolo, i primi risultati del rilevamento con laser scanner di una spettacolare foresta di cristalli.
I
n Messico la natura offre uno spettacolo unico al mondo per bellezza e valenza scientifica. Lo scenario di questa case history è una miniera in cui si trovano grotte rivestite di cristalli di selenite per le quali è stato necessario pianificare specifiche strategie di documentazione, finalizzate alla ricerca e la divulgazione scientifica. La società italiana Virtualgeo ha verificato la possibilità di rilevare lo stato di fatto delle grotte con tecnologia Laser Scanning realizzando, con il software proprietario CloudCUBE, il modello digitale 3D della Cueva de los Cristales. Il gruppo di lavoro dell’Università di Bologna si è poi occupato delle analisi dei dati 3D e delle strategie operative. I gioielli di Naica A Naica, città mineraria del Messico settentrionale, 130 km a sud-est di Chihuahua, la natura offre uno spettacolo straordinario, unico al mondo, non solo per bellezza ma anche per valenza scientifica. All’interno di una miniera, tra i 180 e i 300 metri di profondità, si trovano delle grotte rivestite di cristalli trasparenti di selenite. La Cueva del los Cristales (Figura 1) e la Cueva del las Espadas (Figura 2) sono le più grandi tra le cavità presenti, che includono grotte minori, tra cui spiccano l’Ojo de la Reina e la Cueva del las Velas. Le cuevas sono rivestite di cristalli di selenite, formati da lamine composte in forme incredibili che danno origine ai toponimi delle cavità. Nella grotta più spettacolare, la Cueva de los Cristales, i cristalli raggiungono i 14 metri di lunghezza: una vera a propria foresta di macrocristalli. Progetto Naica Nel maggio 2007 Virtualgeo ha partecipato alla prima spedizione ufficiale nella miniera di Naica, organizzata dalla società messicana Speleoresearch&Films e dall’associazione culturale di esplorazione geografica La Venta (Italia), nell’ambito del “Progetto Naica”. Virtualgeo è attiva dal 1994 nei campi della geomatica, dello sviluppo software e della comunicazione, nell’ambito dei quali fornisce servizi a supporto dello studio e della valorizzazione del patrimonio
28
culturale e ambientale, impiegando le tecnologie più avanzate. Il progetto coinvolge ricercatori provenienti da importanti università e ha come obiettivo la realizzazione di una campagna multidisciplinare di ricerca e documentazione sulle famose grotte messicane. In questo modo sarà possibile spiegare le condizioni e i meccanismi speleogenetici e minerogenetici, oltre a consentire di formulare ipotesi su come conservare una simile meraviglia della natura e trasmetterne la conoscenza alle generazioni future. I primi risultati del Progetto Naica sono stati illustrati nel dicembre 2007 durante il convegno “Le grotte di Naica: esplorazione, documentazione, ricerca” organizzato dal prof. Paolo Forti presso il Dipartimento di Scienze della Terra e Geologico-Ambientali dell’Università di Bologna (Italia). Virtualgeo, come partecipante al progetto, è intervenuta alla giornata di studio relazionando sulle operazioni di rilievo effettuate nelle grotte con laser scanner e sui risultati ottenuti dall’elaborazione dei dati acquisiti; sì è anche occupata di predisporre una postazione attrezzata per la visione stereoscopica, grazie a cui è stato possibile visitare virtualmente – a tre dimensioni – le grotte di Naica. Rilievo 3D laser scanning Nel quadro delle indagini riguardanti lo studio della topografia delle grotte, l’intervento di Virtualgeo nel Progetto Naica è consistito nel rilievo con laser scanner delle Cuevas de los Cristales e de las Espadas. La fase di campagna del rilievo, eseguita da Roberta Tedeschi, si è svolta nel maggio 2007, in occasione della prima spedizione ufficiale nelle grotte della miniera di Naica. Il rilievo è stato finalizzato alla documentazione dello stato di fatto delle grotte, attraverso la costituzione di un database geometrico tridimensionale di alta precisione, completo di colore, della morfologia e dell’aspetto delle grotte e dei cristalli. I modelli 3D ottenuti elaborando i dati del laser scanner sono destinati per scopi scientifici (con la possibilità di effettuare studi specialistici a distanza sulle cavità e sui cristalli) e divulgativi (con l’accessibilità virtuale e semiimmersiva – anche in stereoscopia – per il vasto pubblico, la
Figura 2 - Scansioni laser 3D della Cueva de las Espadas a Naica (Messico).
Figura 1 Scansione laser 3D della Cueva de los Cristales a Naica (Messico)
valorizzazione e promozione del sito, la simulazione e valutazione di ipotesi per la conservazione delle grotte, ecc.). In questo ambito il gruppo di lavoro del Dipartimento di Scienze della Terra e Geologico-Ambientali dell’Università di Bologna si sta occupando di analisi legate ai dati tridimensionali raccolti e di strategie operative per le future campagne di rilievo 3D anche per la verifica dell’accuratezza dei dati. Acquisizione morfometrica di grotte La criticità del rilievo per gli ambienti ipogei è legata all’irregolarità delle superfici verticali e orizzontali, difficili da misurare con un alto livello di dettaglio con le tecniche tradizionali di rilievo. Risulta difficile individuare un metodo di rilievo morfometrico – valido per tutti questi tipi di ambiente – che sia inoltre il più possibile automatizzato e che soddisfi i requisiti di ogni tipo di applicazione, minimizzando le incertezze della misura, riducendo tempi e costi delle operazioni (in campagna e in fase di elaborazione dei dati), incrementando nel contempo la quantità e la qualità dell’informazione acquisita. In tale direzione, il rilievo con strumentazione laser scanner dà riscontro per la rapidità con cui rileva la morfometria di vaste superfici complesse e per la densità, la precisione e la completezza dei dati acquisiti rispetto alla strumentazione topografica tradizionale. Criticità ambientali Le operazioni di rilievo nelle grotte di Naica si sono svolte in condizioni ambientali sfavorevoli sia per la fisiologia degli operatori sia per il funzionamento della strumentazione laser scanner (48°C di temperatura e umidità vicina al 100% nella Cueva del los Cristales). Il funzionamento del laser scanner impiegato – un Faro CAM2 LS 880 – è infatti garantito dal produttore per temperature comprese tra i 5° e i 40°C e, per quanto riguarda il grado di umidità tollerabile, in assenza di condensa. Inoltre, l’attrezzatura necessaria al rilievo (laser scanner, laptop, cavi, dispositivi per l’alimentazione elettrica, etc.) doveva essere movimentata e installata su una pavimentazione irregolare e coperta di cristalli. Il microclima proibitivo, unito alla mobilità limitata e rischiosa tra i cristalli, ha influito sull’operatività dei tecnici che hanno potuto lavorare solo indossando tute e calzature appositamente studiate e predisposte dall’associazione La Venta per l’intera spedizione. I dati acquisisti Il laser scanner sfruttava la tecnologia phase shift che calcola la distanza dell’oggetto rilevato per confronto di tre impulsi
Tabella 2 – Numero di scansioni e milioni di punti rilevati dal laser scanner, numero di immagini acquisite dalla fotocamera incorporata e peso complessivo dei dati, distinti per ciascuna delle grotte rilevate da Virtualgeo.
di ritorno aventi differenti lunghezza d’onda. Alcune specifiche tecniche relative alla strumentazione laser scanner impiegata sono riportate nella Tabella 1. Modello laser scanner
CAM2 LS 880
Distanza
0,6 m-76 m
Velocità di misura
120.000 punti/secondo
Errore di distanza lineare
±3 mm a 25 m
Campo visivo verticale
320°
Campo visivo orizzontale
360°
Durata della scansione
2 milioni di punti in 20 secondi
Peso
14,5 kg
Modello fotocamera incorporata
Nikon D70
Pixel
6.1 M
Tabella 1 – Specifiche tecniche relative alla strumentazio ne laser scanner impiegata da Virtualgeo nelle cuevas Cuevas de los Cristales e de las Espadas a Naica.
Sono state eseguite in tutto 4 scansioni all’interno della Cueva de las Espadas e della Cueva de los Cristales, acquisendo le coordinate spaziali e il valore cromatico RGB (questo grazie alla fotocamera incorporata al laser scanner che ha effettuato nel contempo 40 riprese fotografiche, 10 per ogni scansione) di oltre 43 milioni di punti. La permanenza all’interno delle grotte per tutte le operazioni necessarie al rilievo è stata complessivamente di 3 ore (distribuite in 2 giornate di lavoro), di cui 15 minuti impiegati per effettuare le scansioni. Il numero di scansioni e i milioni di punti rilevati dal laser scanner, la quantità di immagini acquisite dalla fotocamera incorporata e il peso complessivo dei dati ottenuti dalla campagna di rilievo a Naica, distinti per ciascuna delle due grotte rilevate, sono elencati nella Tabella 2. Post-processamento dei dati Il post-processamento dei dati acquisiti con laser scanner nelle grotte di Naica – previo allineamento delle scansioni della Cueva de las Espadas – è stato condotto con CloudCUBE, software proprietario sviluppato da Virtualgeo per la gestione e la modellazione delle nuvole di punti in ambiente AutoCAD. Il lavoro ha comportato l’importazione in AutoCAD della nuvola di punti che, una volta visualizzata, è stata sottoposta a un’accurata fase di pulitura e filtraggio per eliminare il Cueva de los Cristales
Cueva de las Espadas
Numero scansioni acquisite
1
3
Numero punti acquisiti
13.180.893
30.032.525
Numero immagini 2D acquisite
10
30
Quantità dati laser acquisiti
1 gigabyte
3 gigabyte
Quantità immagini 2D acquisite
45 megabyte
135 megabyte
GEOmedia
N°3 2008 rumore e i punti non significativi. Per quanto riguarda la Cueva de los Cristales, il risultato di questa fase preparatoria è mostrato in Figura 3. Il successivo passaggio si è concentrato sulla Cueva de los Cristales ed è consistito nell’organizzazione della nuvola di punti, per ottenere una base razionalmente ordinata per le esigenze di elaborazione e allo scopo del rilievo, sulla quale poi lavorare ottimizzando i tempi. In Figura 4 si vede, ad esempio, come la nuvola di punti sia stata divisa in sottonuvole, ciascuna corrispondente a un singolo cristallo di selenite e caratterizzata da un colore diverso.
Figura 3 – Cueva de los Cristales: visualizzazione in ambiente AutoCAD con il software CloudCUBE di Virtualgeo della nuvola di punti.
Figura 4 – Cueva de los Cristales: organizzazione in ambiente AutoCAD con il software CloudCUBE di Virtualgeo della nuvola di punti in sotto-nuvole, ognuna corrispondente a un cristallo di selenite.
30
Conclusioni La ricostruzione 3D della Cueva de los Cristales è il risultato di un’indagine pilota, estendibile a qualunque altro contesto in cui si renda necessario gestire complessità morfologiche notevoli, una grande mole di dati di rilievo e condizioni ambientali particolari, rilevanti in fase di acquisizione. Virtualgeo, partendo dalla necessità di documentare nel modo più completo possibile delle superfici complesse, ha trovato una soluzione praticabile nella tecnologia laser scanning e nell’approccio metodologico del reverse modelling. Il laser scanner ha infatti permesso di superare le criticità incontrate nello specifico contesto di applicazione, rilevando in tempi brevi superfici ampie, caratterizzate da una geometria articolata ed impossibili da acquisire con completezza impiegando strumentazione tradizionale. Il software CloudCUBE ha poi messo a disposizione una serie di strumenti per il trattamento dei milioni di punti acquisiti, per la loro organizzazione ottimizzata e per la modellazione – direttamente sulle nuvole di punti – del relativo modello 3D; modello che, inoltre, costituisce la base per l’elaborazione in tempi brevi di un’ampia gamma di rappresentazioni grafiche: sezioni, viste assonometriche e spaccati prospettici. L’analisi del dato tridimensionale raccolto è stata effettuata dal Dipartimento di Scienze della Terra e GeologicoAmbientali dell’Università di Bologna che si sta anche occupando della pianificazione delle future campagne di rilievo laser scanning. Ringraziamenti Si ringraziano: Speleoresearch & Films e l’associazione culturale di esplorazione geografica La Venta per la collaborazione, CAM2 S.r.l.-FARO Technologies Inc. per la strumentazione laser scanner, la Compañía Minera Peñoles per aver consentito l’accesso alla miniera. Riferimenti www.virtualgeo.it www.cloud-cube.com www.laventa.it
Abstract I primi risultati Si è quindi proceduto alla modellazione 3D della morfologia della cavità e dei suoi megacristalli, impiegando le funzionalità offerte dal software CloudCUBE. Il modello 3D a superfici della Cueva de los Cristales, ottenuto con tale software, è riprodotto con modalità di visualizzazione shade in Figura 5. Con CloudCUBE, dal modello 3D della grotta è possibile ottenere rapidamente – grazie alle ultime funzionalità implementate dal software – informazioni dimensionali di qualsiasi tipo, elaborati graficonumerici e sezioni (orizzontali e verticali), viste assonometriche e spaccati prospettici.
Figura 5 – Cueva de los Cristales: modello tridimensionale della cavità e dei cristalli in modalità di visualizzazione shade ottenuto in ambiente AutoCAD con il software CloudCUBE di Virtualgeo.
Laser scanning and CloudCube for Naica caves On May 2007, Virtualgeo, a geomatic software development and communication company, took part in the first official expedition to Mexico. The Project, coined "Naica", involves researchers from ten universities, four companies and several laboratories. Virtualgeo carried out the survey by applying laser scanning technology to hypogeal caves covered with selenite crystals. The data was processed using CloudCUBE, a proprietary software designed to manage and model 3D point clouds. The first results of the laser scanning survey of a spectacular “forest of crystals” are presented here.
Autori ERMINIO PAOLO CANEVESE, Virtualgeo S.r.l., Italia erminio.canevese@virtualgeo.it ROBERTA TEDESCHI, Virtualgeo S.r.l., Italia roberta.tedeschi@virtualgeo.it PAOLO MORA, Dipartimento di Scienze della Terra e Geologico-Ambientali, Alma Mater Studiorum Università di Bologna
GEOmedia
N°3 2008
Il terzo incontro GIT navigando tra geologia, GIS e strumenti IT Nella suggestiva cornice di Offida – località marchigiana nota anche per la sua arte del merletto a tombolo – si è tenuto il terzo meeting del GIT che, come sempre, ha offerto interessanti relazioni e novità sia sul fronte delle tematiche IT che su quello delle tematiche geologiche. Il terzo meeting è stato dedicato a Mirco Galli, tra i soci fondatori del gruppo prematuramente scomparso lo scorso novembre. Anche quest’anno oltre una settantina tra relazioni tradizionali e poster, con temi variegati che spaziano dalla modellistica in ambito geomorfologico o in campo idraulico, fino alle applicazioni LIDAR e GPS/GIS ovviamente in campo geologico.
a cura della Redazione
I
lavori dell’edizione 2008 del GIT (Geology and Information Technology) si sono aperti con la relazione tenuta da Guzzetti dell’IRPI di Perugia, che ha focalizzato sugli aspetti predittivi dedicati alle frane, fattori ovviamente legati alla conoscenza dei dati di base. La mattinata del primo giorno ha poi visto la presentazione di diverse relazioni, basate sulla modellistica predittiva dei fenomeni franosi, ma anche sulle problematiche correlate ai fenomeni metereologici. Da segnalare la relazione sul modello CRF per le soglie di pioggia implementata in ambiente GIS e tenuta da D.Salciarini dell’Università di Perugia. Molto interessante inoltre la relazione dal titolo “J-Hydro: Digital Watershed”, dedicata allo studio della modellistica dei bacini idraulici in ambienti operativi non standard (software e soluzioni ad hoc non commerciali).
32
Prodotti, soluzioni e modellistica Bisogna sottolineare quanto i modelli digitali del terreno siano importanti in tutte le analisi geologiche, sia in termini di modellistica che in termini pratici e di interventi specifici. Dal punto di vista dei prodotti o soluzioni – se si eccettua il fatto che diverse sono le piattaforme alla base delle molte relazioni – si può affermare che in linea generale il vero prodotto risultante nel contesto delle relazioni presentate al GIT è quello dell’ingegno e delle competenze; stiamo parlando dei diversi operatori che, a differenza di altri settori, esprimono mediamente un livello di competenza alto, tanto da riuscire ad interagire con la programmazione nel campo
Eno-Geologia e web WineGIS (www.winegis.it) è il nome di un progetto – presentato da Sergio Chiesa del CNR-IDPA e Marco Deligios di Globo – estremamente interessante per la valorizzazione della filiera produttiva del vino in Italia. Il progetto, appena agli albori, presenta interrelazioni tra gli aspetti localizzativi e le aree a marchio DOC o DOP che vanno a valorizzare le caratteristiche dei vini prodotti. E’ chiaro il ritorno possibile da un sistema di web mapping che valorizzi il riconoscimento delle produzioni DOC e DOP con i loro disciplinari. Un tema che approfondiremo a breve con alcune pagine dedicate agli aspetti dell’agricoltura di precisione sulle pagine di GEOmedia.
INGV, invitato speciale L’INGV con la sezione education è stato tra gli invitati speciali dell’evento, ed ha presentato diversi prodotti orientati al mondo dell’educazione e della divulgazione sui sistemi geologici e vulcanici. Per l’occasione infatti, diverse sono state le scolaresche che nella sala del consiglio comunale di Offida hanno potuto ammirare le diverse opere divulgative in video prodotte dall’INGV.
delle soluzioni basate sui sistemi Open Source. La seconda giornata del GIT è stata caratterizzata da una serie di relazioni il cui tema di fondo era legato alle problematiche dell’uso dei sistemi GNSS – spaziando al contempo all’uso del telerilevamento nella gestione dei controlli sul territorio. L’apertura della sessione è stata tenuta dal prof. Giorgio Manzoni, che ha presentato una carrellata delle problematiche legate a GALILEO, e una breve presentazione del progetto MONITOR (www.monitorproject.com) finanziato dall’ESA. Le relazioni sono proseguite con diversi temi di grande interesse, tra cui segnaliamo una presentazione da parte dell’Università della Calabria tenuta da Gerardo Fortunato sul tema delle tecniche SAR per lo studio e il controllo delle subsidenze in campo minerario e sopratutto per le aree a difficile accesso, e quella di TRE Europa (nota azienda italiana nata da un spin-off del politecnico di Milano), che ha presentato l’ormai consolidata tecnica del PSInSAR. Fuori dal coro, ma con ampio interesse applicativo, le attività del Laboratorio di Meccanica del Volo dell’Università di Bologna, e di ALMA Space, spin off dell’università, che ha presentato un modello di aereo a guida autonoma sviluppato per conto dell’INGV e finalizzato al monitoraggio in remote sensing di Stromboli. Oltre alle sessioni tradizionali sono state circa 35 le presentazioni poster: sarebbero diversissime le segnalazioni da fare ma per motivi di spazio vi invitiamo a visitare il sito del GIT (www.gitonline.eu) sul quale dovrebbero già essere presenti le relazioni per la pubblicazione online. Al termine della seconda giornata si è poi svolta l’assemblea dei soci, che ha visto una accesa discussione e diversi contributi sul prosieguo della gestione del GIT; la discussione si è soffermata soprattutto sulla ricerca di un modello di gestione possibile per un’associazione appena al suo terzo anno di attività, e che comunque si deve muovere all’interno di diversi parametri dettati dalla Società Geologica Nazionale, e di altre decine e decine di associazioni del settore. In questo senso il GIT potrà comunque contare, da parte della nostra redazione, su un sostegno sempre più forte, dal momento che GEOmedia è pur sempre l’unica rivista che ha finora supportato
GEOmedia
N°3 2008
un’iniziativa sicuramente encomiabile: siamo infatti al rispetto di una fucina di idee tra il mondo accademico ed operativo, per certi versi distante dalle soluzioni preconfezionate dall’ampio mercato dei prodotti orientati al geologo come categoria professionale. A Cura della Redazione
Abstract GIT's third meeting between geology, GIS and IT instruments GIT's (Geology and Information Technology – www.gitonline.eu) third meeting took place in the striking town of Offida, in the italian Marche region. The event presented interesting sessions dedicated to geological-IT issues. The 2008 edition featured more than 70 reports, comprising of "wine poster sessions" and traditional interventions by various professional and academic charachters.
33
GEOmedia
N°3 2008
Cartografia e nuovi media di Alberta Bianchin
CARTOGRAFICA
I media digitali sono entrati da tempo nel mondo della cartografia con una sequenza di cambiamenti, dalla cartografia numerica alle infrastrutture di dati spaziali (SDI). Questa nota parte dalle riflessioni sviluppate da Lev Manovich sui linguaggi dei nuovi media e ne verifica l’applicabilità nel campo della rappresentazione e comunicazione dell’informazione geografica. Si evidenzia, da un lato la persistenza degli schemi di funzionamento dei media tradizionali,, dall’altro l’emergere di nuovi paradigmi dove la carta è il risultato di un processo che vede la partecipazione attiva dell’utente
Q
uali sono i cambiamenti strutturali che i nuovi media introducono nell’ambito tradizionale della cartografia? Marshall Mc Luhan fu colui che tracciò la strada in questo ambito di riflessioni: “…è forse sconcertante sentirsi ricordare che, per quanto riguarda le sue conseguenze pratiche, il medium è il messaggio. Che in altre parole le conseguenze individuali e sociali di ogni medium, cioè ogni estensione di noi stessi, derivano dalle nuove proporzioni introdotte nelle nostre questioni personali da ognuna di tali estensioni o da ogni nuova tecnologia.[…] Perché il “messaggio” di un medium o di una tecnologia è nel mutamento di proporzioni, di ritmo o di schemi che induce nei rapporti umani. E’ anche troppo tipico l’equivoco in virtù del quale il “contenuto” di un medium ci impedisce di comprendere le caratteristiche del medium stesso.” Più recentemente Lev Manovich ha analizzato gli effetti dei nuovi media nell’ambito artistico chiedendosi in che misura conservassero, modificassero gli schemi culturali preesistenti o ne proponessero di nuovi. I nuovi media Riprendiamo qui l’approccio e l’argomentazione di Manovich per la definizione di nuovi media. I nuovi media sono digitali. Le categorie più citate sono: Internet, siti web, computer multimediali, realtà virtuale, videogiochi, CD-Rom, DVD. La concezione più diffusa privilegia generalmente la distribuzione e presentazione del prodotto trascurando l’uso del computer come strumento per la produzione dei media o per la loro realizzazione. Se vogliamo veramente capire i nuovi media, ovvero l’impatto della computerizzazione sulla cultura nella sua totalità, è opportuno analizzarne tutte le funzioni, investigando continuità e discontinuità tra vecchie e nuove forme culturali, chiedendosi quali cambiamenti siano intervenuti sui linguaggi culturali preesistenti. Il metodo è quello di situare l’apparire dei media digitali all’interno di una larga prospettiva storica, al fine di costruire un quadro teorico dei nuovi media che consenta di comprendere il presente. Individuare le traiettorie che hanno portato all’attuale situazione dei nuovi media così da poter estrapolare l’evoluzione futura. Le due traiettorie separate che hanno portato – nel loro processo di convergenza - la situazione attuale, sono per Manovich “l’informatica e le tecnologie mediali che nascono negli anni Trenta del XIX secolo, con la macchina analitica di Babbage e il dagherrotipo di Daguerre” (figura 1). Quest’ultimo ebbe un immediato utilizzo nella fotografia, prima, nel cinema, poi; per individuare un’applicazione della macchina di Babbage, invece, bisognerà aspettare quasi un secolo, fino alla macchina universale di Turing segiuta dal computer ed infine dalla tecnologia digitale.
34
Figura 1 – Camera fotografica e Macchina di Babbage.
Entrambe queste tecnologie riguardano l’archiviazione e la distribuzione di immagini e dati, il che ha fornito a questi settori un importante sviluppo in termini di tecnologie e diffusione. Alla fine il computer ha avuto il sopravvento, come sottolinea ancora Manovich: “Il codice iconografico del cinema deve cedere il posto al più efficace codice binario. […] Le due traiettorie storiche si incontrano: tutti i media preesistenti vengono tradotti in dati numerici, accessibili al computer. Ed ecco il risultato: grafici, immagini in movimento, suoni, forme, spazi e testi diventano computabili, diventano cioè, degli insiemi di dati informatici. In sintesi i media diventano “nuovi media”. Questo incontro è destinato a modificare l’identità dei media e dello stesso computer, non più semplice calcolatore, meccanismo di controllo o mezzo di comunicazione: il computer diventa un processore di media.” Le caratteristiche dei nuovi media Sintetizzaimo sempre da Manovich, le caratteristiche dei nuovi media. Rappresentazione numerica: il codice digitale implica una rappresentazione numerica. Quindi un nuovo medium può essere rappresentato secondo un formalismo di tipo matematico, come per esempio un’immagine digitale, essere cioè sottoposto a manipolazione algoritmica, pensiamo per esempio ai ritocchi fotografici con filtri. I nuovi media sono dunque programmabili. Modularità: è questa una caratteristica che facilita l’assemblaggio in strutture di dimensioni vaste conservando l’identità degli elementi. Alcuni esempi: il concetto di oggetto utilizzato nelle applicazioni Microsoft Office, nelle pagine web, o alla base della modularità nella
GEOmedia
N°3 2008
programmazione, ecc. La modularità consente una programmazione di tipo diverso da quella algoritmica perchè lavora a un livello più elevato, tenuto conto della autonomia di significato di ogni singola componente. Automazione: la codifica numerica e la struttura modulare consentono l’automazione di molte operazioni necessarie per la manipolazione e l’accesso ai media; quindi ripetibilità di processi anche in assenza di operatore umano. Variabilità: è strettamente legata all’automazione. Il nuovo oggetto mediale può essere declinato in modalità diverse da quella programmata dal creatore, data la facilità di intervento concessa dalla modularità. Trascodifica: in senso stretto fa riferimento al passaggio da un formato a un altro. Manovich lo usa per indicare il passaggio di concetti dal livello informatico al livello culturale: una trascodifica culturale di categorie e concetti che sono alla base del funzionamento del computer. La logica del computer influenza quella tradizionale dei media, creando nuovi generi basati sul funzionamento delle interfacce, le strutture dei database, ecc. Cartografia e nuovi media Partiamo dal concetto base dei nuovi media, ovvero la computerizzazione, il passaggio al digitale, al numerico. Il mondo della cartografia ha vissuto materialmente questo passaggio negli anni in cui si digitalizzò (con digitizer e scanner) tutto il patrimonio cartaceo, pur rimanendo all’interno del paradigma cartografico tradizionale fatto di elementi cartografici o, addirittura, di fogli di carta e relative cornici. C’erano i layer che corrispondevano in molti casi ai tipi di colore della stampa. Si cominciarono poi a produrre carte numeriche, inizialmente con la stessa logica dei layer, e un po’ alla volta con quello che oggi si chiama geodatabase. Nel geodatabase l’elemento cartografico scompare - e viene mantenuto per finalità di stampa, di archiviazione e di accesso. La carta come spazio strutturato, rete di luoghi, scompare ed è sostituita dall’informazione geografica che sta nel database. La differenza è grande e non è casuale che sempre più frequentemente, nell’ambiente cartografico, si parli di geo-informazione, distinguendola dalla carta, che viene invece intesa come l’espressione grafica della geoinformazione (figura 2): “Però, le carte stanno cambiando. La trasmissione di ogni sorta di geo-informazione richiede altri tipi di media oltre la carta. Ne sono un esempio le SDI, infrastrutture di dati spaziali, strumento chiave nella attuale trasmissione dell’informazione. Le SDI non possono essere definite come carte, nonostante possano trasmettere carte. Una carta non costituisce più “l’informazione”, ma piuttosto “l’espressione dell’informazione”. (Brodersen, 2007) Figura 2 – Paradigma della geo-comunicazione secondo Brodersen: fornire una informazione finalizzata alla decisione.
La citazione mette a fuoco la transizione della cartografia: nasce l’infrastruttura di dati spaziali dove si realizzano tutti i principi dei nuovi media elencati da Manovich. Essa è un grande database che contiene dati di base e tematici, metadati, una serie di servizi. Quindi una separazione del contenuto dall’interfaccia da cui derivano modularità e variabilità - ovvero la possibilità dell’utente di
Figura 3 Componenti di un SDI (fonte D. Grünreich)
personalizzare la composizione dell’oggetto mediale - che è quindi anche interattività e ipermedialità. Automazione, nella misura in cui l’utente può scegliere e poi ripetere automaticamente le modalità di accesso, di recupero e di display dei dati (figura 3). La carta tradizionale, numerica o meno, è quindi morta? Il problema viene trattato da D. Grünreich in un recente articolo dal titolo “The Role of Cartography in the Framework of SDI”. Riprendendo uno schema di E. Spiess, Grünreich propone una visione moderna della cartografia concentrata sulla predisposizione di processi di produzione cartografica ottimizzata per vari scopi e utenti, in tutti i campi d’uso dell’informazione geospaziale. Questo approccio viene illustrato da uno specifico modello a tre assi (figura 4) i quali rappresentano: il contenuto da rappresentare (dalle tematiche più semplici alle più complesse), le finalità della comunicazione (da semplice ricognizione a specifico messaggio mirato), il tipo di consultazione (da semplice percezione statica a completa interattività).
Figura 4 - Map Graphics secondo tipologie di trasformazione (graphics filter) da Spiess, 2003
La cartografia svolge la funzione di un filtro grafico che assicura che i geodati siano trasformati in visualizzazione cartografica ottimale. Il filtro progetta le regole e i parametri di generalizzazione e simbolizzazione in funzione della visualizzazione cartografica richiesta, delle capacità di interazione, e di competenze cartografiche dell’utente. Si potrà così ottenere sia la classica carta, sia una visualizzazione ai fini di una ricerca interattiva. Vanno quindi estese le funzionalità dei geo-portali in modo che mettano a disposizione procedure standard di visualizzazione per una Tele-cartografia. Il punto di vista di Manovich Può essere utile qui la più generale riflessione di Manovich che afferma che la struttura dei nuovi media oggi si compone di due entità: interfaccia e dati, ovvero navigazione e database.
35
GEOmedia
N°3 2008
Nel loro insieme - nell’ottica del computer - le strutture dati e gli algoritmi sono le due metà dell’ontologia del mondo. L’era dei computer ha creato un nuovo algoritmo culturale: realtà/media/dati/database. Una volta digitalizzati, i dati vanno ripuliti, organizzati e indicizzati. Un database informatico è completamente diverso da una tradizionale archiviazione di documenti: permette di accedere, classificare, riorganizzare milioni di registrazioni in pochi minuti, può contenere vari tipi di media e assumere più forme di indicizzazione dei dati. La proposta di Grünreich e di Spiess è appunto vedere il processo di visualizzazione cartografico alla stregua di un’interfaccia in grado di costruire quella struttura di luoghi che caratterizza la cartografia e il messaggio cartografico. Figura 5 – I nuovi media modificano il ruolo del ricevente del Mappamondo di messaggio cartografico trasformandolo da spettatore/lettore Beatus di Liebana, passivo a utente attivo che crea la propria carta. XI° secolo. Per spiegare la differenza tra i media tradizionali e i nuovi media, Manovich utilizza i concetti di narrazione e descrizione tratti dalla teoria della narrazione. “La narrazione è costituita da quelle parti della trama narrativa che fanno procedere la vicenda; la descrizione è costituita da quelle parti che non influiscono su di essa, come la descrizione di un paesaggio, della città o di un appartamento. […] Se le culture tradizionali erano piene di narrazioni ben definite (miti, religioni, ecc.) e scarse Le cosiddette carte T-O informazioni, oggi abbiamo Nel Medio Evo la divisione latina dell’ecumene in troppa informazione e poche tre parti - Asia, Europa e Africa - viene narrazioni capaci di integrare schematizzata da una T che si iscrive in una O (Orbis Terrarum). Le mappe orbis terrae rappresentano il tutto.” sempre il mar Mediterraneo a forma di T che divide Dalle carte medievali T-O i tre continenti Asia, Africa ed Europa tutti circondati vere e proprie narrazioni del da un grande oceano, la O. La prima descrizione del mondo - arriviamo oggi alle mondo di questo tipo era stata data nel VII secolo SDI, infrastrutture di dati, da Sant’Isidoro di Siviglia nelle sue Etimologie semplici collezioni di dati e (capitolo 14: de servizi sui quali deve essere terra et partibus). costruita una narrazione. L’influenza Dalla narrazione che dell’autorità religiosa vi organizza un tutto coerente e inserisce una sequenziale alla collezione. visione ispirata alla “Come forma culturale il cultura cristiana e database rappresenta il la completa con mondo come un elenco di elementi della voci non ordinate e che si storia biblica. Due rifiuta di ordinare. Invece la le caratteristiche Il più antico esempio di carta T- principali: la narrazione crea una O. La prima pagina del cap.XIV rappresentazione traiettoria causa-effetto di delle Etimologie del paradiso voci (eventi) solo all’estremo Est (in alto) e la posizione di apparentemente disordinati. Gerusalemme al centro del mondo. Perciò database e narrazione Il mappamondo di figura 5, realizzato alla metà del sono nemici naturali.” XI sec., era stampato nel prologo dei commentari di Possiamo quindi inserirci Beatus di Liebana all’Apocalisse (seconda metà all’interno di una nuova dell’VIII° sec.) e seguiva questi dettami. prospettiva, che vede la In alto il Paradiso, al centro il Mediterraneo e la narrazione interattiva come la Terra Santa, mentre l’Asia (semi-cerchio superiore) è sommatoria di più traiettorie separata dall’Africa (quarto di cerchio inferiore a destra) dal Mar Rosso e dall’Europa (quarto di che attraversano un cerchio inferiore a sinistra), dal Bosforo. Secondo P. database. de Dainville in questo mappamondo si possono Possiamo chiamarla leggere “le tappe dei luoghi dove riposano i corpi ipernarrazione dei santi, pietre viventi della Gerusalemme analogamente terrestre”. all’ipertesto. La In esso, descrizione geografica e funzione narrativa narrazione si sovrappongono.
36
tradizionale lineare è solo una delle tante possibili. Bene o male, l’accesso all’informazione è diventato una attività chiave nell’era digitale ovvero dell’information design. Parafrasando il titolo di un famoso libro dello storico dell’architettura Sigfried Geidion (1948) “è il motore di ricerca che assume il comando”, l’accesso all’informazione non è solo una forma essenziale di lavoro, ma anche una nuova essenziale categoria della cultura. Quella di Grünreich e Spiess nient’altro è che la proposta di predisporre insieme a tutte le possibili narrazioni che l’utente esperto può costruirsi, tutte quelle narrazioni lineari già esistenti nella Figura 6 – Nuovi media: cultura grafico-cartografica. l’utente crea la propria carta.
Riferimenti Brodersen L. (2007), “Paradigm Shift from Cartography
to Geo-Communication”, XXIII ICC Proc., CD-Rom. 12p. Georg Gartner, William Cartwright and Michael P.
Peterson, Location Based Services and TeleCartography, Springer, 2007. Grünreich D. (2007), “The Role of Cartography in the Framework of SDI”, XXIII ICC Proc., CD-Rom. Mc Luhan M. (1964) Understanding Media (Gli strumenti del comunicare, tr.it.di E. Capriolo. Milano: Net, 2002). Manovich L. (2001), The language of New Media, MIT. (Il linguaggio dei nuovi media, ed. Olivares, Milano, 2004). Spiess, E. (2003), “Die Bedeutung der Kartengrafik”, Entwicklungstendenzen der Kartographie. Karlsruhe.
Abstract Cartography and new medias Digital media involved cartography domain during the last years yielding a sequence of changes from the digital cartography to the Spatial Data Infrastructure (SDI). This paper assumes the theories developed by Lev Manovich about the new media languages and analyses their consistency in the field of Geographic Information. It explores the continuity of traditional media schemes as well the arising and/or emphasizing of new functions allowed by new media.
Autore ALBERTA BIANCHIN Lab. GEDDeS - Dip. di Pianificazione. Università IUAV di Venezia, Ca’ Tron, S.Croce 1957, 30135 Venezia, tel.041.2572300, fax 041.5240403 e-mail: alberta@iuav.it
GEOmedia
N°3 2008
Nuovi metodi di rappresentazione tridimensionale crescono
Menci software (Arezzo) sta presentando Flyscan, un’applicazione dedicata al settore archeologico che sfrutta la tecnologia Zscan, di proprietà della stessa Menci software. Il sistema Flyscan è stato sviluppato in collaborazione con l’ITABC di Roma e permette in sostanza di ottenere
modelli aerei tridimensionali sfruttando tre fotocamere sincronizzate. Una leggera struttura metallica, agganciata a dei palloni gonfiati con elio che vengono spostati di volta in volta a seconda delle esigenze, mantiene ciascuna fotocamera in una posizione stabile e di cui si conoscono le coordinate. Grazie ad un controller radio le tre fotocamere vengono sincronizzate permettendo, ad ogni triplo scatto, di ottenere un modello tridimensionale dell’ambientesoggetto. Flyscan, come abbiamo detto, è basato
sulla tecnologia Zscan; essa è in pratica un metodo di acquisizione di scene 3D che non si appoggia su tecnologia laser scanner: grazie ad un sofisticato algoritmo di analisi delle immagini, Zscan riesce ad essere estremamente efficiente ed accurato. Il modello di acquisizione 3D RGB viene creato sfruttando solamente le immagini digitali prodotte dalle tre fotocamere. Il sistema Flyscan sarà utilizzato prossimamente in un rilievo archeologico in Giordania, a Petra e sull’antico castello crociato di Shawbak.
Stereoscopia in ArcGIS con PurVIEW
AZIENDE E PRODOTTI
Sistemi Avanzati presenta le estensioni software PurVIEW per ArcGIS che trasformano semplicemente e rapidamente ArcMap in un accurato ambiente di visualizzazione stereoscopica e di data-capture di features 3D, per accedere, visualizzare ed aggiornare i geodatabase vettoriali in sovrapposizione alle coppie stereoscopiche rivelando errori, omissioni, cambiamenti naturali, associando la quota agli elementi vettoriali, trasformando in 3D i tradizionali geodatabase 2D. Una famiglia di prodotti scalabile dall’economico modulo di visualizzazione stereo alla configurazione completa per l’editing 3D comprensiva di hardware specializzato per la visione stereoscopica professionale. La tecnologia PurVIEW gestisce stereocoppie singole o in blocchi da camera fotogrammetrica, da camera digitale ADS40/52, dai satelliti ad alta risoluzione quali Ikonos, WorldView-1, Quickbird, Eros. Per saperne di più e scaricare il software in valutazione visitate il sito www.sistemiavanzati.com (Fonte: Sistemi Avanzati)
(Fonte: Menci Software)
La nuova fotocamera digitale di Intergraph
Intergraph introduce la camera aerea digitale RMK D, strumento di formato intermedio progettato per rimpiazzare la tecnologia a film utilizzata nel mapping di piccole dimensioni, nei progetti di telerilevamento ed in quelli ingegneristici che necessitano immagini ad alta risoluzione. Nata come aggiunta alla suite di prodottti per l’imaging Z/I, la nuova fotocamera è ideale per chi è intenzionato ad operare il passaggio verso il digitale e per le organizzazioni che intendono integrare la propria dotazione di camere digitali con un dispositivo esplicitamente dedicato a progetti di dimensioni ridotte. La RMK D si caratterizza per un’elevata risoluzione geometrica, per la presenza di funzionalità che permettono di ottenere immagini anche con poca luce ed un’evoluta tecnologia di Forward Motion Compensation (FMC) in grado di ridurre l’effetto mosso nelle foto. Possiede anche sensori multispettrali ed una piena risoluzione a colori 1:1, cosa che permette di catturare simultaneamente immagini in rosso, verde, blu e Near Infra Red. La nuova RMK D di Intergraph sarà disponibile per l’inizio del 2009. (Fonte: Redazionale)
Il Nomad di Spectra Precision evolve con un nuovo software Spectra Precision ha introdotto da poco il nuovo Nomad data collector, caratterizzato dal nuovo software Field Surveyor 2.0, dedicato alle stazioni totali FOCUS 10 ed ai sistemi GPS EPOCH 25. Il dispositivo, grazie al nuovo software, fornisce funzionalità potenziate per la raccolta dei dati topografici, per il layout ed il picchettamento, i confini, il catasto, le routine COGO ed il roading. La configurazione base del Nomad prevede un processore a 806 MHz, 128 MB di memoria e tecnologia Bluetooth integrata. Inoltre, il dispositivo comprende un ricevitore GPS integrato e connettività WiFi. La serie Nomad è in linea con lo standard MIL-STD-810F riguardo la resistenza agli urti, alle vibrazioni ed agli sbalzi di temperatura. Gode anche di un rating IP67, il che vuol dire che il dispositivo è resistente all’acqua fino ad un metro di profondità. Pesante 595 grammi, il Nomad è perfettamente maneggevole ed entra esattamente in una mano. (Fonte: Redazionale)
38
La gestione degli Asset Aziendali con Maximo Enterprise Suite
Lo scorso 24 giugno si è tenuto, nella futuristica sede IBM di Roma, un interessante meeting sulla gestione degli asset attraverso la convergenza di soluzioni GIS Based e piattaforme per la pura gestione amministrativa degli asset aziendali. La soluzione specifica, denominata Maximo Spatial, rappresenta la convergenza di circa 40 anni di esperienza della MRO USA, delle tecnologie IBM e infine delle tecnologie GIS di ESRI. La gestione degli asset rappresenta per ogni azienda o organizzazione un aspetto non indifferente, spesso è l’aspetto piu’ critico in termini di produzione, sicurezza e redditivita’. Gestire una catena di montaggio, dei contatori del GAS o la manutenzione di un mezzo di trasporto puo’ rappresentare un insieme di problematiche che mettono a comun denominatore diversi aspetti. Primo tra tutti la localizzazione geografica – o georeferenziazione – in secondo luogo l’uso di un DB e, ancora, i processi e le scadenze in termini di manutenzione, manutenzione programmata, ma anche semplicemente l’identificativo o numero di serie. Attraverso la gestione intelligente degli asset si ha come risultato immediato il ritorno dell’investimento, questo sia perchè l’automazione di alcuni processi da un beneficio immediato, sia perchè si riduce in genere il tempo di intervento e soluzione di eventi eccezionali, ma anche semplicemente perchè si gestisce la manutenzione programmata, o la reperibilità di un pezzo di ricambio e il conseguente ordine al fornitore. Sul fronte degli strumenti GIS e delle interconnessioni tra la gestione degli asset e gli aspetti del mapping, due relazioni hanno posto l’accento sul tema. La prima tenuta da Mariantonietta Cataldo, project manager di Visiant security (www.visiant.it), la seconda da Piero Centomini, alliance manager di Esri Italia. La potenza della componente GIS di MAXIMO non si ferma alla compliance col sistema ESRI ArcGIS 9, bensì va oltre attraverso l’interfaccia agli altri GeoDB di casa Intergraph, Oracle, ecc. Diffuso in 103 paesi e disponibile in 20 lingue, MAXIMO sembra essere il prodotto leader per le soluzioni integrate e la gestione strategica degli asset aziendali, ovvero una vera e unica soluzione per l’ Enterprise Asset Management. Sulle implicazioni del business e della piattaforma MAXIMO torneremo presto su questa pagine. (Fonte: Redazionale)
Nasce il ricevitore GPS più piccolo del mondo SiGe Semiconductor ha appena rilasciato l’SE4150L, un ricevitore radio GPS con capacità di input a doppia antenna dedicato ai sistemi GPS di prossima generazione. La SiGe ha progettato il ricevitore per andare incontro alle esigenze sempre più spinte del mercato delle applicazioni GPS embedded: per questo l’SE4150L è piccolo, ha un consumo ridotto ed ha un prezzo abbordabile, pur mantenendo delle prestazioni di livello. Proprio le dimensioni (4x4mm) rendono questo ricevitore perfetto per applicazioni GPS; inoltre, l’output multibit che lo caratterizza, aumenta la sensibilità e la resistenza alle interferenze dell’SE4150L per questo tipo di applicazioni. Costruito sulla base delle architetture dei precedenti ricevitori SiGe Semiconductor SE4120L e SE4110L, l’ultimo nato offre caratteristiche aggiuntive che facilitano l’implementazione di un’architettura per antenne esterne o interne. Se con questo nuovo ricevitore SiGe indirizza uno sforzo al mercato dei Personal Navigation Device (PND), ciò non toglie che l’SE4150L potrà servire altri tipi di applicazioni nelle quali è fondamentale l’elevata performance e la necessità di un ridotto consumo energetico. (Fonte: Redazionale)
GEOmedia
N°3 2008
Presentata la RapidOrtho DualCam System di Applanix Presentata durante lo scorso ISPRS Di Pechino, la DSS 439 RapidOrtho DualCam rappresenta la versione duale del precedente sistema per il mapping di medio formato di Applanix: il 439 RapidOrtho. La nuova versione aggiunge una seconda camera DSS con un array CCD monocromatico specificatamente configurato per catturare immagini in NIR (Near Infra Red). La nuova evoluzione del sistema è disponibile in stand alone oppure può essere integrata con LIDAR. Le applicazioni coperte dalla RapidOrtho DualCam sono molteplici e spaziano dal mapping costiero alla gestione delle foreste, compreso il mapping delle biomasse e le tipiche applicazioni di mapping aviotrasportato. Il sistema è attualmente disponibile tramite la rete di vendite Applanix. (Fonte: Redazionale)
AZIENDE E PRODOTTI
E’ disponibile il nuovo software per ArcPad ESRI ha rilasciato ArcPad 7.1.1 e ArcPad Application Builder 7.1.1, le ultime versioni del software GIS dedicato al mapping ed alla raccolta dati. La nuova versione potenzia la fase di raccolta dati sul campo e permette agli utenti di dispositivi mobile di prendere decisioni pià rapidamente ed in maniera accurata. Il software può essere customizzato a seconda delle diverse esigenze grazie all’Application Builder. Il tutto si integra perfettamente con le tecnologie desktop di ESRI. Tra le nuove funzionalità lo StreetMap Desktop Data Extractor, grazie al quale sarà possibile estrarre facilmente dati dai dataset forniti da Tele Atlas. Un migliorato supporto per i database relazionali grazie alla soluzione di precedenti bug ed un supporto ID globale nel geodatabase. Una nuova funzione chiamata Satellite connessa al GPS favorisce poi l’efficienza e la facilità d’uso del sistema. Per ulteriori informazioni visitate il sito ESRI: www.esri.com/arcpad (Fonte: Redazionale)
Kubit annuncia PointCloud 4.0 e PointCloud Pro 4.0 Kubit ha annunciato la versione 4.0 di PointCloud e PointCloud Pro: l’aggiornamento del software presenta nuove utili funzionalità in grado di velocizzare l’elaborazione e la valutazione di nuvole di punti ottenute da laser scanner all’interno dell’ambiente AutoCAD. Con la versione 4.0 potranno essere editate più nuvole di punti allo stesso momento. PC Pro permette di congiungere polilinee, cilindri o piani a sezioni definite della nuvola, così da restituire, in maniera facile, una rappresentazione accurata degli angoli degli oggetti. Un’altra funzionalità permette di implicare fotografie (scattate col laser scanner) all’interno del processo, velocizzando il flusso di lavoro e permettendo valutazioni qualitativamente migliori. Una versione demo del software di Kubit è disponibile sul sito dell’azienda al sito: www.kubit.it
(Fonte: Redazionale)
40
Trimble lancia la serie GeoExplorer 2008
Trimble ha introdotto la nuova serie di dispositivi portatili dotati di tecnologia GPS integrata: GeoExplorer 2008. Tra i tre modelli disponibili, il nuovo GeoXH si pone come un vero e proprio punto di riferimento nei settori del mapping e del GIS, grazie alla precisione nel posizionamento nell’ordine del decimetro. Grazie alle elevate potenzialità di data collection GIS del GeoXH, gli operatori sul campo potranno facilmente effettuare lavori di mapping su infrastrutture e più accurati lavori di inventariazione di sottoservizi. Dal momento che il posizionamento ad alta precisione del nuovo dispositivo Trimble è disponibile in tempo reale, gli operatori del settore delle utilities, il personale addetto ai lavori di pubblica utilità e tutti quelli che hanno a che fare sottoservizi nascosti, potranno effettuare operazioni di scavo in maniera più sicura senza il timore di intervenire per sbaglio su asset contigui. In più, la fase di elaborazione propria del back-office viene eliminata, grazie allo streaming in rete degli inventari dei sottoservizi e dei lavori di mappatura aggiornati in base al loro sviluppo. Il prodotto è disponibile tramite la tradizionale rete di distribuzione Trimble: per ulteriori informazioni www.crisel.it (Fonte: Redazionale)
GEOmedia
N°3 2008
Nuovi strumenti di
TERRA E SPAZIO
telerilevamento da satellite nel controllo del territorio 2a parte
di Michele Dussi
Il sistema Cosmo-Skymed, soluzione innovativa per le applicazioni di osservazione della Terra, apre uno scenario
nuovo nell’impiego del telerilevamento da satellite. Questa seconda parte – che segue l’articolo pubblicato sul numero 1-2008 di GEOmedia – introduce all’uso applicativo delle immagini fornite dal sistema.
Nell’articolo precedente abbiamo visto una descrizione generale del sistema Cosmo-Skymed, di tipo architetturale e funzionale senza tuttavia entrare nelle tecnicità dell’image processing. Ora passiamo a vedere sinteticamente le caratteristiche principali da tenere in conto nell’uso delle immagini radar. Successivamente esemplificheremo due casi di applicazioni in cui l’uso di Cosmo può effettivamente marcare una differenza importante rispetto al quadro delle tecnologie precedentemente disponibili. La costruzione delle immagini SAR Nell’analisi delle immagini SAR, occorre tener conto di alcune tipicità derivanti dalle caratteristiche fisiche e geometriche del metodo di generazione delle riprese. Il SAR opera per mezzo di onde elettromagnetiche ed il sensore (antenna) consente di rilevare particolari parametri di ritorno degli impulsi trasmessi (intensità del segnale di ritorno o backscattering, fase di ritorno, tempo di ritorno, polarizzazione, caratterizzazione Doppler). Ognuno dei parametri, da solo o in combinazione con altri, fornisce informazioni utili alla costruzione dell'immagine per pixel ed alla valutazione per questi di alcuni aspetti specifici (copertura del suolo, elevazione, distanza, caratterizzazione risposta, focalizzazione target) (Figura 1a). Per costruire un’immagine utilizzabile a partire dai segnali di ritorno di tutti gli impulsi inviati dal sensore, occorre ricostruire lo schema geometrico della griglia di ripresa a
terra attraverso opportuni procedimenti di focalizzazione del segnale per aumentare la risoluzione e di correzione della distorsione sulla geometria laterale (slant range vs ground range). Una volta fatto questo si ha una immagine per pixel analoga a quelle derivanti dai più noti sensori ottici (Figura 1b).
Fig.1b distorsioni di ripresa - © ESA
Peculiarità delle immagini SAR La granularità (speckle) è la caratteristica più evidente e deriva dal sovrapporsi per ogni pixel del backscattering di elementi circostanti a quello target. E’ una sorta di rumore che rende l’immagine meno nitida. La correzione di questo aspetto presenta un limite dipendente dal sistema. Le distorsioni dipendenti dall’orografia sono di tre tipi e sono facilmente riconoscibili sulle immani SAR. Il foreshortening che consiste nell’accorciamento di distanze per punti che giacciono su una superficie di rilievo orientata verso il SAR, il layover che consiste in un ridotto backscattering evidenziato da zone molto bianche delle immagini corrispondenti a superfici di rilievo viste dal SAR con angoli molto obliqui, lo shadowing che consiste in vere e proprie zone d’ombra del segnale di ritorno su superfici non in visuale del SAR. (Figura 2a)
Fig.1a backscattering - © ESA earth esa int.
42
Fig.2a distorsioni di orografia - © ESA & PoliMi.
GEOmedia
N°3 2008
Fig.2b Perimetrazione Corpi idrici - ©ASI 2007-2008 all rights reserved.
Questi tipi di errori non sono completamente correggibili con una singola ripresa, occorre integrare le informazioni mancanti con altre immagini prese da punti di vista e angolazioni diverse. Le superfici orizzontali completamente scure corrispondono di solito a elementi che non riflettono verso la sorgente SAR, in particolare i corpi d’acqua ferma (laghi, stagni, ecc. – Figura 2b). Viceversa, i corpi metallici con superfici geometricamente capaci di riflessione parallela alle onde incidenti, appaiono come punti molto luminosi con scie nelle direzioni di moto del fascio elettromagnetico del SAR (Figura 2c).
L’ interferometria e i suoi derivati Oltre al trattamento della singola immagine, sono state messe a punto una serie di tecniche elaborative basate sulle caratteristiche fisico-matematiche del segnale SAR, in particolare tecniche interferometriche. Molto schematicamente, l’interferometria origina dal fatto che la fase associata ad ogni pixel è scomponibile in una parte derivante dalla distanza SAR-target e da un termine aggiuntivo che tiene conto di diversi tipi di errore indotto (phase-shift di riflessione, atmosferico, di rumore). Questo termine aggiuntivo di errore può considerarsi costante per riprese successive a poca distanza di tempo dello stesso punto benchè da posizioni diverse. Così, per differenza tra due riprese successive, otteniamo che la differenza di fase è proporzionale alla differenza di distanza delle due riprese (Δφ=κΔr), che equivale a dire di poter correlare le variazioni di quota alle variazioni di fase. I valori di fase possono essere rappresentati attraverso un interferogramma che di fatto evidenzia le curve di livello e mostra curve più fitte per variazioni più marcate (Fig.3). Un elemento critico è che la differenza di fase è definita a meno di 2π e questo non consente immediatamente di valutare differenze di quota assolute, ma solo relative. Per passare alle quote assolute occorre calcolare quante volte la fase dell’onda elettromagnetica riflessa (per semplicità pensiamola sinusoidale) ha effettuato un giro completo pari a 2π. Si opera attraverso particolari algoritmi di srotolamento (phase unwrapping), strumenti matematicamente complessi anche se concettualmente semplici. Senza dilungarci troppo sui metodi, l’applicazione di questo principio consente di costruire un DEM da immagini SAR, quindi una topografia dell’area osservata, ed anche di
Fig.2c Svincolo autostradale - ©ASI 2007-2008 all rights reserved.
Fig.3 CINA interferogramma Elaborazione PoliMi e Prot.Civile dati © ASI 2008 All rights reserved
valutare spostamenti della crosta terrestre per confronto tra successive riprese ed un DEM di riferimento, quindi evidenziare fenomeni di subsidenza o altre deformazioni superficiali (Figura 4). In sintesi abbiamo lo schema seguente per livelli di processamento e analisi. Rilevazione
Tecnica
Procedimento
Copertura della superficie
SAR
Modelli di back-scattering
Elevazione del suolo
InSAR
Interferogrammi + srotolamento di fase
Spostamenti della crosta
DifSAR
InSAR + confronti successivi
43
GEOmedia
N°3 2008 Fig.4 DEM Etna - © ESA su dati ERS
Due esempi di ambiti applicativi Le caratteristiche tecniche più rilevanti di Cosmo sono la elevata ripetitività, che accorcia enormemente i tempi di rivisitazione rispetto ai sistemi monosatellite, la risoluzione elevata, che consente riconoscimenti delle geometrie a terra molto spinte, l’operatività ogni-tempo, grazie al sensore radar. E’ evidente quanto queste tre caratteristiche rendano Cosmo particolarmente utile per impieghi di monitoraggio in condizioni di emergenza da calamità naturali o comunque con condizioni avverse, quindi per applicazioni di Protezione Civile. All’estremo opposto vi è la possibilità di poter effettuare anche operazioni nelle quali il tempo di risposta non è affatto critico in termini assoluti, ma l’accesso ai dati riveste tuttavia una sua importanza rispetto ai processi usuali di svolgimento di operazioni tecniche. Stiamo parlando della tipica attività di verifica della cartografia. Applicazioni di protezione civile: rilevazione post-evento Un esempio eclatante delle grandi capacità di Cosmo si è avuto a seguito dei recenti eventi calamitosi in Estremo Oriente. Nelle circostanze, l’Agenzia Spaziale Italiana ha potuto effettuare un survey delle zone con grandissima tempestività e con elevata efficacia, ottenendo un vero successo sia operativo che scientifico. Il terremoto ha sorpreso gli abitanti del Sichuan e in particolare delle aree montagnose a nord della metropoli di Chengdo, costellate di piccoli paesi (Wenchuan, Beichuan, per citare i più colpiti), alle 14,30 circa del 12 maggio scorso. La violenza delle scosse ha raggiunto i 7,8 gradi della scala Richter. Quando nel 1908 a Messina si raggiunsero i 7,1 gradi, la città fu distrutta quasi interamente, con un bilancio di 130.000 morti. Nel 1915 ad Avezzano si raggiunse l’XI grado della scala Mercalli (scossa catastrofica) con 29.000 vittime e 120.000 sfollati. In Irpinia, nel 1980, si arrivò ai 6,8 gradi Richter con 3.000 morti. Non c’è quindi da meravigliarsi se in Cina, tenendo conto anche dei differenti sistemi di fabbricazione e di un contesto geologico diverso, sono stati finora accertati 35.000 tra morti e dispersi e 5 milioni di senzatetto, pari a tutti gli abitanti del Lazio (la stesura dell’articolo è stata completata il 17 giugno 2008. NdR). E’ proprio allo scopo di fornire aiuto in circostanze drammatiche come queste che Cosmo-Skymed è stato pensato e realizzato con le caratteristiche che ha, per consentire rilevazioni in condizioni avverse al fine di conoscere tempestivamente dove e come intervenire. Il tempo è sempre la risorsa più pregiata. “Quando i sismografi di tutto il mondo hanno registrato l’evento, e la notizia è arrivata in Italia, abbiamo cominciato a pensare a come dare supporto con i nostri sistemi alle operazioni di gestione dei soccorsi”. Alessandro Coletta – un fisico con molti anni di esperienza nel settore spaziale sia nell’Industria sia sul lato della ricerca e oggi responsabile della missione Cosmo-Skymed nell’Agenzia Spaziale Italiana –
44
ricorda così la riflessione della prima ora sulla possibilità di utilizzare le immagini radar satellitari per agevolare le operazioni di soccorso, basandosi anche su una precedente e analoga operazione seguita all’emergenza in Myanmar, in cui le riprese radar hanno dato il meglio delle proprie potenzialità, mappando rapidamente tutte le zone inondate e le aree distrutte dal ciclone Nargis. “Le autorità cinesi hanno inoltre esplicitamente gradito e voluto il supporto dell’ASI per la fornitura di strumenti di monitoraggio, dando così anche ulteriore esito positivo a tutti i precedenti colloqui avuti tra le rispettive istituzioni sulla potenziale collaborazione attorno a Cosmo-Skymed”. Nell’immediato post-evento, le condizioni meteo particolarmente avverse hanno impedito per parecchio tempo ai mezzi aerei cinesi di effettuare efficaci ricognizioni di quanto accaduto. Così non è stato per le riprese effettate da Cosmo-Skymed che ha osservato – grazie al radar – sia attraverso le nuvole che di notte. Una volta proceduto alla pianificazione delle riprese, non è rimasto che attendere l’acquisizione delle immagini che, attraverso una rete di stazioni terrestri distribuite sul globo (Cordoba in Argentina, Kiruna in Svezia oltre a Matera per lo scarico dei dati), sono state trasmesse al Centro di Matera dove i tecnici della Telespazio, ci racconta Luca Pietranera, hanno proceduto alla elaborazione e ritrasmissione in Cina. Pietranera, un fisico tra i più esperti di trattamento delle informazioni telerilevate, valuta che le immagini siano state rese disponibili alle autorità cinesi circa 6 ore dopo l’acquisizione (e in assoluto 28 ore dopo la scossa sismica), comprendendo in ciò anche i tempi di trasmissione (circa 1 ora) che incidono parecchio su dati di rilevante quantità ai quali si fa fare letteralmente il giro del mondo. “Per usare al meglio il sistema” – aggiunge Pietranera – “sarebbe opportuno disporre, su tutti i territori potenzialmente a rischio, di riprese in condizioni ante-evento, in modo da poter effettuare subito anche delle analisi di change-detection che meglio consentono di definire le aree danneggiate e l’entità dei danni, come pure di fare elaborazioni particolari utilizzando l’interferometria che consente di arrivare a misurazioni delle deformazioni del suolo sub-centimetriche” (si veda in fig.3 Interferogramma predisposto dal Dip.Protezione Civile con il Politecnico di Milano. NdA.). “Quando la costellazione dei satelliti Cosmo sarà completa” – continua Coletta – “sarà ancora più facile ridurre i tempi di ripresa e disporre di immagini programmate per massimizzare l’efficacia delle elaborazioni mirate su specifici aspetti o effetti degli eventi calamitosi”. Applicazione di cartografia: verifica speditiva Intendiamoci: non stiamo parlando di aggiornamento cartografico – procedura che deve rispettare norme tecniche precise, della stessa qualità tecnica della carta sottoposta al processo. Stiamo invece dicendo che, in sede di stesura di piani o progetti è importante – anzi indispensabile – sapere che un elemento territoriale è variato, o che un nuovo manufatto esiste in un dato punto, disponendo almeno delle caratteristiche geometriche di massima e della localizzazione relativa rispetto agli elementi circostanti. La produzione di cartografia tecnica, effettuata usualmente da o per conto di Enti Pubblici secondo normative tecniche stringenti e procedimenti amministrativi vincolanti, richiede abitualmente da 5 a 10 anni per una copertura completa di aree sufficientemente vaste da ottimizzare i tempi ed i costi. Esempi tipici sono la carta tecnica a scala regionale o le cartografie di pianificazione territoriale di coordinamento ed urbanistica. Esiste cioè un problema di sincronizzazione tra esigenze amministrative del territorio e tempistica di messa in
Fig.5 Modifiche di Infrastrutture - ©ASI 2007-2008 all rights reserved
produzione e completamento a norma della cartografia tecnica. Spesso l’Amministrazione si trova costretta a pianificare sulla base di carte precise quanto a caratteristiche tecniche di rappresentazione ma non più aggiornate proprio nelle parti più dinamiche – tipicamente quelle urbane o quelle attraversate da infrastrutture – che per loro natura necessitano maggiormente sia di vincoli pianificatori sia di conoscenza a priori. Per questo può essere molto utile disporre di un processo speditivo, possibilmente semi-automatico od assistito, che consenta di dare evidenza quali-quantitativa e immediata delle modifiche avutesi sul territorio rispetto ad una cartografia tecnica esistente di buona qualità ma della cui attendibilità non si può più essere completamente sicuri (Figura 5). Peraltro, ricordiamo che gli studi di fattibilità nell’usare il SAR per produzioni canoniche di cartografie datano circa 20 anni e sono stati finora sperimentati solo su piattaforme aeree. Da oggi, disponendo di riprese da satellite al alta risoluzione, sarà possibile anche raffinare i metodi e trasferire le tecniche già sperimentate sulle piattaforme aeree in campo spaziale. Conclusioni Abbiamo detto che le competenze sul trattamento e l’impiego di immagini da sensori radar non sono altrettanto diffuse rispetto alla tecnologia dei sensori ottici. Questo in primo luogo per la complessità tecnica dei sistemi SAR che richiedono un’importante fase di processamento sui parametri di segnale prima di arrivare a generare prodotti usabili con gli abituali strumenti di image-processing enduser. In secondo luogo perché, comunque, le caratteristiche dei prodotti base possono risultare di interpretazione meno intuitiva di quanto lo siano immagini da sensore ottico.
Purtuttavia, alcune delle caratteristiche sia tecniche sia operative rendono questo strumento utile, prezioso e in taluni casi senza alternative d’utlizzo. Non resta quindi che approfondire quanto schematizzato fin qui andando ad analizzare, nel dettaglio e sistematicamente, prodotti, tecniche e peculiarità necessari a risolvere specifiche classi di problemi di interesse.
Abstract New satellite remote sensing instruments for land management COSMO-Skymed remote sensing images, as well as other SAR (Synthetic Aperture Radar) missions, have their specific features, partly similar to optical system products.Pre-processing activities, allow the user to exploit the systems capabilites fairly easily after a focused training. SAR imaging's applications range from mission-critical applications (i.e. civil and military security applications) to simple user-driven ones (i.e. qualitative upgrade of civil cartography). In this application range, there is room for much development and optimization using new CosmoSkymed products. The best way to proceed seems to be tailoring single "vertical" application at a time.
Autore MICHELE DUSSI midussi@tin.it
45
GEOmedia
N°3 2008 Ad ottobre ritorna Intergeo
2008 15-17 settembre Sassari 84° Congresso Nazionale della Società Geologica Italiana Web: www.socgeol2008.org Email: info@socgeol2008.org 17-19 settembre Strasburgo, Francia Congress of the European Surveyors Web: www.geometre-strasbourg2008.eu Email: contact@geometre-strasbourg2008.eu
AGENDA
22-28 settembre Ostuni (Puglia), Isole Ionie (Grecia) 2nd International Tsunami Field Symposium Web: www.2ndtsunamisymposium.unile.it Email: staffmastro@geo.uniba.it 23-25 settembre Stratford, Inghilterra AGI-GeoCommunity 2008 Web: www.agi2008.com Email: info@agi.org.uk 25-26 settembre Monterenzio – Bologna Leica Geosystems presenta: Corso GPS/GIS “Nuovi principi e metodi integrati per la raccolta dati GIS sul campo, anche di precisione topografica” Web: www.leicageosystems.com/it/it/lgs_69785.htm 25-26 settembre Padova Corso base in “GIS e Open Source” Web:
www.ambientegis.com/corso.php Email: corsi@ambientegis.com 14-15 ottobre Roma Convegno “180 m2 di carte geologiche: i 20 anni del progetto di cartografia geologica nazionale” Servizio Geologico d’Italia / Dipartimento Difesa del Suolo – APAT Web: www.apat.gov.it/site/itIT/ContentsFolder/Eventi/2008/10/car g.html 21 -24 Ottobre L’Aquila 12a Conferenza Nazionale ASITA Web: www.asita.it Email: conferenza@asita.it 11-14 novembre Berlino, Germania International Symposium on GNSS, DGNSS Web: www.eupos.org Email: anette.blaser@senstadt.berlin.de
17-20 novembre Venezia VENICE 2008 - Second International Symposium on Energy from Biomass and Waste Web: www.venicesymposium.it Email: info@venicesymposium.it 21 novembre Modena – Camera di Commercio Geologia urbana di Modena: sostenibilità ambientale e territoriale Modena, Camera di Commercio Info: 051/2750142 - geosegr@tin.it
A Piacenza per il trentennale di Geofluid Geofluid compie 30 anni e fin dalle origini accompagna lo sviluppo e l’evolversi del mercato delle tecnologie ed attrezzature per la ricerca, estrazione e trasporto dei fluidi sotterranei. La mostra col passare degli anni è cresciuta in dimensioni, in completezza dell’offerta, in prestigio e autorevolezza internazionale, grazie alla sua impostazione specialistica, alla presenza delle aziende espositrici leader ed ai visitatori altamente qualificati. La 17a edizione di Geofluid avrà luogo come al solito presso il Centro Fieristico di Piacenza dal 1 al 4 ottobre 2008. Collateralmente alla sezione espositiva sono previsti numerosi e qualificati convegni, seminari, short course, organizzati dalle primarie Associazioni, Istituzioni, Università italiane e con collaborazioni internazionali. Per info: www.geofluid.it
46
Intergeo è il più importante evento dedicato alla geodesia, la geoinformazione e gestione del territorio. La fiera – e le conferenze che le fanno da corollario – coprono tutti gli aspetti chiave e le tendenze che fanno riferimento al mondo dei rilievi basati sulla geoinformazione, l’elaborazione dei dati e le applicazioni integrate. L’evento – annuale ed itinerante per tutta la Germania – si svolgerà quest’anno a Brema dal 30 settembre al 2 ottobre. Per ulteriori informazioni: www.intergeo.de Contatti: ofreier@hinte-messe.de
La conferenza AM/FM 2008 Si svolgerà a Roma, il 24 ed il 25 settembre, l’annuale appuntamento con la conferenza tematica di AM/FM. Ospitata al Centro Congressi dell’Università di Roma “la Sapienza”, in via Salaria 113, l’appuntamento sarà strutturato in due giornate tematiche, la prima rivolta ad analizzare prospettive di sviluppo della ricerca scientifica in Italia in materia di Informazione Geografica e tecnologia GIS, la seconda focalizzata su un aspetto molto specifico e di rilevanza quale è quello dell’analisi e valutazione di best practices di Infrastrutture di Dati Territoriali (IDT). Per iscriversi: www.amfm.it/conferenza2008/conf2008.html
Per info: conferenza2008@amfm.it
Indice Inserzionisti Abaco ASITA Cartlab Crisel Codevintec Eurotec Geo4all Geogrà Geotop GESP Intergraph L’Universo Menci Planetek SinerGIS Trimble Zenit
Pag...........19 Pag...........41 Pag...........14 Pag...........25 Pag...........37 Pag...........39 Pag...........4 Pag...........21 Pag...........15 Pag...........48 Pag...........2 Pag...........31 Pag...........27 Pag...........47 Pag...........23 Pag...........11 Pag...........18
Nel 2007, l’export russo è cresciuto del 29,6%. Il nostro, del 35%.
3.500.000 euro fatturati nel 2007, 35 dipendenti, investi-
Disponiamo di uno staff composto da professionisti laureati
menti in R&D pari al 10% del giro d’affari. Cifre forse mo-
in varie discipline, con un grado di specializzazione superiore
deste, in assoluto: ma rilevanti per un’azienda che opera in
alla media del settore, disponibili a recarsi all’estero e a colla-
un settore specialistico come quello dei sistemi di infor-
borare con colleghi stranieri.
matica geografica e tecnico-scientifica sviluppando solo
Infine (ed è ovviamente il punto a cui teniamo di più) sap-
progetti software su commessa.
piamo offrire soluzioni adatte alle reali esigenze dei nostri
Per raggiungere questi risultati, ci siamo impegnati.
clienti. Sappiamo integrare efficacemente i dati geo-spaziali
Abbiamo messo a punto procedure di lavoro innovative che
nella filiera produttiva, migliorando in modo significativo la
ci consentono di raggiungere l’eccellenza di prodotto nel ri-
performance del sistema IT.
spetto dei tempi e dei costi, con un livello qualitativo costan-
Se volete maggiori informazioni sulle nostre competenze, i
temente certificato.
nostri servizi e ciò che abbiamo realizzato in Italia e all’estero,
Continuiamo a investire in ricerca e formazione, operando sia
visitate il nostro sito o contattateci direttamente.
nell’ambito delle tecnologie standard, sia in quello del soft-
Scoprirete come abbiamo fatto a diventare la più importante
ware open source.
azienda privata italiana nel settore geospatial.
Ci siamo messi in gioco andando a competere in realtà come
Ma, soprattutto, scoprirete come possiamo rendere il vostro
la Russia, il Kosovo, la Romania, la Siria, la Turchia. E abbiamo
business ancora più produttivo.
verificato che, grazie all’esperienza acquisita lavorando con molte tra le maggiori aziende italiane, possiamo sostenere con successo il confronto sui mercati internazionali.
GESP Srl · Milano - Bologna http://www.gesp.it - gespsrl@gesp.it