iged.it n°3/12

Page 1

GESTIONE DELLE INFORMAZIONI DIGITALI FOCUS L’Agenzia per l’Italia digitale

APPROFONDIMENTI Verso l’Openness

ESPERIENZE La firma grafometrica al servizio del cittadino

EVENTI OMAT Roma, 14 -15 novembre 2012

Roma, 14 - 15 novembre 2012 www.omat360.it/rm12

ISSN 1720-6618

LA ASPETTANO A OMAT

Anno XX - Terzo trimestre 2012 LO/0690/2008

01_05_h.indd 1

23/10/12 17:40


Attiv ate le vostre informazioni.

Date impulso al vostro flusso di lavoro.

Sia nel caso di utilizzo di Microsoft SharePoint o di un’altra piattaforma di collaborazione, la sfida maggiore consiste nell’ottenere i dati critici dai supporti cartacei per integrarli nel flusso di lavoro dei processi aziendali. A tal proposito viene in aiuto la soluzione Kodak Info Activate. Essa semplifica l’acquisizione delle informazioni, rende il flusso di lavoro più organizzato, consente di tenere sotto controllo i contenuti e ottimizza l’integrazione dei documenti.

Per maggiori informazioni, visitate il sito www.kodak.com/go/InfoActivate MAggiore ProDuttivitA’

01_05_h.indd 2 49_12_Ad-Info-Activate-IT.indd 1

integrAzione CoMPletA

ottiMizzAzione Del Flusso Di lAvoro

18/10/12 25.09.12 16:43 09:52


La rivoluzione digitale prende forma.

I dati digitali, l’energia della tua azienda.

Roma,

14 e 15 novembre 2012 Ergife Palace Hotel, via Aurelia 619 - 00165 Roma

Tutto è informazione. Ne siamo circondati in ogni momento della nostra vita, professionale e privata. Le nuove tecnologie hanno abbattuto i confini della comunicazione e la nostra identità online non è più separabile da quella fisica. Nel business, la capacità di governare questa esplosione di dati segna la differenza tra chi cavalca la rivoluzione digitale in atto e chi la insegue. Dal 1990, OMAT è la più importante mostra convegno italiana dedicata alla gestione elettronica di documenti, contenuti e processi aziendali, una preziosa occasione per interagire con i protagonisti dell’information management e affrontare il mercato in modo sicuro, intelligente e vincente. Tutto è informazione. L’informazione è tutto.

Ingresso gratuito previa iscrizione su www.omat360.it/rm12 01_05_h.indd 3

19/10/12 15:43


EDITORIALE 03-2012

Il Bel Paese o il Paese di magagne e mugugni?

Editore

ITER srl www.iter.it Direttore Responsabile

Domenico Piazza A questo numero hanno collaborato:

Michela Cazzani, Claudio Cipollini, Sergio Farruggia, Stefano Foresti, Monica Franco, Nello Iacono, Caterina Lupo, Falvia Marzano, Francesco Pucino, Morena Ragone, Pierluigi Ridolfi, Gianni Sandrucci, Michele Slocovich Responsabile segreteria di Redazione

Petra Invernizzi

Crediamo che non ci sia praticamente nessuno che non si renda conto della situazione che sta attraversando il Paese, però, come sempre, ognuno ha la sua ricetta che è diversa da quella di tutti gli altri. Abbiamo un Bel Paese che non ha neppure più le toppe per coprire i buchi, che non può neppure dichiarare quanti sono e quanto sono grandi i buchi di Comuni, Province, Regioni, Enti, imprese, ecc. eppure siamo sempre lì a vedere le pagliuzze negli occhi degli altri piuttosto che rimediare alle travi che ci troviamo nei nostri. A tantissime magagne aggiungiamo infiniti mugugni. Intendiamo dire che sicuramente ci sono alternative alle scelte del Governo di questo ultimo anno, certamente poteva essere affrontato con maggior decisione e tempestività il taglio delle spese pubbliche, indubbiamente il recente decreto inerente il complesso sistema di passaggio al mondo digitale doveva essere più preciso e completo, ma ricordiamoci tutti che il “governo dei professori” ha giurato il 16 novembre 2011 e quindi neppure un anno fa. È necessario ricordare il grafico inerente il debito pubblico italiano? Il passaggio all’euro ci ha dato alcuni anni di interessi bassi che da un lato sono serviti a molti italiani per comprar casa con mutui convenienti e dall’altro a contenere gli interessi del Paese. Peccato che, invece di avviare una seria politica di contenimento dei costi si sia continuato, nell’area pubblica, a spendere e spandere come leggiamo tutti giornalmente e come il grafico documenta inequivocabilmente. >>> http://www.ideativi.it/blog/437/il-debito-pubblico-italiano-in-infografiche.aspx prendere grafico e fonte

Redazione

iged.it

Via Rovetta, 18 20127 Milano TEL: +39 02.28.31.16.1 FAX: +39 02.28.31.16.66

iged@iter.it www.iter.it/iged.htm Progetto Grafico

housegrafik info@housegrafik.com www.housegrafik.com Stampa

Ingraph Srl Seregno (MI)

Autorizzazione del Tribunale di Milano n. 157 del 7 marzo 1992. La tiratura di questo numero è di N. 10.000 copie. Pubblicità inferiore al 45%. Non si restituiscono testi e materiali illustrativi non espressamente richiesti. Riproduzione, anche parziale, vietata senza autorizzazione scritta dell’Editore. L’elaborazione dei testi, anche se curata con scrupolosa attenzione, non può comportare specifiche responsabilità per eventuali involontari errori o inesattezze. Ogni articolo firmato esprime esclusivamente il pensiero di chi lo firma e pertanto ne impegna la responsabilità personale. Le opinioni e più in genere quanto espresso dai singoli autori non comporta alcuna responsabilità per l’Editore.

Concludiamo invitando tutti i lettori di iged.it ad intervenire ad OMAT Roma il 14 e 15 di novembre per partecipare ai lavori ed alle discussioni e poi ad inviare alla redazione proposte sintetiche e concrete per migliorare la normativa in definizione per la parte di gestione e conservazione dei documenti digitali; il bicchiere è certamente mezzo vuoto ma, nell’interesse di tutti, cominciamo a vedere la parte mezza piena ed a lavorare su quella per migliorarla. L’agenda di OMAT - Office Management: Application & Technology - è al link >> http://roma2012.omat360.it/

04 iged.it 03.2012 01_05_h.indd 4

Flavia Marzano Domenico Piazza

22/10/12 18:44


FOCUS

06

Tempi interessanti? 07

L’Agenzia per l’Italia digitale Mission Impossible? SCENARI

ESPERIENZE

45

Estrazione intelligente dei dati in base alla semantica del contesto

11

FLAVIA MARZANO

Approcci complessi per un’innovazione postmoderna

Presidente Stati Generali dell’Innovazione e Coordinatore del Comitato di Esperti per l’innovazione OMAT 360 Articolo a pagina 06

16

Perché abbiamo bisogno di organizzazioni e città resilienti

Un primo bilancio

52

21

Si tratta dell’ennesima moda o finalmente siamo arrivati all’open mind?

MERCATO

Verso l’Openness

ReteCamere.it Articolo a pagina 11

La Firma Grafometrica al servizio del cittadino nella provincia autonoma di Trento

Senza firma digitale la dematerializzazione rimane... sulla carta

APPROFONDIMENTI

CLAUDIO CIPOLLINI

48

54 26

Linked open data

La rete dei dati sul web che costruisce il web semantico

30

I dati aperti nella normativa italiana

Dalle leggi regionali ad una prospettiva nazionale

Catturare documenti cartacei in mobilità EVENTI

59

Con OMAT, la rivoluzione digitale riparte da Roma NOVITÀ

65 36

La rete fa la forza

MORENA RAGONE

L’impatto positivo dell’aggregazione digitale sulle Piccole Medie Imprese italiane

Giurista, studiosa di diritto delle nuove tecnologie Articolo a pagina 30

Universita’ degli Studi di Macerata

Master di I° livello in “Formazione, gestione e conservazione di archivi digitali in ambito pubblico e privato”

40

Mappe e dati georiferiti Infrastrutture e creatività

MONICA FRANCO

Cofondatore e Vicepresidente ASSORETIPMI Articolo a pagina 36

iged.it 03.2012

01_05_h.indd 5

05 19/10/12 10:29


TE

MP

II

NT E

RE

SS

AN TI ?

focus

DI FLAVIA MARZANO

Un’antica e raffinatissima maledizione cinese recita: “Ti auguro di vivere in tempi interessanti”. Ma perché dovrebbe essere una maledizione? Perché “tempi interessanti” sono tempi in cui vi sono guerre, pericoli, difficoltà, carestie… in tempo di pace, in momenti economicamente stabili c’è poco di “interessante” da raccontare. Leggere gli articoli di questo numero di IGED mi ha fatto pensare che sì, viviamo tempi interessanti, anche per quanto riguarda l’innovazione. A partire dall’articolo del Prof. Ridolfi che ci racconta la storia dell’Agenzia per l’Italia Digitale, storia peraltro non ancora definita visto che nel momento in cui scrivo questo pezzo (ottobre 2012) non si sa ancora chi ne sarà il direttore e come verrà scelto, per arrivare ad articoli più tecnici (sui Linked Open Data o Semantica di contesto o sulla firma digitale) e passando alla normativa sui dati aperti per arrivare ad articoli di “visione” in cui le città resilienti rendono la vita più facile ai cittadini, le reti e le aggregazioni digitali aiutano le PMI e gli approcci complessi ci portano a un’innovazione postmoderna.

Vivere tempi interessanti, per i cinesi, significa attraversare un periodo di cambiamento in cui i punti di riferimento e le certezze acquisite vacillano mettendo a dura prova la resistenza e la capacità di sopravvivere al drastico cambiamento, la resilienza insomma. Tuttavia credo (e so di non essere sola in questo mio pensiero) che momenti così complessi, faticosi, difficili e in qualche modo pericolosi possano essere terreno fertile per nuove idee, per una nuova creatività che metteranno le basi per un futuro in cui anche gli “ecosistemi digitali” siano sistemi aperti e diventino strutture interconnesse capaci di raggiungere stabilità nel tempo. A questo tendiamo, ed è ciò che cerchiamo di costruire insieme con il nostro lavoro quotidiano e di rete per l’innovazione. Concludo allora con una frase del settembre 2010 (sì due anni fa) di Alberto Cacciatore http://assaggidieconomia. blogspot.com/: “se ciò sarà possibile, a quel punto saremmo passati dalla miope visione tolemaica dell’economia a vantaggio di pochi a quella copernicana a vantaggio di molti e avremmo trovato certamente l’antidoto contro ogni possibile anatema che ci consentirà di vivere serenamente… in tempi interessanti”. FLAVIA MARZANO Presidente Stati Generali dell’Innovazione e Coordinatore del Comitato di Esperti per l’innovazione OMAT 360

06 iged.it 03.2012 Flavia_Marzano_h.indd 2

18/10/12 16:45


focus

L’Agenzia per l’Italia digitale MISSION IMPOSSIBLE? 1. IL NUOVO ENTE L’atto di nascita della “Agenzia per l’Italia digitale” sta nel Decreto-Legge 22 giugno 2012, n. 83, “Misure urgenti per la crescita del Paese”: essa subentra a DigitPA e all’Agenzia per la diffusione dell’innovazione tecnologica, che vengono soppresse, e assorbe le funzioni del Dipartimento per la digitalizzazione della pubblica amministrazione. Nella Legge di conversione del 7 agosto agosto 2012, n. 134, si vengono ad introdurre numerose modifiche, tra cui l’assorbimento nell’Agenzia anche delle funzioni dell’Istituto Superiore delle Comunicazioni limitatamente al tema della sicurezza delle reti. Si era anche prospettata l’idea, poi rientrata, di aggregare l’intero Istituto Superiore e la Fondazione Bordoni, per formare un unico mega-polo tecnologico nazionale sull’ITC.

DI PIERLUIGI RIDOLFI

L’Agenzia ha un organico massimo di 150 persone ed è guidata da un Direttore Generale che, in pratica, ha tutti i poteri. Il personale proverrà da quello attualmente in forza agli Enti assorbiti. Non vi sono aperture per nuove assunzioni e contributi professionali su base consulenziale. Commento: Attualmente, il personale nel complesso supera ampiamente il tetto previsto dalla legge. Ne risulterà una faticosa opera di ridimensionamento: è facile prevedere che possano nascere condizioni conflittuali che non faciliteranno l’operatività della struttura. Inoltre l’ubicazione del personale in quattro sedi diverse, con evidenti difficoltà di unificazione, creerà non pochi problemi di efficienza. iged.it 0.32012

Focus_Ridolfi_h.indd 1

07 07/11/12 14:34


Il Direttore sarà affiancato da un “Comitato di indirizzo”, formato da sette personaggi di altissima qualificazione, indicati dai vari Ministri od organismi interessati, che opereranno però senza compensi o rimborsi spese di sorta (commento: ma dove si troveranno sette professionisti di peso disposti a lavorare gratis – neanche il rimborso del taxi! - in una situazione così impegnativa?). Il loro compito sarò stabilito dal Regolamento di funzionamento dell’Agenzia, che dovrà essere pronto in tempi brevissimi. L’Agenzia opera nell’ambito della Presidenza del Consiglio, sotto la vigilanza di quattro Ministeri (Funzione pubblica, MIUR, Sviluppo economico, MEF). Commento: come evitare che nascano problemi di priorità e coordinamento? I compiti dell’Agenzia sono gli stessi dei tre enti sopra elencati: in più essa riceve gli obiettivi dell’Agenda digitale italiana, che erano stati stabiliti dal DecretoLegge 9 febbraio 2012, n. 5, “Disposizioni urgenti in materia di semplificazione e sviluppo”. Di conseguenza risulta che i compiti complessivamente assegnati all’Agenzia siano numerosissimi: ce ne sono di nuovi – quelli dell’Agenda digitale italiana – e c’è la conferma di quelli vecchi – per gli enti assorbiti. Inoltre, una sintesi dei compiti è riportata nella stessa legge istitutiva dell’Agenzia. Nel complesso essi coprono un’area di competenze molto vasta. Vediamoli in dettaglio, come sono indicati nelle norme. 2. COMPITI “TRASFERITI” 2.1. COMPITI EX DIGITPA: a) Consulenza alla PA in generale in tema di ICT. b) Emanazione di regole, standard e guide tecniche; vigilanza e controllo sul rispetto di norme. c) Valutazione, monitoraggio e coordinamento. d) Predisposizione, realizzazione e gestione di interventi e progetti di innovazione. e) Espressione di pareri tecnici sugli schemi di contratti stipulati dalle pubbliche amministrazioni centrali concernenti l’acquisizione di beni e servizi relativi ai sistemi informativi automatizzati per quanto concerne la congruità tecnico-economica. Commento: sono compiti che DigitPA, e prima ancora il Cnipa e l’Aipa, hanno svolto per anni con competenza e professionalità. Potranno passare all’Agenzia senza difficoltà. 2.2. COMPITI EX AGENZIA PER LA DIFFUSIONE DELLE TECNOLOGIE PER L’INNOVAZIONE: a) Promozione dell’integrazione fra il sistema della

ricerca ed il sistema produttivo attraverso l’individuazione, valorizzazione e diffusione di nuove conoscenze, tecnologie, brevetti ed applicazioni industriali prodotti su scala nazionale ed internazionale. b) Stipula di convenzioni e contratti con soggetti pubblici e privati che ne condividono le finalità. Commento: l’Agenzia ha pochi anni di vita e non è possibile valutare la sua operatività in merito a questi compiti. 2.3. COMPITI EX DIPARTIMENTO PER LA DIGITALIZZAZIONE DELLA PUBBLICA AMMINISTRAZIONE E L’INNOVAZIONE TECNOLOGICA: a) Concorrere alla definizione degli indirizzi strategici del Governo per la diffusione e l’impiego delle tecnologie dell’informazione e della comunicazione nel Paese, all’attuazione di iniziative, programmi e progetti per i cittadini e le imprese e allo sviluppo delle infrastrutture digitali. b) Trasformare la Pubblica Amministrazione attraverso la promozione e realizzazione di iniziative di digitalizzazione delle attività degli uffici. c) Ridurre il digital-divide, attraverso iniziative per promuovere le competenze necessarie a un adeguato uso delle tecnologie nei mondi della scuola, dell’università e della ricerca, della pubblica amministrazione, centrale e locale, dell’impresa, del lavoro, della salute, dell’attività sociale e dei cittadini; promuovere specifiche iniziative in settori prioritari del Paese quali: sanità, scuola, giustizia. d) Partecipare all’attuazione di programmi europei e nazionali anche al fine di attrarre, individuare, reperire, gestire e monitorare le fonti di finanziamento finalizzate allo sviluppo della Società dell’informazione. e) Progettare e coordinare iniziative per la più efficace erogazione di servizi in rete a cittadini e imprese. f ) Predisporre le norme tecniche ai sensi dell’art. 71 del CAD. Commento: esiste una parziale sovrapposizione con alcuni dei compiti elencati precedentemente. 2.4. COMPITI EX ISTITUTO SUPERIORE DELLE COMUNICAZIONI E DELLE TECNOLOGIE DELL’INFORMAZIONE. Vengono trasferite solo le competenze che riguardano la sicurezza delle reti. La materia è di non facile limitazione e dovrà intervenire un Decreto Ministeriale per definire che cosa trasferire. 2.5 COMMENTO I compiti trasferiti appaiono chiari: ci sono numerose realizzazioni di successo e non manca l’esperienza. Il personale attualmente in carico è padrone della materia. Da mettere in conto, comunque, problemi per la drastica riduzione di risorse.

08 iged.it 03.2012 Focus_Ridolfi_h.indd 2

18/10/12 16:46


3. COMPITI “NUOVI” Essi derivano tutti dal DL 5/2012 sopra citato. Si tratta di compiti di straordinaria complessità, di totale avanguardia, di grande difficoltà non solo tecnica e sui quali esistono solo esperienze limitate. Si tratta comunque di compiti essenziali per lo sviluppo digitale del Paese: devono essere assolutamente perseguiti e raggiunti. Purtroppo, il legislatore si è “dimenticato” di assegnare le risorse umane necessarie per realizzare gli obiettivi, illudendosi forse che la struttura residuale degli enti assorbiti nell’Agenzia – le ormai famose 150 persone – siano in grado non solo di esercitare le “vecchie” funzioni, ma altresì di dirigere la più vasta operazione di sviluppo tecnologico del nostro Paese. Ma vediamo in dettaglio in che cosa consistono i nuovi compiti, così come definiti dal DL di cui sopra. 3.1) COMPITI EX AGENDA DIGITALE ITALIANA: a) Realizzazione delle infrastrutture tecnologiche e immateriali al servizio delle «comunità intelligenti» (smart communities), finalizzate a soddisfare la crescente domanda di servizi digitali in settori quali la mobilità, il risparmio energetico, il sistema educativo, la sicurezza, la sanità, i servizi sociali e la cultura. Commento: c’entra la banda larga, la sua realizzazione, il suo utilizzo; si muovono investimenti ingentissimi; è la base dello sviluppo digitale del Paese. Le esperienze sono limitatissime e richiedono comunque un impegnativo bagaglio tecnico per una loro progettazione e realizzazione. b) Promozione del paradigma dei dati aperti (open data) quale modello di valorizzazione del patrimonio informativo pubblico, al fine di creare strumenti e servizi innovativi. Commento: occorre fare un’indagine su quanto è disponibile in tutta la PA e su come è trasferibile: l’impresa non è difficile, non si parte da zero, ma si richiedono risorse. c) Potenziamento delle applicazioni di amministrazione digitale (e-government) per il miglioramento dei servizi ai cittadini e alle imprese, per favorire la partecipazione attiva degli stessi alla vita pubblica e per realizzare un’amministrazione aperta e trasparente. Commento: obiettivo generico, che nulla aggiunge a quanto si sta già facendo. d) Promozione della diffusione e del controllo di architetture di cloud computing per le attività e i servizi delle pubbliche amministrazioni. Commento: compito immane, che prelude alla concentrazione di tutti i Centri informatici della PA, centrale e periferica. Le dimensioni del problema e le sue conseguenze sociali ed economiche richiedono un

impegno straordinario unito a una massima prudenza. L’ordine di grandezza dell’impresa si misura in miliardi di euro: possibile che non si trovino risorse umane, di adeguato spessore, per gestire una tale epocale trasformazione? e) Utilizzazione degli acquisti pubblici innovativi e degli appalti pre-commerciali al fine di stimolare la domanda di beni e servizi innovativi basati su tecnologie digitali. Commento: vorrei che l’estensore di questa norma la illustrasse. Io la trovo incomprensibile. f ) Infrastrutturazione per favorire l’accesso alla rete internet in grandi spazi pubblici collettivi quali scuole, università, spazi urbani e locali pubblici in genere. Commento: v. lettera a). Splendido scenario, ma quante risorse sono a disposizione dell’Agenzia? g) Investimento nelle tecnologie digitali per il sistema scolastico e universitario, al fine di rendere l’offerta educativa e formativa coerente con i cambiamenti in atto nella società. Commento: che significa in pratica? h) Consentire l’utilizzo del Sistema pubblico di connettività al fine di favorire la messa a disposizione dei cittadini delle proprie posizioni debitorie nei confronti dello Stato da parte delle banche dati delle pubbliche amministrazioni. Commento: difficile da capire perché per mettere in linea le posizioni debitorie occorra l’SPC. i) Individuare i criteri, i tempi e le relative modalità per effettuare i pagamenti con modalità informatiche nonché le modalità per il riversamento, la rendicontazione da parte del prestatore dei servizi di pagamento e l’interazione tra i sistemi e i soggetti coinvolti nel pagamento, anche individuando il modello di convenzione che il prestatore di servizi deve sottoscrivere per effettuare il pagamento. Commento: si tratta di un progetto di grandissima complessità, che richiede la collaborazione di competenze differenti. Ma dove le trova l’Agenzia? 4. COMPITI “SINTETIZZATI” NELLA LEGGE ISTITUIVA DELL’AGENZIA Ne riporto i principali che, in sostanza, riprendono con poche ma significative novità quelli già sopra elencati. a) Contribuire alla diffusione dell’utilizzo delle tecnologie dell’informazione e della comunicazione, allo scopo di favorire l’innovazione e la crescita economica, anche mediante lo sviluppo e l’accelerazione della diffusione delle Reti di nuova generazione (NGN). b) Dettare indirizzi, regole tecniche e linee guida in materia di sicurezza informatica e di omogeneità dei linguaggi, delle procedure e degli standard, anche di tipo aperto, in modo da assicurare anche la piena interoperabilità e cooperazione applicativa tra i siste-

iged.it 03.2012

Focus_Ridolfi_h.indd 3

09 19/10/12 15:06


mi informatici della Pubblica Amministrazione e tra questi e i sistemi dell’Unione Europea. c) Assicurare l’omogeneità, mediante il necessario coordinamento tecnico, dei sistemi informativi pubblici destinati ad erogare servizi ai cittadini ed alle imprese, garantendo livelli uniformi di qualità e fruibilità sul territorio nazionale, nonché la piena integrazione a livello europeo. d) Supportare e diffondere le iniziative in materia di digitalizzazione dei flussi documentali delle amministrazioni, ivi compresa la fase della conservazione sostitutiva, accelerando i processi di informatizzazione dei documenti amministrativi e promuovendo la rimozione degli ostacoli tecnici, operativi e organizzativi che si frappongono alla realizzazione dell’amministrazione digitale e alla piena ed effettiva attuazione del diritto all’uso delle tecnologie, previsto dall’articolo 3 del CAD. e) Vigilare sulla qualità dei servizi e sulla razionalizzazione della spesa in materia informatica, anche in collaborazione con CONSIP Spa e SOGEI Spa. Commento: si tratta di una novità operativa importante, sulla quale si dovranno cimentare le capacità negoziali del Direttore generale. f ) Promuovere e diffondere le iniziative di alfabetizzazione informatica rivolte ai cittadini, nonché di formazione e addestramento professionale destinate ai pubblici dipendenti, anche mediante intese con la Scuola superiore della pubblica amministrazione e il Formez, e il ricorso a tecnologie didattiche innovative, nell’ambito delle dotazioni finanziarie disponibili, senza nuovi o maggiori oneri per la finanza pubblica. g) Effettuare il monitoraggio, anche a campione, dell’attuazione dei piani di Information and Communication Technology (ICT) delle pubbliche amministrazioni, redatti in osservanza delle prescrizioni di cui alla lettera b), sotto il profilo dell’efficacia, economicità e qualità delle realizzazioni, proponendo agli organi di governo degli enti e, ove necessario, al Presidente del Consiglio dei Ministri, le conseguenti misure correttive, nonché segnalando alla Corte dei conti casi in cui si profilino ipotesi di danno erariale. Commento: il ruolo verso la Corte dei Conti è un’importante novità. h) Promuovere, anche a richiesta di una delle amministrazioni interessate, protocolli di intesa e accordi istituzionali finalizzati alla creazione di strutture tecniche condivise per aree omogenee o per aree geografiche, alla risoluzione di contrasti operativi e al più rapido ed effettivo raggiungimento della piena integrazione e cooperazione applicativa tra i sistemi informativi pubblici, vigilando sull’attuazione delle intese o degli accordi medesimi. Commento: non si parla di cloud né di consolidamento di sistemi, ma lo scenario è quello.

5. CONCLUSIONE Bella, anzi magnifica, l’idea della nuova Agenzia; debole, anzi asfittica, la sua realizzazione. Come si può ragionevolmente pensare che compiti così vasti, difficili, delicati, tecnicamente d’avanguardia possano essere affrontati da un struttura tanto piccola (150 persone sono meno di quante erano presenti una volta nella sola Aipa!!!)? Quando ho cercato un titolo per questo articolo mi era venuto in mente quel magnifico film di De Palma, “Mission impossibile”, dove Tom Cruise, eroe tecnologico, riesce a raggiungere un obiettivo difficilissimo, con soluzioni fantascientifiche e una determinazione senza uguali. Con il che si vuole dimostrare che “impossibile” in realtà significa “molto difficile”. Un po’ sulla stessa falsariga una volta i tecnici della IBM avevano in ogni stanza questo motto: “I problemi difficili li risolviamo subito, per quelli impossibili ci vuole più tempo”. Tutto questo per significare che con l’“Agenzia per l’Italia digitale” è stato creato un problema la cui soluzione, molto difficile, è tutta da inventare. Ma, come sempre, mi sforzo di essere ottimista: cercherò, pertanto, di indicare l’unico veramente punto critico che è quello delle risorse. Ne occorrono molte di più, occorre soprattutto inserire dei giovani. Sarebbe un’opportunità straordinaria non solo per loro, ma anche per lo Stato. Occorre anche che il Direttore Generale, il Tom Cruise della situazione, sia animato da un’autorevolezza e da una determinazione convinta. Sulla fortuna non farei conto, ma nutro speranze sulla disponibilità del Governo ad assegnare più risorse attraverso una modifica alla Legge e a un “Regolamento” che consenta un’apertura significativa ai giovani. Mi tornano alla mente le parole del Vangelo: “Nessuno mette vino nuovo in otri vecchi; altrimenti il vino nuovo spacca gli otri, si versa fuori e gli otri vanno perduti. Il vino nuovo bisogna metterlo in otri nuovi”. Ma qui stiamo proprio facendo il contrario.

PIERLUIGI RIDOLFI

Università di Bologna

10 iged.it 03.2012 Focus_Ridolfi_h.indd 4

18/10/12 16:46


scenari

APPROCCI COMPLESSI PER UN’ INNOVAZIONE POSTMODERNA

DI CLAUDIO CIPOLLINI

iged.it 03.2012

Approf_Cipollini_h.indd 1

11 19/10/12 10:01


Le nostre vite sono oggi caratterizzate da notevoli complessità, accompagnate da incertezze diffuse e dalla mancanza di norme di comportamento condivise. Si tratta di una realtà estremamente fluida, le cui diverse componenti si scompongono e si ricompongono continuamente, e in cui ciascun individuo è conscio di essere parte di un insieme: soggetto in rete con altri soggetti. In particolare, sia nel campo del materiale sia in quello dell’ immateriale sono necessari interventi sostenibili dal punto di vista sia ambientale sia economico, che richiedono nuovi approcci e nuove metodologie. Il tema della pianificazione, progettazione, realizzazione e gestione di qualsiasi intervento è vissuto oggi infatti, in una contraddizione sempre più drammatica: pur essendo uno dei principali mezzi per attivare e alimentare lo sviluppo, è trattato ancora soltanto in modo specialistico e settoriale, nell’ottica di progetto “industriale”, e quindi con un’impostazione semplice e lineare ormai superata e generata dall’onda lunga dell’impostazione ottocentesca della progettazione, che vedeva nella specializzazione e nell’esaltazione della tecnica i suoi fondamenti. La complessità delle interrelazioni tra le molte componenti necessarie per raggiungere l’obiettivo che ci si prefigge richiede interventi capaci di far interagire temi e specializzazioni di-

versi e al contempo l’obiettivo stesso che si vuole raggiungere è integrato e interdisciplinare: non è più il risultato di una cultura specialistica, ma un vero e proprio sistema, una rete complessa di riferimenti culturali ed esperienziali. Per qualsiasi intervento di sviluppo , o meglio sarebbe dire per il progresso, è necessario riqualificare l’organizzazione e i processi, coinvolgendo équipe multidisciplinari e spesso anche multiculturali che, una volta chiarito l’obiettivo e la strategia da raggiungere, lavorino in forme integrate costituendo una rete per la realizzazione dell’intervento. Questo, dunque, sarà non la semplice somma di diversi addendi, ma una funzione complessa primaria, integrata a sua volta da una funzione secondaria, derivante e conseguente dalla primaria. E uno dei capisaldi del nuovo approccio è quello di entrare definitivamente nell’ordine di idee di “rovesciare la piramide” del processo della cosi detta “domanda” delle persone, della gente, i cui bisogni primari sono stati ormai sostanzialmente soddisfatti, così come è stato abbattuto lo zoccolo duro dell’ignoranza, perlomeno nell’Occidente. Chi stava alla base della vecchia piramide – le persone interessate dall’intervento – si ritrova in alto, per esprimere bisogni e desideri ed esercitare consapevolmente il ruolo di partecipazione e indirizzo e ottenere così soddisfazione delle

proprie esigenze. Al contrario, il committente – specie se pubblico – e gli esperti della progettazione si situano in basso per realizzare interventi secondo i desiderata e sotto il controllo dei destinatari, in un processo e sulla base di un’organizzazione che sono altrettanto basilari quanto gli obiettivi e i contenuti. Fin da ora e sempre più in futuro, infatti, la gente chiederà qualcosa difficilmente definibile, forse più un’ “esperienza” che non una città o uno spazio fisico, o un servizio. Lo scenario che si va delineando in modo sempre più netto, in un divenire continuo, è il palcoscenico su cui “recitare” la propria vita. Recita finta o recita autentica? È questo il rischio maggiore che corriamo. J. Rifkin sostiene come – attraverso la “recitazione profonda” – ognuno sarà sempre più autentico, conoscendosi di più, e aiuterà l’altro “…a prestare maggiore attenzione ai propri sentimenti, a conservare una vivida memoria e a migliorare la propria abilità a richiamare i ricordi del subconscio e a utilizzarli al servizio dell’immaginazione quando se ne presenta l’occasione, in modo che possa provare la sofferenza dell’altro come propria [...]” 1 stimolando così comportamenti empatici, il genere umano, ormai Homo urbanus, andrà verso un sistema di relazioni che da sole creeranno condizioni di progresso ben più ricche di quelle mai generate finora. Dunque, le persone per le quali si progetta un intervento non si richiamano più a certezze religiose, ideologiche e culturali. Le regole fisse, i manuali, le leggi stesse, non servono più per indirizzare e controllare le azioni degli individui, ma dovrebbero poter mutare per lasciarli liberi di agire responsabilmente. Ancora Rifkin definisce questo “nuovo individuo” come un essere proteiforme (con riferimento ai diversi aspetti e forme che Proteo, la divinità marina della mitologia greca, poteva assumere). Occorrono dunque strumenti e segnali che consentano approcci “mobili”, in divenire, e siano di supporto alle decisioni: strumenti di monitoraggio e di misurazione della soddisfazione dei destinatari degli

12 iged.it 03.2012 Approf_Cipollini_h.indd 2

19/10/12 10:01


IMAGE FORMULA P-215

Approf_Cipollini_h.indd 3

19/10/12 15:09


interventi, che tengano conto delle trasformazioni e delle esperienze di ciascuno. I territori postmoderni, e più in generale questa epoca definita appunto da alcuni postmoderna2, sono work in progress continui, e se i contenuti possono spesso essere oggetto di scelte personalizzate, i processi devono invece essere gestiti. A tale proposito la “mano” (da cui il titolo di un mio libro recentemente pubblicato con le edizioni ETS, “La mano complessa, Condivisione e collaborazione per lo sviluppo dei territori”), nella complessità delle sue cinque “dita” (conoscere, analizzare, progettare, realizzare e gestire) è lo strumento per approcciare gli interventi ponendo costante attenzione ad alcuni segnali fondamentali che aiutano a comprendere se la rotta che si sta percorrendo è quella voluta e da considerare per un approccio innovativo e complesso. Ogni intervento deve rappresentare un percorso all’interno di un sistema complesso aperto, dove le variabili in gioco possono mutare nel tempo richiesto per l’attuazione del progetto, ma dove ognuna di esse si relaziona con le altre in una fitta rete di persone e di esperienze. Non si tratta di entrare nel merito delle scelte (con i loro presupposti culturali e storici) e dei metodi del singolo progettista – ingegnere, economista, architetto o chi sia –, ma di padroneggiare un quadro di riferimento che consenta al committente, ma non solo, di intervenire in modo da raggiungere gli obiettivi con una sufficiente qualità integrata. In questo processo la fase critica è quella della progettazione. Un ruolo

fondamentale è giocato poi dalla committenza, che deve avere ben chiaro il risultato da raggiungere, mentre progettista e produttore/ costruttore devono garantire qualità sia tecnica sia organizzativa. Come ricorda Edgar Morin “Non ci sono ricette. Si tratta di adottare una strategia adatta al singolo caso, non un metodo universale. L’idea di strategia è per questo motivo estremamente importante, poiché essa si modifica in funzione delle osservazioni, delle informazioni raccolte e dei casi in cui ci si imbatte. Tutto ciò comporta una scommessa, nella misura in cui non si è mai sicuri di giungere al risultato che si desidera” 3 Questo significa che ogni intervento – sia esso di carattere progettuale per un prodotto o un servizio, sia programmatorio e pianificatorio – è per propria natura un’azione integrata e sistemica. Tutte le variabili in gioco devono dunque essere analizzate, valutate e inserite nel “calcolo progettuale” per far sì che il risultato finale risponda al meglio (se non nel modo ottimale) al bisogno-desiderio da soddisfare. Le differenze riguardano il tema, non l’approccio, che deve essere comunque sistemico e integrato. Tuttavia, prima di arrivare a un approccio innovativo occorre decostruire quello che c’è, destrutturare il concetto di intervento che si è andato formando nei secoli passati. Questo ci consente di disporre sul tavolo le variabili in gioco composti da tematiche specialistiche, persone, ma anche tempi e luoghi, esperienze e tradizioni. Forse non sono tutte le variabili; forse domani

ce ne saranno altre, e altre ancora non ci saranno più. Per ogni tema ce ne sono certamente un numero determinato e poi nei tempi che occorrono a un progetto per realizzarsi esse cambiano e variano, ma sempre all’interno del sistema progettuale, rispettandone obiettivi e bisogni. L’insieme degli elementi rappresenta un elenco, non esaustivo, di riferimento per percorrere l’intero iter. È un contenitore, una rete, un sistema al quale accedere per trarne le connessioni e i contenuti di base, i passaggi da compiere o da verificare per procedere verso l’obiettivo. L’elenco comprende dieci punti: gli obiettivi; le persone e la governance; il copiare; l’innovazione; le alternative; le tecnologie; la gestione; i costi e i tempi; la sperimentazione; e per ultimo il punto più importante, cioè le varie ed eventuali. Non è un elenco esaustivo e onnicomprensivo, sono gli elementi base alle quali fare riferimento in ogni fase del processo dell’intervento, consci della possibilità o, meglio, della responsabilità di scegliere e di incrementare, ma non di ignorare. Proprio per questo motivo il punto più importante dell’elenco è il decimo: le “varie ed eventuali”, che comprende tutte le scelte possibili. Ognuno degli attori del processo ha la responsabilità di andare a individuare, in ogni passo del viaggio progettuale, gli elementi indispensabili a raggiungere l’obiettivo e a inserirli adeguatamente. Non esiste una lista certa, un manuale di riferimento; ci sono solo alcune caratteristiche di base da considerare ed eventualmente scegliere e realizzare.

14 iged.it 03.2012 Approf_Cipollini_h.indd 4

23/10/12 17:56


Queste possono – direi quasi devono – essere integrate da altre caratteristiche, che vanno individuate per rendere l’intervento adeguato ai suoi obiettivi specifici. È un approccio, questo, che cerca di tradurre e interpretare una situazione storica che Gianni Vattimo ha fotografato magnificamente: “Vivere in questo mondo molteplice significa fare esperienza della libertà come oscillazione continua tra appartenenza e spaesamento........ ma anche perché noi stessi non sappiamo ancora troppo bene quale fisionomia abbia, facciamo fatica a concepire questa oscillazione come libertà: la nostalgia degli orizzonti chiusi, minacciosi e rassicuranti insieme, è sempre ancora radicata in noi, come individui e come società. Filosofi nichilisti come Nietzsche e Heiddegger (ma anche pragmatisti come Dewey o Wittgenstein), mostrandoci che l’essere non coincide necessariamente con ciò che è stabile, fisso, permanente, ma ha da fare piuttosto con l’evento, il consenso, il dialogo, l’interpretazione, si sforzano di renderci capaci di cogliere questa esperienza di oscillazione nel mondo postmoderno come chance di un nuovo modo di essere ( forse: finalmente) umani.” 4 Dunque, cercare di organizzare il processo di un intervento costituisce soltanto – in questo caso – il tentativo di “isolare” alcuni insiemi, alcuni “grappoli” di fasi temporali e di variabili-tematiche, per consentire di rendere più accessibile l’intero processo, e conseguentemente più realizzabile il singolo intervento. È per questo che, nella ricerca di punti fermi, di “paletti” dell’approccio metodologico alla complessità progettuale, ho individuato nella mano e nelle sue cinque dita la metafora più significativa per meglio rendere contemporaneamente sia il ruolo, le funzioni e le caratteristiche di ogni fase (dita), sia l’organicità e la sistematicità del tutto (la mano). Una mano che rappresenta la sintesi, oltre che la metafora, di un processo sistemico e contemporaneamente di un sistema e della relativa rete di interconnessioni e scambiatori. Le possibili interrelazioni tra le varie

fasi cronotematiche all’interno di ciascun insieme del processo che riguarda ogni intervento sia di prodotto sia di servizio, sono infinite. Non c’è uno schema, non c’è il “manuale”, ma solo infinite possibili schematizzazioni delle varie alternative possibili. La consapevolezza di agire in rete, in sistemi adattivi aperti, è allora, insieme al quadro di riferimento esposto, la motivazione principale per cui la mano può divenire uno strumento di riferimento nell’iter complessivo di tutti gli ambiti che interessano un intervento: l’ambito pianificatorio e progettuale. Il primo ambito è certamente quello che presenta gradi di complessità maggiori, anche se non incide ancora sul reale e sul materiale, ma ne è il presupposto, il progetto, il luogo virtuale dell’adattamento del sistema dell’intervento quale esso sia. Il secondo e il terzo ambito hanno a loro volta valenze peculiari. Il costruire è una fase di transizione dal virtuale al materiale e come tale, se ben diretto e progettato, non comporta problematiche particolari, se non le attenzioni doverose agli impatti ambientali dei cantieri. L’ambito della gestione e della manutenzione, invece presenta tematiche e problematiche di notevole interesse e di fatto determinanti per ottimizzare la riuscita di un intervento. Il processo progettuale inizia generalmente dalla mitica “idea” e affronta cinque passaggi successivi: cinque, appunto, come le dita di una mano: conoscere; analizzare; progettare; realizzare;gestire.

ma secondo quello che sembra essere una parola d’ordine del postmoderno, plurale.”) Chiurazzi G. (2002), Il postmoderno, Bruno Mondadori, Milano. p. 55 Intervista in: Benkirane R. (2007), La Teoria della Complessità, Bollati Boringhieri, Torino. P. 25 3

Vattimo G. (1989), La società trasparente, Garzanti, Milano. p.20 4

NOTE: Rifkin J. (2010), La civiltà dell’empatia, Mondadori, Milano. p.528 1

Come ben riassume Gaetano Chiurazzi il postmoderno è anche “una nuova forma di razionalità: una razionalità che, […] dopo le pretese totalizzanti dell’idealismo, rinuncia al principio di identità come principio supremo, e che segue percorsi trasversali, non lineari, discontinui. Una razionalità insomma non monolitica, 2

CLAUDIO CIPOLLINI

ReteCamere.it

iged.it 03.2012

Approf_Cipollini_h.indd 5

15 22/10/12 18:49


scenari

PERCHÉ ABBIAMO BISOGNO DI ORGANIZZAZIONI E CITTÀ RESILIENTI DI NELLO IACONO

1. IL SENSO DELLA RESILIENZA Di resilienza si inizia a parlare sempre più spesso, anche se spesso viene considerato ancora un termine “tecnico”, e così relegato ad una nicchia di esperti. In realtà esprime un concetto semplice ed intuitivo, applicabile in più contesti e a più livelli di granularità. Un concetto semplice, ma allo stesso tempo profondo e fondamentale quando applicato alle comunità sociali, sia che si tratti di famiglia, di organizzazione, di comunità urbana. E da questo punto di vista, anche propedeutico al concetto di “comunità intelligente” su cui sono basati diversi capitoli dell’Agenda Digitale Italiana in corso di sviluppo. L’etimologia di resilienza è illuminante: la provenienza è dal latino re-salio,

iterativo di salio, che significa saltare, rimbalzare. Ma resalio connotava anche il gesto di risalire sull’imbarcazione capovolta dalla forza del mare, metaforicamente utilizzato quindi per l’atteggiamento di chi si rimette in piedi dopo un evento turbativo. Gli anglosassoni preferiscono accostarlo, come sinonimo, al concetto di elasticità, che intuitivamente ci fornisce la spiegazione più semplice e allo stesso tempo più efficace: la capacità di mantenere il funzionamento anche quando soggetti a eventi contrari. Nei casi migliori, l’elasticità consente di ripristinare l’equilibrio originario, ma ha in sé anche il concetto di capacità di adattamento ad una situazione diversa da quella originaria od ottimale. Se il termine è applicato ad un corpo,

ad un metallo, esprime la capacità di resistere agli urti, alle forze applicate. Nel caso di un filato o di un tessuto è la capacità di “riprendere la forma originale dopo una deformazione” 1 . Ma se si tratta di un sistema vivente e ancor di più se umano, la resilienza è la capacità di “continuare a funzionare”2, e quindi di essere in grado di reagire agli eventi di crisi (anche traumatici, catastrofici e per più improvvisi) in modo da non degradarsi. La resilienza è così una capacità necessaria per i sistemi viventi e quindi anche delle comunità. Una capacità che non è scontata, e che naturalmente vede legata la sua efficacia al continuo adeguamento al contesto esterno, “generatore possibile” degli eventi di crisi.

16 iged.it 03.2012 Scenari_Nellolacono_h.indd 2

19/10/12 10:03


2. LA RESILIENZA COME CAPACITÀ NECESSARIA DELLE COMUNITÀ Quanto più è complessa la struttura della comunità, tanto più necessario è prevedere metodologie e organismi che abbiano cura costantemente del mantenimento della capacità di resilienza. Un’adeguatezza che non può essere misurata in modo esplicito se non nel momento della crisi, e quindi troppo tardi. Per questo, non può essere lasciata ad iniziative estemporanee e posticce, ma deve pervadere nativamente l’organizzazione, secondo il principio della prevenzione e non del rimedio. Nel caso di una comunità dalla struttura semplice, come la famiglia, la resilienza dipende dalla capacità di trasformare la propria struttura e le relazioni fra i componenti, ma è basata su un percorso personale basato sul “senso di sicurezza interno, la stima di sé e la sensazione di operare in modo efficace”3, sullo sviluppo dell’intelligenza emotiva. La resilienza, il “tenersi insieme” per resistere ad una tempesta, per le comunità non si improvvisa, ma si costruisce. Si costruisce rendendo resilienti i componenti della comunità e rendendo, insieme, robuste e flessibili le loro relazioni e il loro funzionamento collettivo. E si costruisce prima dell’evento di crisi, quindi ignorando quale evento si presenterà, come lo farà e quando. Le stesse logiche si applicano alle comunità complesse, come sono le organizzazioni e le città, i sistemi urbani. A queste sono dedicati i due capitoli seguenti.

processi, infrastrutture, persone), la terza (resilienza finanziaria) è specificatamente legata al rischio creditizio. Qui ci occuperemo soltanto delle prime due, sapendo che è l’insieme delle tre che costituisce la resilienza di una organizzazione. La resilienza strategica è particolarmente importante per affrontare i momenti di crisi economica come quello attuale, mentre la resilienza operativa è quella che si richiede per assicurare la continuità operativa. Entrambe le resilienze, però, richiedono che i requisiti di resilienza siano mappati in termini di processi, infrastrutture, persone, per cui la “costruzione della resilienza” di una organizzazione deve prevederle secondo un approccio integrato. Entrambe sono, infatti, necessarie. Poiché si tratta di capacità, è utile procedere secondo un metodo che preveda l’evoluzione graduale e misurabile, ad esempio con l’individuazione di livelli di capacità. Questa strada è, ad esempio, quella suggerita per la resilienza strategica, rispetto alle turbolenze di mercato, da parte di Ranjay Gulati 4. Gulati suggerisce una strategia “centrata sul cliente” prevedendo quattro livelli crescenti di capacità, dalla semplice capacità di portare sul mercato

dei prodotti/servizi (inside-out) alla più matura capacità di interpretare i bisogni e quindi di svolgere un ruolo proattivo ed innovativo nella determinazione del mercato (outside-in). Secondo Gulati il percorso di crescita attraverso i quattro livelli si deve basare su azioni specifiche a livello di processi e persone, mediante l’utilizzo di cinque leve di azione: 1. Coordination, relativa alla connessione o alla ristrutturazione dei silos organizzativi, allo scopo di permetterne la collaborazione; 2. Cooperation, relativa alla promozione di una cultura che consenta di allineare tutti i componenti dell’organizzazione rispetto ad obiettivi condivisi e legati alle soluzioni cliente; 3. Clout, relativa alla redistribuzione del potere indispensabile per connettere “champion” della produzione e della gestione e conoscenza del cliente; 4. Capability, relativa allo sviluppo di competenze adeguate a fronteggiare i cambiamenti delle esigenze dei clienti; 5. Connection, relativa all’integrazione con partner grazie ai quali è possibile fornire soluzioni originali e uniche ai clienti.

3. ORGANIZZAZIONI RESILIENTI Per le organizzazioni il tema della resilienza si declina rispetto ai macroambiti di provenienza delle turbolenze: il mercato, l’ambiente (naturale, informatico, urbano, …) e il sistema finanziario. La suddivisione è utile perché mentre la prima (resilienza strategica) è legata alla capacità dell’organizzazione di interagire con l’esterno e interpretarlo in modo proattivo, la seconda (resilienza operativa) dipende in gran parte dalla capacità interna dell’organizzazione (in termini di iged.it 03.2012

Scenari_Nellolacono_h.indd 3

17 19/10/12 15:11


Leve in cui principi di base sono la trasversalità delle competenze sui domini dei clienti, la comunicazione e la condivisione tra le unità organizzative e le discipline, la prevalenza del sapere e dell’approccio “orientato all’esterno”. Molti approcci strategici (ad esempio, la Balanced Scorecard 5) possono supportare le linee di indirizzo indicate da Gulati. Mentre la resilienza strategica è necessaria per sopravvivere ai momenti di crisi (e anche, grazie a questi, rigenerarsi), la resilienza operativa è necessaria per garantire la continuità dei servizi di un’organizzazione, oggi sempre più un obbligo per le organizzazioni pubbliche (vedi l’articolo 50bis del Codice dell’Amministrazione Digitale) e private. La resilienza operativa si può definire come “La capacità organizzativa di gestione del rischio relativo alle sue capacità operative principali. La resilienza

operativa è una proprietà emergente di gestione efficace dei rischi operativi, supportata e sostenuta da attività come quelle della sicurezza e della business continuity. Sottoinsieme della resilienza di un’organizzazione, la resilienza operativa si focalizza sulla capacità dell’organizzazione di gestire rischi operativi, mentre la resilienza organizzativa in generale riguarda anche altre di rischio come i rischi relativi al business e agli aspetti finanziari” 6 . Su questo tipo di resilienza basato sulla continuità operativa si è costituito un corpus di metodi e strumenti sempre più consolidato, tanto da dar vita a standard internazionali ISO, come la norma ISO 22301. L’approccio elaborato dal Business Continuity Institute si è via via affermato con la consapevolezza che la resilienza operativa richiede l’istituzione e la gestione di un vero e proprio sistema di gestione della Continuità Operativa, basato su un ciclo di mi-

glioramento continuo. Robustezza e flessibilità sono fattori chiave per la resilienza di una organizzazione e a maggior ragione di una Amministrazione, “intesa come la capacità, ad ogni livello rilevante, di individuare, prevenire e, se necessario, gestire situazioni di disturbo e ripristinare il proprio funzionamento a valle di eventuali danni riportati” 7. Possiamo così definire un vero e proprio “ciclo della resilienza operativa”, costituito dalle fasi di assessment, prevenzione, preparazione, risposta e ripristino, mappabile agevolmente sul ciclo del business continuity management, proprio come due facce della stessa medaglia. L’analisi organizzativa per la resilienza operativa assume come “buone” le scelte già fatte dall’organizzazione a livello strategico per perseguire, in termini di efficacia ed efficienza, la missione data. Ma nel far questo le sottopone comunque ad una valutazione

18 iged.it 03.2012 Scenari_Nellolacono_h.indd 4

19/10/12 10:04


Chiedi il massimo! Generazione Z

La nuova serie di scanner da tavolo Z-Generation Fujitsu ti garantisce oggi la massima produttivitĂ Fuj con uno scanner desktop estremamente compatto. Gli IT manager apprezzano il nuovo modulo di gestione centralizzata, mentre agli operatori piace ges ScanSnap Productivity che consente di la modalitĂ m eseguire scansioni mirate tramite un solo tasto. ese Chiedi il massimo! Chiedi gli scanner Chi Z-Generation di Fujitsu. Z-G Software Sof ScandAll PRO V2 Sca incluso inc Visita il sito f jit /Z ti /i d http://emea.fujitsu.com/Z-generation/iged

Tutti i nomi, nomi di produttori, denominazioni di prodotti e marchi sono soggetti a specifici diritti sui marchi commerciali e sono marchi del produttore e/o marchi registrati dei rispettivi proprietari. Le indicazioni e i dati forniti non sono impegnativi e vincolanti. I dati tecnici possono variare senza preavviso.

IGed_GenerationZ_210x280-new2.indd Scenari_Nellolacono_h.indd 5 1

06/07/12 19/10/12 10:11 10:04


di compatibilità con i requisiti di continuità che vengono posti e quindi con la robustezza e la flessibilità necessarie. Possono essere individuati due filoni di attività per la realizzazione e la gestione di un sistema e di un piano di continuità operativa: uno indirizzato alla definizione del miglior equilibrio tra obiettivi di continuità (e di resilienza organizzativa) e costi di predisposizione e attivazione del piano; uno indirizzato a migliorare l’equilibrio precedente, agendo su aspetti di medio-lungo termine (organizzazione, infrastrutture, competenze) in modo da perseguire obiettivi di continuità e resilienza più elevati a fronte di una sostanziale stabilità dei costi di predisposizione e attivazione del piano. Tutto ciò è ottenibile come risultato di una forte correlazione dell’iniziativa di Business Continuity Management con la gestione del miglioramento dei processi dell’organizzazione. Non solo. Il processo per la gestione della Business Continuity sarà sempre più “robusto” e ottimizzato quanto più i processi dell’organizzazione saranno “maturi”. Anche qui, può essere d’aiuto un approccio graduale, come il CERTResilience Management Model 8, che identifica un percorso di crescita attraverso più livelli di “robustezza” dei processi, per i quali sono forniti i requisiti che, soddisfatti, permettono di costruire una resilienza operativa adeguata per l’organizzazione. 4. CITTÀ RESILIENTI Il passaggio dall’organizzazione alla città comporta una contestualizzazione di maggiore complessità, poiché il “sistema città” si connota innanzitutto per l’esistere in quanto comunità non predeterminabile. La città è infatti costituita dalle sue strutture, le sue infrastrutture, i suoi processi di funzionamento, i suoi spazi fisici e virtuali, ma esiste nel momento in cui è vissuta da una comunità. Una comunità che è fatta da residenti, utenti quotidiani (studenti, lavoratori), utenti occasionali (per turismo o ancora per lavoro). La resilienza è quindi una capacità che

deve acquisire la città come sistema e come comunità dinamica sulle due dimensioni principali: quella socio-economica e quella ambientale. La città resiliente è, così, un sistema urbano che non si limita ad adeguarsi ai cambiamenti climatici, ma che si modifica costruendo risposte sociali, economiche e ambientali nuove che le permettano di resistere nel lungo periodo alle sollecitazioni dell’ambiente e dell’evoluzione socio-economica. Una città che si svuota a causa di fenomeni migratori è una città non resiliente, così come una in cui i fenomeni immigratori portano ad un generale abbassamento del livello di qualità della vita della sua comunità. In questo senso la “continuità di funzionamento” di una organizzazione resiliente diventa per una città il mantenimento di livelli di qualità di vita percepiti come soddisfacenti. La resilienza è quindi una componente necessaria per lo sviluppo sostenibile, agendo prima di tutto sui modelli organizzativi e gestionali dei sistemi urbani. Una città sostenibile è quindi una città resiliente. Ma una città resiliente è anche una città in grado di pianificare e gestire una strategia di lungo termine per la continuità della comunità e dei suoi asset, con utilizzo di una governance intelligente e condivisa, e di costruire la capacità di adattarsi come ecosistema socio-economico, utilizzando le tecnologie per una gestione intelligente degli spazi del territorio, delle risorse energetiche e del sistema della mobilità. Le “smart city” naturalmente devono essere e sono città resilienti, perché “luoghi (topos) dove la vita diventa più semplice e attraente, qualitativamente più elevata” 9. Un obiettivo che non può mai dirsi raggiunto in via definitiva, ma che ha bisogno di un sistema continuo di monitoraggio e miglioramento, entro cui si costruiscono le condizioni per la resilienza strategica (socio-economica) e operativa (ambientale, funzionale). 5. QUASI IN FORMA DI INTRODUZIONE L’obiettivo di questo articolo è di aprire un dibattito sul tema della resilienza, sapendo che nei periodi di

crisi globale, come quello che stiamo affrontando sia in ambito economico sia climatico e ambientale, il rischio maggiore è di far prevalere l’approccio dell’emergenza. La resilienza richiede, invece, di porsi sempre un obiettivo di medio termine, sia in termini di acquisizione di capacità sia in termini di valutazione dei benefici. Ai diversi livelli di complessità, per le organizzazioni come per le città. In ambito economico e strategico, si traduce nella definizione di una prospettiva di ripresa invece che di una strategia di semplice contenimento e riduzione, in ambito ambientale e operativo nella realizzazione di interventi in grado di ridurre i rischi, a monte. NOTE

1

T. De Mauro, M. Mancini, Dizionario etimologico, Garzanti, 2010. 2 Malaguti, E. Educarsi alla resilienza: Come affrontare crisi e difficoltà e migliorarsi. Edizioni Erickson 2005. 3 Bianca Bertetti (a cura di). Oltre il maltrattamento. La resilienza come capacità di superare il trauma. Angeli 2008. 4 Ranjay Gulati, Reorganize for Resilience, Harvard Business Press, 2010 5 R.S. Kaplan, D.P. Norton, “The Strategy Focused Organization”, Harvard Business, 2010. 6 CERT-Resilience Management Model ver.1.1, SEI- Carnegy Mellon University, 2010. 7 G. Iacono, F. Marzano, C.M. Medaglia, “La Continuità Operativa negli Enti Locali”, Maggioli 2012 8 http://www.sei.cmu.edu/reports/10tr012. pdf 9 http://www.egovnews.it/articolo/14847/ Progettare-la-smart-city-dai-concetti-dibase-ad-uno-schema-per-lo-sviluppo-dellasmartness

NELLO IACONO

Stati Generali Innovazione

20 iged.it 03.2012 Scenari_Nellolacono_h.indd 6

22/10/12 16:18


approfondimenti

Verso l’Openness

SI TRATTA DELL’ENNESIMA MODA O FINALMENTE SIAMO ARRIVATI ALL’OPEN MIND?

DI FLAVIA MARZANO

OPENNESS Dopo anni di libri, articoli, convegni, workshop e normative sull’Open Source da qualche tempo, e in particolare dopo il Memorandum of Understanding 1 del Presidente Obama, il pallino è passato agli Open Data e di recente si parla di Open Government e di Open Innovation, in una parola Openness. Che cosa si intende per openness nella Pubblica Amministrazione? Il concetto di openness applicato alla Pubblica Amministrazione (PA) può essere declinato in moltissimi modi, ma quello che finalmente sta prendendo forma in questi ultimi mesi è quello che meglio accoglie da un lato le istanze dei cittadini, dall’altro la capacità, la necessità e la volontà da parte delle amministrazioni di passare

(definitivamente?) a un governo partecipato, trasparente e condiviso della cosa pubblica. Siamo davvero arrivati all’Open Mind? GLI ULTIMI DIECI ANNI A partire dal 2002 quando sono stati presentati due disegni di legge, rispettivamente al Senato e alla Camera, sul software open source nella PA, anche in Italia è iniziato il lungo cammino verso l’openness. Le due commissioni per l’Open Source (promosse dal Ministro Stanca prima e dal Ministro Nicolais in un secondo tempo) hanno generato documenti di indirizzo che hanno fornito strumenti alle amministrazioni per l’adozione di software open source. In particolare l’Indagine conoscitiva sul software

“open source” ha fornito una prima analisi del contesto internazionale di applicazione del software open source, dei possibili criteri di valutazione per il suo impiego nella PA e degli eventuali interventi sul piano della normazione e sul piano organizzativo per l’adozione dello stesso. Le proposte generate dall’indagine sono state in sintesi le seguenti: • le PA non devono vietare né penalizzare l’utilizzo di pacchetti Open Source: il criterio che deve valere al momento della selezione di una soluzione software è quello del value for money; • i software custom (e le personalizzazioni) devono essere di piena proprietà (non necessariamente esclusiva) della PA. I contratti di outsourcing devono includere opportune clausole iged.it 03.2012

Approf_Marzano_h.indd 1

21 19/10/12 10:06


Rappresentazione grafica degli articoli 68 – 70 della prima versione del CAD

di protezione; • è necessario sostenere e facilitare il riuso dei software custom di proprietà delle PA, e la disseminazione dei risultati e delle best practice tra tutte le PA del Paese; • tutti i pacchetti proprietari acquisiti su licenza devono essere disponibili per ispezione e tracciabilità da parte della PA. Le PA devono essere tutelate nel caso un fornitore di pacchetti non sia più in grado di fornire supporto; • i sistemi informativi delle PA devono interagire attraverso interfacce standard che non siano vincolate ad un unico fornitore; • i documenti delle PA sono resi disponibili e memorizzati attraverso uno o più formati. Di questi almeno uno deve essere obbligatoriamente aperto, mentre gli altri, se presenti, possono essere scelti a discrezione della PA tra quelli aperti o proprietari; • il trasferimento del software custom e delle licenze dei pacchetti tra PA deve essere libero da vincoli e favorito; • è opportuno definire linee guida, strumenti di pianificazione e servizi di supporto ai processi di procurement di prodotti software nelle PA. Ciò deve attuarsi attraverso la valorizzazione ed il potenziamento delle competenze e delle risorse presenti sul territorio; • è necessario definire politiche di dis-

seminazione per i progetti di ricerca e innovazione tecnologica finanziati con fondi pubblici affinché vi sia maggiore riuso dei risultati. La modalità Open Source può essere uno strumento utile da sperimentare per diffondere prodotti software innovativi risultanti da tali progetti. Purtroppo quanto sopra esposto non sempre è stato recepito dalle PA e anche normative nazionali e regionali non sempre hanno recepito i suggerimenti indicati. Il CAD, fin dalla sua prima versione, così come alcune Leggi Regionali, hanno aperto le porte all’Openness nella PA. IL CODICE DELL’AMMINISTRAZIONE DIGITALE E L’OPENNESS L’avvento del Codice dell’Amministrazione Digitale (CAD) ha segnato il primo serio intervento normativo nell’ottica dell’Openness e non solo per quanto riguarda l’adozione di software Open Source nella PA, ma vi si potevano trovare già i primi fermenti verso l’Open Data. Ma facciamo un passo indietro, torniamo all’Indagine conoscitiva sopra citata perché, sulla base delle indicazioni contenute nell’indagine,

l’allora Ministro per l’Innovazione e le Tecnologie, Lucio Stanca, ha emanato la Direttiva 19 dicembre 2003 “Sviluppo ed utilizzazione dei programmi informatici da parte delle PA” con l’intento di fornire alle PA “indicazioni e criteri tecnici e operativi per gestire più efficacemente il processo di predisposizione o di acquisizione di programmi informatici”, tenendo conto della disponibilità di FLOSS sul mercato. In base alla Direttiva, le PA devono acquisire programmi informatici dopo aver effettuato una valutazione comparativa di tipo tecnico ed economico, tenendo conto anche del costo totale di possesso (TCO) delle singole soluzioni e del costo di uscita, tra le seguenti soluzioni: • sviluppo di programmi informatici ad hoc, sulla scorta dei requisiti indicati dalla stessa amministrazione committente; • riuso di programmi informatici sviluppati ad hoc per altre amministrazioni; • acquisizione di programmi informatici di tipo proprietario mediante ricorso a licenza d’uso; • acquisizione di programmi informatici a codice sorgente aperto; • acquisizione mediante combinazione delle modalità precedenti. In sede di scelta della migliore soluzio-

22 iged.it 03.2012 Approf_Marzano_h.indd 2

19/10/12 10:06


dicembre 2010, n. 235 che all’articolo 68, comma 2 recita: Le pubbliche amministrazioni nella predisposizione o nell’acquisizione dei programmi informatici, adottano soluzioni informatiche, quando possibile modulari, basate sui sistemi funzionali resi noti ai sensi dell’articolo 70, che assicurino l’interoperabilità e la cooperazione applicativa e consentano la rappresentazione dei dati e documenti in più formati, di cui almeno uno di tipo aperto, salvo che ricorrano motivate ed eccezionali esigenze.

Mappa delle Leggi Regionali

ne si tiene altresì conto del potenziale interesse di altre amministrazioni al riuso dei programmi informatici, della valorizzazione delle competenze tecniche acquisite, della più agevole interoperabilità. La PA nell’acquisto dei programmi informatici dovrà privilegiare le soluzioni che tengono conto dei seguenti criteri tecnici: • assicurare l’interoperabilità e la cooperazione applicativa tra i diversi sistemi informatici della PA, salvo che ricorrano peculiari ed eccezionali esigenze di sicurezza e di segreto; • rendere i sistemi informatici non dipendenti da un unico fornitore o da un’unica tecnologia proprietaria; • garantire la disponibilità del codice sorgente per l’ispezione e la tracciabilità da parte delle PA ”ferma la non modificabilità del codice, fatti salvi i diritti di proprietà intellettuale del fornitore e fermo l’obbligo dell’amministrazione di garantire segretezza o riservatezza”; • esportare dati e documenti in più formati, di cui almeno uno di tipo aperto. Tale decreto già apriva la strada sia verso l’adozione sia di software open source nella PA che verso l’apertura dei formati dei dati e dei documenti:

preludio agli Open Data. Le indicazioni della Direttiva sono successivamente state riprese nella prima versione 2 dal CAD che all’art. 69 recitava: “Le pubbliche amministrazioni che siano titolari di programmi applicativi realizzati su specifiche indicazioni del committente pubblico, hanno obbligo di darli in formato sorgente, completi della documentazione disponibile, in uso gratuito ad altre pubbliche amministrazioni che li richiedono e che intendano adattarli alle proprie esigenze, salvo motivate ragioni”. È interessante ricordare che l’art. 11 della Legge 22 aprile 1941 n. 633 recitava “Alle amministrazioni dello stato, alle province ed ai comuni spetta il diritto di autore sulle opere create e pubblicate sotto il loro nome ed a loro conto e spese. Lo stesso diritto spetta agli enti privati che non perseguano scopi di lucro, salvo diverso accordo con gli autori delle opere pubblicate, nonché alle accademie e agli altri enti pubblici culturali sulla raccolta dei loro atti e sulle loro pubblicazioni”: volendo vedere il software come un’opera, la questione sarebbe già stata risolta nel 1941. Ma torniamo al CAD e alle modifiche e integrazioni che vi sono state introdotte con il Decreto Legislativo 30

Ci sarebbe da parlare anche dell’articolo 2-bis (Le amministrazioni pubbliche comunicano tempestivamente al DigitPA l’adozione delle applicazioni informatiche e delle pratiche tecnologiche, e organizzative,adottate, fornendo ogni utile informazione ai fini della piena conoscibilità delle soluzioni adottate e dei risultati ottenuti, anche per favorire il riuso e la più ampia diffusione delle migliori pratiche), ma vista la storia recente di DigitPA trasformata in Agenzia (cfr Articolo del Prof. Pierluigi Ridolfi in questo stesso numero), questa è un’altra storia. E ricordiamo poi che l’articolo 69, comma 1 (già nella sua prima versione) recitava: Le pubbliche amministrazioni che siano titolari di programmi informatici realizzati su specifiche indicazioni del committente pubblico, hanno obbligo di darli in formato sorgente, completi della documentazione disponibile, in uso gratuito ad altre pubbliche amministrazioni che li richiedono e che intendano adattarli alle proprie esigenze, salvo motivate ragioni. Questo obbligo è di recente stato sancito e rafforzato dal TESTO COORDINATO DEL DECRETOLEGGE 22 giugno 2012, n. 833, che, all’articolo 22, Comma 10 richiede che le PA acquisiscano programmi informatici (o parti di essi) a seguito di una valutazione comparativa di tipo tecnico ed economico tra le seguenti soluzioni disponibili sul mercato: a) software sviluppato per conto della pubblica amministrazione; b) riutilizzo di software o parti di esso iged.it 03.2012

Approf_Marzano_h.indd 3

23 19/10/12 15:14


sviluppati per conto della pubblica amministrazione; c) software libero o a codice sorgente aperto; d) software combinazione delle precedenti soluzioni. Inoltre l’articolo precisa che “solo quando la valutazione comparativa di tipo tecnico ed economico dimostri l’impossibilità di accedere a soluzioni open source o già sviluppate all’interno della pubblica amministrazione ad un prezzo inferiore, è consentita l’acquisizione di programmi informatici di tipo proprietario mediante ricorso a licenza d’uso. La valutazione sarà effettuata secondo le modalità e i criteri definiti dall’Agenzia per l’Italia Digitale, che, a richiesta di soggetti interessati, esprime altresì parere circa il loro rispetto”. Si vede come tale articolo sia un ulteriore passo verso l’adozione di software libero (Open Source) nella PA. DATI APERTI, OPEN DATA, OPEN GOVERNMENT DATA Già la prima versione del CAD nel 2005 aveva aperto la strada ai dati aperti, infatti, al comma 1 dell’Art. 50, “Disponibilità dei dati delle pubbliche amministrazioni” richiedeva che i dati delle PA venissero formati, raccolti, conservati, resi disponibili e accessibili con l’uso delle tecnologie dell’informazione e della comunicazione per consentirne la fruizione e riutilizzazione da parte delle altre PA e dai privati. Ma come dicevamo in premessa solo dopo il Gennaio 2008, data della presentazione del Memorandum of Understanding del Presidente Obama sull’Open Government, anche in Italia sono nati i primi movimenti e le prime associazioni che hanno in qualche modo “forzato” la mano al Governo che nell’ottobre 2008 ha presentato il portale dati.gov.it. A dire il vero la Regione Piemonte aveva da tempo iniziato il cammino verso gli open data con il portale dati. piemonte.it e negli ultimi mesi si sono susseguite moltissime iniziative pubbliche in tale direzione: dal portale del Comune di Firenze a quello delle Regioni Lombardia, Veneto, Emilia Romagna, Toscana,… fino alle leggi regionali di Piemonte, Lazio e Puglia. Dati aperti, ovvero Open Data, ma me-

glio sarebbe dire Open Government Data perché di dati pubblici si tratta: dati che possono essere fruiti da cittadini, imprese o altre amministrazioni, dati per garantire la trasparenza ma anche per offrire opportunità di business al mercato e condivisione della conoscenza. Siamo sulla buona strada, le PA italiane, locali e centrali, hanno iniziato il loro cammino per aprire i propri dati, cammino che servirà di sicuro anche a cambiare il rapporto di fiducia tra PA e cittadino. OPEN INNOVATION, OPEN GOVERNMENT Non poteva mancare la definizione di Open Innovation, se pur lontana dalla PA di cui abbiamo parlato fino ad ora, perché rientra nel concetto di Openness e porta verso l’Open Mind ipotizzata nel titolo del presente articolo. Il paradigma, promosso da Henry Chesbrough, professore e direttore esecutivo del Center for Open Innovation at Berkeley nel libro Open Innovation: The new imperative for creating and profiting from technology4 assume che le imprese possano, e debbano, usare e condividere idee, progetti, ricerche, brevetti esterni (o interni) tramite licenze “permissive” per migliorare le proprie tecnologie innovando con partner condividendo rischi e opportunità con altre imprese. Insomma il concetto della condivisione della conoscenza così bene implementato dalle comunità dell’Open source. Volendo infine dare una breve definizione di Open government possiamo dire che si tratta di una dottrina che stabilisce che i cittadini hanno diritto ad accedere ai documenti e ai procedimenti del governo (locale e centrale) per garantire un effettivo “controllo” pubblico. Personalmente preferisco declinare Open Government così come lo abbiamo definito con l’associazione Italiana per l’Open Government e riassunto nel seguente Manifesto: 1. Governare con le persone 2. Governare con la rete 3. Creare un nuovo modello di trasparenza 4. Trattare l’informazione come infrastruttura

5. Liberare i dati pubblici per lo sviluppo economico del terzo millennio 6. Informare, coinvolgere, partecipare per valorizzare l’intelligenza collettiva. 7. La rete moltiplica il potenziale delle intelligenze coinvolte e aumenta l’efficacia dell’azione amministrativa 8. Educare alla partecipazione 9. Promuovere l’accesso alla Rete 10. Costruire la fiducia e aumentare la credibilità della PA 11. Promuovere l’innovazione permanente nella pubblica amministrazione OPEN MIND? La strada verso l’openness è tracciata, la normativa europea, nazionale e regionale ci supporta, i cittadini sono pronti a partecipare, gli amministratori illuminati sono già partiti verso la giusta direzione, voglio essere ottimista, non è una moda, non sarà solo una moda, siamo pronti all’openness, siamo open minded. note 1

http://www.whitehouse.gov/the_press_office/ TransparencyandOpenGovernment/ 2 D. Lgs 82/2005 3 Testo del decreto-legge 22 giugno 2012, n. 83 (in supplemento ordinario n. 129/L alla Gazzetta Ufficiale - serie generale - n. 147 del 26 giugno 2012), coordinato con la legge di conversione 7 agosto 2012, n. 134 (in questo stesso supplemento ordinario alla pag. 1), recante: «Misure urgenti per la crescita del Paese.». (12A08941) (GU n. 187 del 11.8.2012 Suppl. Ordinario n.171) 4 Chesbrough, H.W. (2003). Open Innovation: The new imperative for creating and profiting from technology. Boston: Harvard Business School Press

FLAVIA MARZANO Presidente Stati Generali dell’Innovazione e Coordinatore del Comitato di Esperti per l’innovazione OMAT 360

24 iged.it 03.2012 Approf_Marzano_h.indd 4

19/10/12 10:07


Grafema Plus per semplificare, automatizzare e rendere pi첫 efficace la gestione del complesso processo di Document Lifecycle Management

Via Noto, 6 - 20141 Milano (MI) Tel. +39 02 55211103 - Fax +39 02 57303797 Web: www.vega.it - E-mail: vega@vega.it

Approf_Lupo_h.indd 1

19/10/12 10:08


approfondimenti

LINKED OPEN DATA La rete dei dati sul web che costruisce il web semantico

DI CATERINA LUPO

Se provo a fare una ricerca su google inserendo come parola chiave la lettera “a” ottengo in risposta circa 25.270.000.000 documenti. Esistono quindi sul web più di 25 miliardi di pagine indicizzate: un oceano di informazioni eterogenee, nei formati e nei contenuti, e con una grandissima ridondanza. A fronte di questo immenso giacimento che continua a crescere ad un ritmo vertiginoso, cresce anche la difficoltà nel reperire le informazioni rilevanti a fronte di una specifica esigenza informativa, volendo limitare il più possibile le ridondanze e non perdere informazione pertinente e utile. Così, nonostante gli strumenti sempre più sofisticati di ricerca e di knowledge discovery, che aiutano notevolmente ad esplorare una quantità di informazione altrimenti ingovernabile per i limiti cognitivi umani, la gestione delle informazioni è ritornata ad essere un’attività pesantemente “time consuming” per le persone. Lo scenario è enormemente diverso da prima dell’avvento e della successiva straordinaria diffusione delle tecnologie informatiche, quando gli archivi erano cartacei e non c’erano grandi ausilii, ma le informazioni a disposizione di ciascuno erano molto più limitate; oggi di contro, nonostante i sofisticati strumenti, è il sovraccarico informativo che fa sì che comunque tanto del nostro tempo finisca per essere impegnato in attività non di tipo critico o creativo, che potrebbero essere in qualche modo rese più efficienti. WEB OF DOCUMENTS VS WEB OF DATA Le pagine web che ci mette a disposizione il cosiddetto “web of documents”, diversamente dall’ emergente “web of data”, non sono correlate tra loro in virtù della vicinanza semantica o di altre relazioni dipendenti dal contenuto e rappresentate in maniera esplicita, ma attraverso i link ipertestuali che collegano indirizzi fisici di pagine diverse. Questi collegamenti rappresentano relazioni, di qualsiasi tipo, definite dall’autore della pagina. I link ipertestuali che corrispondono a tali relazioni, inseriti all’atto dell’editing della pagina, sono “azionati” dagli utenti che, navigando, esaminano le informazioni disponibili nelle pagine web, ricorrendo alle proprie competenze ed abilità per valutare i testi, metterli in relazione con altri, operare scelte a volte sulla base di informazioni approssimative o imprecise. Il “web of documents”, infatti, non fornisce strumenti semantici in grado di interpretare il significato dei contenuti nemmeno per quel tanto che basterebbe per semplificarci il lavoro,

consentendoci di individuare ed aggregare più facilmente le informazioni rilevanti rispetto alle nostre esigenze e scartare quelle duplicate o non pertinenti senza bisogno di esaminarle direttamente. D’altra parte non potrebbe essere diversamente, dato che le pagine HTML del “web of documents” sono elaborate sulla base delle possibilità consentite dalle tecnologie di oggi sugli elementi a disposizione: testi in linguaggio naturale marcati in HTML. I testi in linguaggio naturale possono essere elaborati dai software che implementano algoritmi di information retrieval, knowledge extraction, web intelligence; l’HTML consente di gestire gli aspetti di presentazione e di collegamento; la combinazione delle due (tipologie di tecniche) consente di rendere più sofisticati gli algoritmi, certamente almeno per quanto riguarda il ranking dei risultati di ricerca. Ma per effettuare un salto di qualità e rendere possibili elaborazioni automatiche anche di natura semantica è necessario che le pagine web siano portatrici di altre informazioni, che consentano di esprimere relazioni qualificate tra entità del mondo reale piuttosto che legami impliciti tra porzioni di testo. Il “web of data” si ottiene così ricorrendo all’utilizzo dei Linked open data: dati aperti di cui sono rese esplicite relazioni con altri dati anche se pubblicati da fonti diverse, rappresentate in maniera codificata secondo standard aperti e condivisi, con modalità tali da consentirne automaticamente l’utilizzo. Le relazioni tra dati vengono espresse facendo riferimento ad un modello, denominato RDF (Resource Description Framework), che può poi essere implementato adottando diversi formalismi o linguaggi (RDF-XML, N3,..). Il modello si basa su semplici triple del tipo: soggetto – predicato – oggetto, che possono esprimere una proposizione semplice del tipo “Cesare conosce Antonio”. Soggetto e oggetto delle triple possono fare riferimento ad una qualsiasi entità del mondo reale – persone, luoghi, concetti astratti - a prescindere dalle pagine web che vi fanno riferimento ed è quindi necessario disporre di un meccanismo per identificarle e distinguerle. Siamo abituati ad accedere alle pagine web attraverso il loro indirizzo (URL, uniform resource locator, del tipo : www. nomesito.xx/pagina); se proviamo ad astrarre il concetto di indirizzo dalla sua immediata corrispondenza ad una locazio-

26 iged.it 03.2012 Approf_Lupo_h.indd 2

19/10/12 10:08


ne fisica di rete e generalizzarlo nel concetto di identificativo (URI , Uniform Resource Identifier) è naturale pensare che possiamo associare un URI ad una qualsiasi entità del mondo reale: persone, luoghi, oggetti ed esprimerlo secondo uno standard, (eventualmente lo stesso che usiamo per le URL).

La descrizione delle relazioni, ovvero dei predicati, deve fare riferimento a ontologie pubbliche in maniera da consentirne l’interpretazione condivisa e non ambigua del significato. Un esempio è costituito dall’ontologia FOAF (friend-of-a-friend) che rappresenta le relazioni tra persone e le loro attività, ed è utilizzata dai social network, le cui voci sono riportate in figura (dal sito http://xmlns.com/foaf/spec/).

L’esistenza di molteplici URI per individuare una stessa entità (URI alias), oltre ad essere inevitabile in una realtà “plurale” come quella del web, presenta altri vantaggi che contribuiscono ad arricchire la fruibilità del patrimonio conoscitivo disponibile: ad esempio la possibilità di identificare e far coesistere diverse versioni di una stessa entità, come le diverse edizioni di uno stesso libro, o una molteplicità di opinioni su un medesimo fatto. Inoltre, se il modello non avesse consentito la molteplicità di URI, ci sarebbe stata la necessità di una naming authority centralizzata, con le conseguenti complessità burocratiche e i rallentamenti nei processi di creazione collaborativa di contenuti, che avviene in maniera distribuita e non coordinata. Si pensi ad esempio come sarebbe stato possibile per Geonames, che pubblica come Linked Open Data informazioni relative ad oltre otto milioni di località, anche solo avviare il progetto se fosse stato necessario un coordinamento preventivo per l’attribuzione degli URI; il processo di pubblicazione è invece andato avanti autonomamente, essendo sempre aperta la possibilità di collegare i contenuti con altri già esistenti e relativi allo stesso luogo esprimendo una relazione di tipo same_as. La progressiva adozione dei Linked Open Data sta dando corpo incrementalmente ad una sorta di base di dati globale, il “web of data” appunto, che comprende miliardi di proposizioni RDF provenienti da una molteplicità di fonti, che riguardano tutti i temi possibili. La cosiddetta “LOD cloud”, la “nuvola dei Linked Open data”, rappresenta graficamente l’insieme dei dataset linked esistenti (aggiornato al settembre 2011, “Linking Open Data cloud diagram, by Richard Cyganiak and Anja Jentzsch. http://lod-cloud.net/”)

A seconda del contesto, si utilizza un’appropriata ontologia, ricorrendo sempre quando è possibile a quelle già esistenti e condivise. Essendo il web uno spazio aperto e condiviso è naturale che accada che una stessa entità del mondo reale possa essere associata a più URI: la relazione “same_as” consente di collegare informazioni pubblicate da fonti diverse e che si riferiscono ad una stessa entità consentendo alle applicazioni in grado di interpretare RDF di “scoprire” nuove informazioni e creare collegamenti.

Al centro della nuvola campeggia Dbpedia, il dataset estratto dai contenuti di Wikipedia, l’enciclopedia mondiale sviluppata da migliaia di persone che contribuiscono su base volontaria. I contenuti di Wikipedia sono prevalentemente di natura testuale, ma sono presenti anche delle categorizzazioni e delle componenti strutturate, in genere all’interno di riquadri, da cui è possibile estrarre automaticamente informazioni esprimibili sotto forma di triple RDF. Dbpedia viene così a costituire un enorme dataset multidisciplinare che essendo strutturato come Linked Open Data è possibile utilizzare per le più svariate applicazioni (vedi ad esempio http://wiki. dbpedia.org/Applications ). iged.it 03.2012

Approf_Lupo_h.indd 3

27 19/10/12 10:08


È interessante, proprio per esemplificare le potenzialità del Linked Open Data, l’applicazione “relfinder” (utilizzabile on line all’indirizzo http://www.visualdataweb.org/relfinder/ relfinder.php) che consente di scoprire le relazioni tra entità - luoghi, persone o altro - estratte da dbpedia e rappresentarle graficamente. La figura che segue mostra l’output a fronte della richiesta relativa a Newton, Einstein e Fermi:

Un altro esempio è l’applicazione “aboutthisday” che, a fronte di una data, restituisce tutti gli eventi accaduti quel giorno:

La versione inglese di DBpedia comprende oltre 3 milioni di entità, mentre complessivamente le versioni esistenti in altre 111 lingue ne comprendono oltre 20 milioni. In Italia ci sono state esperienze all’avanguardia su questo tema, ben prima che venisse lanciato a livello internazionale il modello Linked Open Data. Già dai primi anni 2000 l’AIPA (Autorità per l’informatica nella Pubblica Amministrazione), con il progetto intersettoriale Normeinrete, aveva definito un modello molto simile, limitatamente al dominio legislativo. Un meccanismo di identificazione basato su URI permetteva di costruire un identificativo di ciascun provvedimento legislativo, prescindendo dalle specifiche “edizioni” pubblicate e distinguendo tra le versioni diverse generate dagli aggiornamenti indotti dalle modifiche normative che intervengono nel corso del tempo ad opera di altri atti legislativi; un sistema di risoluzione permetteva di indirizzare le pagine web dove la legge era pubblicata, consentendo all’utente di scegliere di visualizzare l’edizione preferita. Lo standard, elaborato da

gruppi di lavoro a cui hanno preso parte rappresentanti di molte amministrazioni pubbliche, del Parlamento, del’Istituto di teoria e tecnica dell’informazione giuridica del CNR e dell’Università di Bologna, è stato fatto proprio dall’AIPA che lo ha emanato come standard nazionale (circolare AIPA n. 35 “Assegnazione dei nomi uniformi ai documenti giuridici”, pubblicata sulla G.U. Serie generale n. 262 del 10 novembre 2001). Uno dei vantaggi più eclatanti di questo modello era che rendeva possibile creare iperlink (numerosissimi nei testi legislativi che ripetutamente riferiscono altre leggi per citarle, modificarle o abrogarle) senza conoscere la locazione fisica del provvedimento citato, ma semplicemente riferendo il suo URI: il sistema di risoluzione avrebbe provveduto a localizzare la versione più appropriata del testo riferito. Il popolamento della base documentale normativa distribuita, sui siti della amministrazioni centrali e delle regioni, è poi avvenuto con una grande partecipazione “dal basso”, anche questa un po’ premonitrice delle modalità proprie del web 2.0. I testi normativi, poi, avrebbero dovuto essere marcati secondo uno standard basato su XML, anch’esso emanato dall’AIPA (circolare AIPA n. 40 “Formato per la rappresentazione elettronica dei provvedimenti normativi tramite il linguaggio di marcatura XML”, pubblicata sulla G.U. Serie generale n. 102 del 3 maggio 2002), che prevedeva una marcatura semantica specifica per il dominio legislativo. Sono anche stati realizzati degli editor ad hoc per la costruzione dei testi legislativi vigenti, resi disponibili gratuitamente in opensource. La naturale evoluzione di questo progetto sperimentale, visti i risultati appezzati anche a livello internazionale, sarebbe stato un passaggio in produzione, strutturato e ben governato. Cosa che non è avvenuta, per motivazioni che non saprei spiegare, forse la trasformazione dell’AIPA da autorità indipendente in centro sottoposto al controllo governativo ha fatto prevalere logiche non guidate esclusivamente dal desiderio di introdurre innovazioni efficaci o forse, più banalmente, la soluzione era troppo in anticipo sui tempi. L’importante è comunque il fatto che il sistema di identificazione basato su URI sia stato mantenuto dal progetto Normattiva e che quindi ci si potrà più facilmente integrare con il modello Linked Open Data. La crescita della rete dati globale, costruita sopra la rete del web a sua volta costruita sopra la rete internet, è veloce e ininterrotta. Continuamente nuovi data set open e linked si aggiungono dalla “nuvola” incrementando la disponibilità di informazioni elaborabili in maniera automatica per costruire applicazioni, contribuendo alla costruzione di un patrimonio di conoscenza aperto e disponibile a tutti in un modo che non ha precedenti nella Storia, non solo per le tecnologie, ma per lo spirito di condivisione del sapere che finora ha animato queste iniziative. E che speriamo continuerà.

CATERINA LUPO

Libera professionista

28 iged.it 03.2012 Approf_Lupo_h.indd 4

19/10/12 15:17


Approf_Ragone_h.indd 1 Untitled-1 1

19/10/12 18/10/12 10:11 16:06


approfondimenti

I DATI APERTI NELLA NORMATIVA ITALIANA Dalle leggi regionali ad una prospettiva nazionale DI MORENA RAGONE

La diffusione del concetto di ‘dato aperto’ (open data, secondo la più conosciuta terminologia anglosassone), ossia di quell’insieme di cellule informative (dati), liberamente accessibili, utilizzabili e riutilizzabili, senza restrizione alcuna derivante da diritti di privativa individuale - copyright e brevetti in primis - porta con sé alcune questioni imprescindibili, con le quali l’operatore che voglia approcciarne le problematiche si troverà necessariamente a contatto. Tra esse, sicuramente l’esistenza di alcuni vincoli di carattere normativo, e l’inesistenza, al momento, di una legislazione uniforme, che possa fungere da base per la loro diffusione. La possibilità di aprire i dati, infatti, non incontra soltanto gli ovvi - ma non ancora superati - limiti dati dal formato scelto e della licenza applicata - elementi, soprattutto il secondo, su cui spesso si sorvola, probabilmente anche a causa della scarsa conoscenza sul tema, che non consente di focalizzare l’attenzione sui vincoli che un dato privo di licenza continua ad avere (e che saranno oggetto di analisi in un successivo commento) - , ma anche dell’esistenza di norme che possono entrare in conflitto con il concetto stesso di ‘diffusione’ erga omnes collegato al principio dei dati aperti.

dall’art. 1 e ribadita dal comma 2 dell’art. 22, altrettanto espressamente incontra i limiti di cui all’art. 24, enucleate in una serie di esclusioni dal diritto di accesso (tra i quali la ‘pericolosa’ norma aperta di cui al comma 1), ma che, al comma 3, dispone che “non sono ammissibili istanze di accesso preordinate ad un controllo generalizzato dell’operato delle pubbliche amministrazioni”, evidenziando, comunque, la diversità strutturale con la trasparenza recentemente introdotta dall’art. 11 del decreto legislativo 27 ottobre 2009, n. 150, intesa come ‘accessibilità totale’; 2. il decreto legislativo 30 giugno 2003, n. 196 recante il “Codice in materia di protezione dei dati personali”, comunemente conosciuto come Codice Privacy, il quale, tra le altre disposizioni, prevede, all’art. 19, comma 3, che la diffusione dei dati da parte di un soggetto pubblico

sia ammessa esclusivamente quando è prevista da una norma di legge o di regolamento; 3. la legge 633/41, sulla “Protezione del diritto d’autore e di altri diritti connessi al suo esercizio”, che, nei meandri dell’interpretazione degli artt. 5 (“Le disposizioni di questa legge non si applicano ai testi degli atti ufficiali dello stato e delle amministrazioni pubbliche, sia italiane che straniere”) e 11, comma 1 (relativo al diritto d’autore sulle opere dell’ingegno), lascia margini all’interprete per interrogarsi se esista un ‘diritto d’autore’ sui dati. Premesse importanti di cui necessariamente tenere conto, nel momento in cui ci si approccia alla problematica del dato aperto. Nell’assenza di una disciplina nazionale sulla materia, che serva anche a chiarire gli eventuali conflitti con la

Tre, principalmente, gli architravi normativi, che attengono ad altrettanti provvedimenti cardine del nostro impianto giuridico: 1. la legge 241/90, su “Nuove norme in materia di procedimento amministrativo e di diritto di accesso ai documenti amministrativi”, ossia la prima legge a formalizzare in Italia il concetto di ‘trasparenza’, che pur inserita tra i ‘principi generali dell’attività amministrativa’

30 iged.it 03.2012 Approf_Ragone_h.indd 2

19/10/12 15:18


normativa prima citata, alcune regioni, nell’ambito e nel rispetto del riparto di competenze di cui all’art. 117 della Costituzione, hanno optato per l’adozione di una normativa regionale. Si parla, ovviamente, di un gruppo di regioni ‘apripista’ – con il Piemonte in testa – dal momento che la ‘cultura del dato’, pur essendo fortemente ‘pubblicizzata’, non può ancora dirsi acquisita (i primi esperimenti a livello nazionale, come il portale nazionale dati.gov.it, risalgono alla fine del 2011). Al momento, le leggi regionali in vigore sono quattro: in rigoroso ordine cronologico, la L.R. del Piemonte – n. 24 del 23 dicembre 2011 recante “Disposizioni in materia di pubblicazione tramite la rete internet e di riutilizzo dei documenti e dei dati pubblici dell’amministrazione regionale “; la L.R. del Lazio del 18 giugno 2012, n. 7, contenente “Disposizioni in materia di dati aperti e riutilizzo di informazioni e dati pubblici e iniziative connesse”; la L.R. della Puglia n. 20 del 24 luglio 2012, contenente “Norme sul software libero, accessibilità di dati e documenti ed hardware documentato”; la L.P. della provincia di Trento del 27 luglio 2012, n. 16 recante “Disposizioni per la promozione della società dell’informazione e dell’amministrazione digitale e per la diffusione del software libero e dei formati di dati aperti”. Ad esse si aggiunge la L.R. Del Friuli Venezia Giulia del 14 luglio 2011, n. 9, sulla “Disciplina del sistema informativo integrato regionale del Friuli Venezia Giulia”, che contiene solo una norma di principio. REGIONE PIEMONTE: IL VALORE DI UN INIZIO La legge n. 24, approvata poco meno di un anno fa dall’amministrazione regionale piemontese, rappresenta la prima legge organica regionale italiana sulla disponibilità e sul riutilizzo delle informazioni pubbliche. Non è possibile non ricordare, infatti, che le prime attività istituzionali in materia di dati aperti sono state volute e realizzate proprio dal Piemonte, con la creazione di un portale regionale (dati.piemonte.it) già prima dell’adozione della legge regionale. Quest’ultima, in particolare, all’art.

3, disciplina l’accesso tramite la rete internet e il riutilizzo dei dati e delle informazioni, disponendo che “la Regione utilizza le tecnologie dell’informazione e della comunicazione per rendere fruibili i documenti e i dati pubblici di cui è titolare, assicurandone la pubblicazione tramite la rete internet in formati aperti secondo gli standard internazionali”, e che “i dati e le informazioni di cui al comma 1 sono gratuitamente accessibili tramite la rete internet, salvo i casi eccezionali individuati dai provvedimenti di attuazione di cui all’articolo 5, e sono riutilizzabili nel rispetto della normativa statale”. La legge del Piemonte sottolinea il valore delle informazioni pubbliche, con lo scopo di “garantire la più ampia libertà di accesso all’informazione pubblica, di favorire la partecipazione dei cittadini, delle imprese, delle fondazioni e delle associazioni ai processi decisionali della pubblica amministrazione, di incentivare la collaborazione tra pubblico e privato e di rendere riutilizzabile il maggior numero di documenti e di dati pubblici, in base a modalità che assicurano condizioni eque, adeguate e non discriminatorie”. L’art. 4 introduce, poi, l’importante strumento del reclamo, che “assicura l’effettiva disponibilità tramite la rete internet e riutilizzabilità dei documenti e dei dati pubblici” mediante la possibilità dei cittadini di richiedere la disponibilità dei dati, con richieste da evadere entro 30 gg., con un meccanismo simile a quello che, vedremo, è stato introdotto della legge della regione Lazio. Ulteriore motivo di pregio della normativa, la previsione di tempi stringati per la determinazione di tipologie, modalità, licenze, casi e formati, rimessa all’adozione di specifici provvedimenti di Giunta e di Consiglio – nell’ambito delle rispettive competenze – da adottare nei 90 giorni successivi. Regione Lazio: focus sugli opendata La legge n. 7 nasce dalla fusione tra due distinte proposte di legge, e mantiene, nonostante questo, una struttura organica. Punto essenziale dell’articolato, l’art. 1, che stabilisce quali dati liberare e disciplina le finalità del riutilizzo: infatti, “al fine di agevolare

la partecipazione attiva dei cittadini e delle imprese nonché lo scambio di dati e informazioni tra gli enti locali” la Regione “ promuove la trasparenza, l’efficienza, l’economicità, l’imparzialità e la semplificazione dell’attività amministrativa”, incentivando, tra le altre cose “b) il riutilizzo del maggior numero di informazioni e dati pubblici, in base a modalità che assicurino condizioni eque, adeguate e non discriminatorie, nonché delle procedure e dei programmi informatici a supporto dei flussi di informazioni e dati in entrata e uscita” e “d) lo sviluppo delle iniziative economiche private legate al riutilizzo delle informazioni e dei dati pubblici, secondo modalità che assicurino condizioni eque, adeguate e non discriminatorie”. All’art. 3, comma 1 lett d) è poi precisato che per riutilizzo dei dati pubblici si intende “l’uso delle informazioni e dei dati pubblici di cui sono titolari i soggetti indicati all’articolo 2, da parte di persone fisiche o giuridiche, a fini commerciali o non commerciali diversi dallo scopo iniziale per il quale i documenti che li rappresentano sono stati prodotti nell’ambito dei fini istituzionali”. Una particolare disposizione è quella inserita al comma 2 dell’art. 4: la possibilità di richiesta, da parte di persone fisiche e giuridiche, di pubblicazione di ulteriori dati non ancora presenti sulla piattaforma interoperabile predisposta. Stringenti anche i termini, con 90 gg. per l’adozione, da parte della Giunta, del regolamento attuativo, e ulteriori 90 gg. dall’adozione del regolamento per consentire ai soggetti attuatori l’adozione dei piani per il riutilizzo dei dati. La legge comprende anche una serie di norme sul riuso dei programmi informatici (art. 5, che, oltretutto, serve anche a fare chiarezza sui due concetti - riutilizzo e riuso - spesso confusi), sulla formazione del personale regionale (art. 7, con il tema, particolarmente caro a chi scrive, dell’alfabetizzazione digitale e dello sviluppo di competenze nel settore dell’informazione e della comunicazione, con individuazione di personale apposito), sulla ‘economia del dato ‘ ed i concorsi di idee (art. 9). iged.it 03.2012

Approf_Ragone_h.indd 3

31 19/10/12 10:11


REGIONE PUGLIA: L’OPENNESS COME SCELTA DI EGUAGLIANZA Il testo della legge regionale pugliese si caratterizza per aver riunificato in un unico provvedimento principi e norme in tema di software libero e di accesso ai dati, evidenziando la scelta di un passaggio tendenziale verso la filosofia open. Il perché è chiarito dall’art. 1, che sottolinea come “ogni cittadino ha diritto ad accedere, in condizioni di eguaglianza, a tutte le informazioni e ai servizi forniti dalla Pubblica Amministrazione mediante sistemi informatici”, principio già radicato negli artt. 2 e ss. del decreto legislativo 7 marzo 2005, n. 82 - il Codice dell’Amministrazione Digitale - anche se molto di frequente disapplicato; ma, anche, dal successivo comma dello stesso articolo, il quale dispone che “La presente legge agisce in coerenza e in continuità con le norme regionali in materia di trasparenza e avvia un processo di diffusione dei dati liberamente accessibili per tutti (open data) per una Pubblica Amministrazione aperta ai cittadini in termini di partecipazione al percorso decisionale (open government)”, evidenzia la scelta di indirizzo per un governo aperto atto a favorire la partecipazione dei cittadini ai processi decisionali. Obiettivo ulteriore, favorire processi tendenti al pluralismo informatico, nel contestuale abbattimento di ogni ‘barriera’ all’accesso. L’art. 6 del testo, rubricato “Riutilizzo dei documenti e dei dati pubblici” è espressamente dedicato ai dati aperti, e dispone che “la Pubblica Amministrazione regionale utilizza le tecnologie dell’informazione e della comunicazione per rendere fruibili i documenti e i dati pubblici di cui è titolare, assicurandone la pubblicazione tramite la rete internet in formati aperti secondo gli standard internazionali”. Si evidenzia, così, la necessità che le informazioni pubbliche – siano essi dati o documenti - vengano rese fruibili tramite pubblicazione in rete in formato aperto, specificando altresì che “i documenti e i dati pubblici di cui al comma 1...omissis... sono accessibili e riutilizzabili a titolo gratuito nel

rispetto della normativa vigente”, e che a tal fine “le licenze per il riutilizzo dei documenti e dei dati pubblici...omissis... devono consentire la più ampia e libera utilizzazione gratuita, anche per fini commerciali e con finalità di lucro”. Riassumendo: accesso alle informazioni pubbliche in rete, formato aperto, gratuità, utilizzo senza vincoli. In una parola: open data. Nel resto della legge, sono previste norme sull’adozione del software libero, nel rispetto del principio del pluralismo informatico (artt. 8-10), sul sostegno all’informatizzazione (art. 11), sull’istruzione scolastica (art. 13), sulla cittadinanza attiva (art. 14), sulla comunità di pratica (art. 17) e sulla formazione (art. 18); il tutto, all’insegna del software libero come garanzia di accesso e di libertà di scelta. PROVINCIA DI TRENTO: QUANDO ANCHE L’AUTONOMIA SPECIALE SI FA OPEN Con la legge provinciale n. 16, la provincia autonoma di Trento si pone nello stesso solco tracciato appena qualche giorno prima dalla Regione Puglia, concentrando in un unico testo norme a promozione del sistema di informazione, del software libero e dei dati aperti. L’art. 1, nell’evidenziare le finalità della normativa in esame, sottolinea come siano primarie, tra quelle indicate, il miglioramento della qualità di vita, la competitività e lo sviluppo sostenibile, con focus, quindi, leggermente diverso rispetto a quello di altre legge regionali. Per tale motivo, tra gli obiettivi indicati dall’art. 2, posizione di rilievo assumono la lettera e) (“l’utilizzo di formati dati e protocolli di comunicazione standard e aperti, orientando in questo senso lo sviluppo dei sistemi ICT a partire dalla loro programmazione”) la lettera g) (“l’accessibilità e l’utilizzo del patrimonio informativo pubblico”). Tra gli strumenti individuati per la realizzazione di tali obiettivi, l’art. 3 alla lettera c) parla de “l’adozione e l’utilizzo da parte della Provincia e la promozione e il sostegno sul territorio del software libero e a codice sorgente aperto, di dati, protocolli di comunicazione e scambio dati basati su standard aperti”.

In merito alla “Pubblicazione e riutilizzo dei dati pubblici e dei documenti contenenti dati pubblici” soccorre l’art. 9, disponendo che “la Provincia...omissis...assicura la disponibilità, la gestione, l’accesso, la trasmissione, la conservazione e la fruibilità in modalità digitale dei dati pubblici e dei documenti contenenti dati pubblici di cui è titolare” e che “utilizza le tecnologie dell’informazione e della comunicazione per rendere fruibili i dati pubblici e i documenti contenenti dati pubblici di cui è titolare, assicurandone la pubblicazione tramite la rete internet e utilizzando formati aperti definiti secondo gli standard internazionali”; si prevede, inoltre, che “i dati indicati dal comma 1 sono accessibili gratuitamente e sono riutilizzabili nel rispetto della normativa”, “sono pubblicati al livello massimo possibile di granularità” e che “le licenze per il riutilizzo dei dati pubblici e dei documenti contenenti dati pubblici... omissis... devono consentire la più ampia e libera utilizzazione gratuita, anche per fini commerciali”. Parole non dissimili, come abbiamo visto, da quelle utilizzate dalle altre Regioni in contesti di riferimento analoghi. Molto interessante, anche perché ad avviso di chi scrive direttamente collegato al problema della ‘cultura del dato’, l’art. 17, sulle “Iniziative per lo sviluppo della cultura digitale”, volte al superamento del divario digitale, intervenendo anche su target specifici, ad attivando circoli sul territorio e mini-distretti dell’informatica per la formazione iniziale e permanente. Una iniziativa, quest’ultima, che sarebbe interessante declinare anche in altre realtà. REGIONE FRIULI VENEZIA GIULIA: DALLO STRUMENTO AL METODO Alle leggi citate si aggiunge la L.R. del Friuli Venezia Giulia del 14 luglio 2011, n. 9, che introduce la “Disciplina del sistema informativo integrato regionale del Friuli Venezia Giulia”, e che, pur non essendo riferita alla disciplina del SIT ed ai compiti della Regione - quindi non specifica sui dati aperti, com’è intuibile dalla rubrica contiene, al suo interno, un articolo, il 4, che introduce una disposizione

32 iged.it 03.2012 Approf_Ragone_h.indd 4

19/10/12 10:11


di principio sui dati aperti, prevedendo, tra gli obiettivi del SIIR – Sistema Informativo Integrato Regionale - la “promozione della trasparenza secondo la metodologia degli open data”. Terminologia, oltretutto, molto interessante, dal momento che evidenzia l’utilizzo degli open data come metodo (pro-trasparenza), e non come strumento. LA SITUAZIONE NELLE ALTRE REGIONI: LA VISIONE D’INSIEME Tra le regioni che non hanno ancora una normativa in materia, alcune hanno già avviato l’iter per la discussione o l’approvazione di leggi analoghe a quelle appena viste (Basilicata, Umbria, Sicilia, Lombardia, Campania). Di certo, l’eterogeneità delle normative regionali - diverse visioni, diversi impianti di base, diverse - talora assenti - responsabilità, diversità nelle licenze adottate - spinge in direzione della necessità di una uniformazione a livello nazionale: sarebbe estremamente utile, infatti, pur nel rispetto del riparto di competenze, disporre di una legge applicabile sull’intero territorio, che fissi dei parametri minimi: tipologia licenze, tipi di dati liberabili, procedura da seguire, tempistica, e, soprattutto, responsabilità. E che, cosa da non trascurare, delinei una visione globale, una strategia. Con il decreto-legge 83/2012, convertito dalla l. 134/2012, con un notevole salto prospettico, una scelta in tale direzione è stata compiuta: l’articolo 18, infatti, formalizza la prima norma nazionale sui dati da aprire (quelli relativi a “la concessione delle sovvenzioni, contributi, sussidi ed ausili finanziari alle imprese e l’attribuzione dei corrispettivi e dei compensi a persone, professionisti, imprese ed enti privati e comunque di vantaggi economici di qualunque genere”, dati non certo innocui, ma a forte impatto), prevedendo precisi obblighi di pubblicazione, sanzioni (la pubblicità online come requisito di efficacia legale a partire dal 1° gennaio 2013) e responsabilità (amministrativa, patrimoniale e contabile). La strada è quella giusta, e sarebbe opportuno che, sul paradigma dell’open by default, si spingesse per un rilascio generalizzato: in tal senso sembra muoversi la modifica al comma 2 dell’art. 52 del Codice dell’Amministrazione Digitale, prevista dall’art. 20 del decreto sull’Agenda Digitale e le startup innovative (al momento in cui si scrive, circolante in forma di bozza), che introduce un principio generale di disponibilità dei dati pubblici, in formato open, anche per il riutilizzo. Di default.

Il nuovo modo di fare ! Raccomandate! parte dalla Posta Ibrida!

PIC

Posta ! Ibrida ! Certificata!

Per costi ed informazioni sul servizio collegati a:! www.postaibridacertificata.it! PIC Posta Ibrida Certificata è un’idea!

MORENA RAGONE Giurista, studiosa di diritto delle nuove tecnologie

Approf_Ragone_h.indd 5

Via di Affogalasino, 40 – 00148 ROMA RM! Tel. +39 06 657481.1 Fax +39 06 657481.264! info@land.it - www.land.it !

19/10/12 10:13


l’evento per celebrare i primi vent’anni di Iged.it

Articolo_h.indd 2

19/10/12 14:36


Milano 20 settembre 2012 www.omat360.it/iged20 Grazie a tutti coloro che hanno partecipato!

Articolo_h.indd 3

19/10/12 14:45


approfondimenti

LA RETE FA LA FORZA: L’IMPATTO POSITIVO DELL’AGGREGAZIONE DIGITALE SULLE PICCOLE MEDIE IMPRESE ITALIANE “Emergere, farsi trovare, unirsi per competere e non solo per resistere. Dalla condivisione all’operatività. Quando fare rete va oltre l’essere in rete”

DI MONICA FRANCO

“Nulla è più come prima”. Questa frase ci accompagna da alcuni anni, sempre più diffusa, scritta e pronunciata. Quasi un mantra planetario che accompagna lo scandire di queste ore, giorni, mesi e anni di turbolenza e cambiamento inarrestabile in ogni parallelo e meridiano del pianeta. Eppure a volte si ha l’impressione che proprio qui, in questa nostra splendida penisola così ben bagnata dai mari e ben protetta dai monti, si faccia fatica a passare dalla fase passiva di ascolto a quella di azione e reazione. È come se si stesse aspettando che qualcosa si muova, che gli eventi facciano il loro corso e che la ruota prima o poi ricominci a girare in senso inverso, dalla nostra parte. Ma il mondo, lo vediamo, si muove, eccome! I paesi “emergenti”, emergono davvero e diventano sempre più competitivi e agguerriti, ci spiazzano in molti campi, anche nell’uso delle tecnologie. È proprio quest’agire che annulla e banalizza qualunque tentativo di rendere credibile una strategia teorica basata sull’illusione o speranza che tutto possa tornare come prima. Ci sono numeri che parlano da soli: in Italia nei primi 6 mesi del 2012 hanno chiuso i battenti quasi 35 imprese ogni giorno, oltre 1000 al mese, per un totale di 6.321 fallimenti. La regione più colpita? la Lombardia (Fonte: Cribis D&B).

Che fare? Certo è che in un mercato interno sempre più contratto anche a livello europeo, la necessità di innovazione tecnologica, organizzativa, di processo, di prodotto e quella di andare avanti verso processi organizzati di internazionalizzazione in forma aggregata sembra sempre più l’imperativo dominante. A pari passo con quello di saper utilizzare uno dei maggiori strumenti di sviluppo ed emancipazione per ogni economia, in tutte le sue forme: Internet. Internazionalizzazione come leva di sblocco e di rilancio. Internet come chiave di volta per far sapere al mondo della propria esistenza utilizzando uno strumento di sviluppo di portata unica e irripetibile. Senza mai dimenticare anche l’esigenza delle micro-piccole imprese che basano la propria esistenza sulle vendite rivolte al mercato locale. In tutti i casi vien da chiedersi: ma quante sono le PMI in “rete”? Come usano Internet? Quante di loro vendono i propri prodotti e servizi on-line? E se sì, lo fanno da sole o insieme ad altre imprese? Sono domande che bisogna porsi. Che ogni impresa, soprattutto, dovrebbe porsi, riguardo a se stessa, per capire obiettivamente quanto ha fatto, sta facendo o non sta facendo affatto per farsi trovare dai suoi potenziali clienti. Perché “nulla è più come prima”, neanche il mercato.

ASSORETIPMI ASSOCIAZIONE RETI DI IMPRESE PMI è una associazione senza fini di lucro , nata nel web come naturale evoluzione del Gruppo RETI DI IMPRESE PMI - creato a giugno 2011 da Eugenio Ferrari e che oggi conta oltre 5.400 membri - che ha lo scopo di promuovere lo sviluppo imprenditoriale, soprattutto attraverso il perseguimento, la nascita e lo sviluppo delle reti di imprese, fondandone la crescita sui principi della professionalità, dell’etica e della responsabilità sociale di impresa. ASSORETIPMI è organizzata in Delegazioni Territoriali in fase di espansione e copertura nazionale, Comitati e Dipartimenti. Tutte le informazioni sono consultabili sul portale dell’Associazione: www.assoretipmi.it

36 iged.it 03.2012 Approf_FrancoMonica_h.indd 2

19/10/12 10:14


DOCS Suite DOCStation

Stazione dipartimentale integrata per documenti fino ad A4. - autenticazione dell'utente - acquisizione ed elaborazione delle immagini - estrazione dei dati - inoltro a molteplici destinazioni. Non richiede training degli utenti. Plus: segnatura di Protocollo, firma digitale Per : Reparti, uffici, sedi decentrate, etc.

DOCS-mobile

Stazione mobile di acquisizione documentale di facile utilizzo per la dematerializzazione di documenti “on the road� e per l'inoltro immediato alla sede. Per: Tentata vendita, agenti commerciali, trasporti, etc.

DOCS-PC

Applicazione DOCS installabile su PC; gestisce qualsiasi scanner TWAIN (A3-A0, scanner speciali) con interfaccia utente di immediato utilizzo. Per : Disegni tecnici, libri, radiografie, etc.

DOCS-server

Applicazione di gestione centralizzata di una rete DOCS. Permette il monitoring, la configurazione, la manutenzione e l'aggiornamento delle stazioni in rete.

nica@nicait.com

Approf_FrancoMonica_h.indd 3 17-20_h.indd Untitled-3 1 3

www.nica.biz

19/10/12 05/06/12 11:40 01/06/12 15:27 12:47


È finita da molto tempo l’era dell’offerta che impone la soddisfazione della domanda (ed è vitale rendersene conto e accettare questa realtà), a favore di una domanda che oggi cerca e trova - da sola - quell’offerta che sembra proprio corrispondere ai propri criteri di soddisfazione, esigenza, gusto e costo, una domanda che verifica la qualità di quanto offerto, seleziona e compara impietosamente l’offerta via web e fa questo con tutti i mezzi di connessione disponibili, pc, tablet, cellulari e smartphone. Cosa è successo, cosa è cambiato? Nell’arco di pochissimi anni dall’avvento di Internet c’è stato un passaggio epocale: quello dal mercato di massa ad una massa di mercati. Internet ha stimolato la creazione di una domanda di beni, prodotti e servizi a misura di ogni navigatore. Quindi, potenzialmente infinita. È qui che emergono le nicchie, motore portante della nuova economia, a creare una varietà continua di prodotti servizi e soluzioni per ogni esigenza. Ed è così che grazie all’avvento di Internet siamo passati dall’economia della scarsità (lato offerta) all’economia dell’abbondanza (di domanda e di offerta). E di conseguenza alla scoperta della ricchezza di un numero sempre più vasto, ogni giorno di più, di nicchie produttive. D’altronde, se grazie a Internet ( e

all’e-commerce) si abbattono i costi di distribuzione, si abbattono anche i costi di ricerca e reperimento del prodotto o servizio da parte delle persone, utenti privati o imprese. In parole povere, ora le cose si fanno trovare, in modo semplice, attraverso i motori di ricerca. Qualche numero su cosa succede nel web? Praticamente, ogni 60 secondi Google riceve 694.445 richieste di ricerche che diventano più di 1 miliardo ogni 24 ore; vengono scaricate più di 13mila Applicazioni per iPhone (quasi 19 milioni al giorno). Ogni minuto vengono inviate 168 milioni di e-mail quindi 242 miliardi al giorno ( di cui il 90% è SPAM). Skype registra più di 370mila minuti di conversazioni al minuto. Inoltre viaggiano più di 98mila tweet ogni minuto dagli utenti Twitter (dati 2011). In questa gigantesca conversazione, cosa succede, in soldoni? Internet ha modificato i modelli economici e commerciali: non solo meno costi di distribuzione, ma anche quelli legati al Marketing e alla Comunicazione. Oggi, saper posizionare il proprio sito attraverso le tecniche di ottimizzazione dei contenuti testuali (quella che viene definita SEO Search Engine Optimization) e saper inserire le corrette “parole chiave” nei testi delle pa-

Fonte: http://www.go-gulf.com/blog/60-seconds

gine del sito, magari promuovendole con strumenti a basso costo/alta resa attraverso i motori di ricerca(quella che viene definita SEM Search Engine Optimization) permette di farsi trovare da tutte quelle persone che cercano quella tipologia di prodotto/ servizio. La capacità, poi, di usare sapientemente i social network come luogo di discussione (e non di promozione) aiuta la propagazione del messaggio in maniera esponenziale, se ritenuto valido dagli utenti. Quindi, oggi il business dipende in misura sempre maggiore da come riuscirete a farvi trovare su Internet. Un segreto è nel dare il più possibile uno o più elementi di differenziazione e unicità al proprio prodotto o servizio. “Create di tutto, mettetelo in vendita e aiutatemi a trovarlo” scriveva Chris Anderson nel 2004, Direttore di Wired, nel suo saggio “la coda lunga dei mercati”, grande intuitore e osservatore di questa tendenza. L’altro segreto, ancora troppo celato in Italia, è quello di sapersi unire in forma aggregata ad altre imprese, costituendo piattaforme/portali web tematici settoriali o complementari, per aumentare ancora di più la capacità di diffusione e, contemporaneamente, usufruire di quelle economie di scala date dalla condivisione di mercati, mezzi e risorse che generano benefici anche nella gestione off-line ed extra-web. Stiamo parlando delle reti di imprese , su cui torneremo tra poche righe. A fronte di questo scenario, cosa succede in Italia? Riporto da più fonti: Secondo il Rapporto Assinform 2011 le Piccole e Medie Imprese che vendono online sono, in Europa, il 14,4% del totale. In Italia il 3,8%. Che dire? Deduco dal rapporto che il 96,2% dei nostri imprenditori non ha ancora ben chiaro che attraverso un solo canale, il web, si possa arrivare in modo capillare in ogni angolo del pianeta. Un’indagine antecedente condotta dall’Eurisko e pubblicata a fine 2011, rilevava che le aziende attive online avevano aumentato i ricavi dell’1,2

38 iged.it 03.2012 Approf_FrancoMonica_h.indd 4

19/10/12 10:17


% nel 2010 contro il meno 4,5 % registrato da quelle non presenti su Internet. (fonte: L’Espresso, 15.12.2011) Altra constatazione di come le piccole medie imprese italiane che sanno utilizzare Internet sono ancora una minoranza rispetto al resto d’Europa. Secondo Netcomm, in Italia l’ecommerce vale 9,5 miliardi di euro. L’obiettivo, il 33 % delle Pmi attive sulla Rete : l’Agenda Digitale Italiana 2015 punta ad ampliare la fascia degli acquirenti su Internet, innalzando la soglia al 50% della popolazione (la media europea è del 56%) e ad aumentare il commercio elettronico all’estero fino al 20% (fonte: www. repubblica.it, 21 maggio 2012). Infine, un’altra visione carica di aspettative - e qualche monito - ci viene dall’articolo “PMI ed e-commerce, nuovi oneri in arrivo” (sottotitolo Il dilemma delle PMI italiane che puntano al commercio elettronico: i paletti burocratici e normativi che rischiano di far collassare il comparto in Italia e le possibili misure di contrasto) da cui traggo un breve estratto e alcuni punti salienti, pubblicato da PMI.it ... «la PMI italiana non ce la fa a gestire le tante incombenze che stanno dietro a un serio sbarco nelle vendite online. Tanto più se internazionali», dice a PMI.it Roberto Liscia, presidente di Netcomm, consorzio del commercio elettronico italiano. La soluzione? «Non credo che le tante piccole aziende del made in Italy ce la facciano, da sole, a gestire tutte queste incombenze: burocratiche, logistiche», dice Liscia. «Allora ho chiesto al Ministero delle Attività Produttive di favorire nascita di consorzi d’impresa. Distretti digitali, analoghi a quelli industriali. I consorzi possono poi rivolgersi a service di operatori di terzi, in outsourcing, che si occupino di tutte le incombenze accessorie: il rispetto delle norme di privacy, gli accordi con i corrieri, persino le attività di marketing e promozione del sito». “Il vantaggio sarebbe doppio: le aziende eviterebbero oneri che non sono preparati a gestire e potrebbero ridurre alcuni costi (per esempio, i consorzi possono spuntare migliori condizioni dai

corrieri, grazie a una maggiore forza contrattuale). Sono le caratteristiche del nostro mercato a spingere verso questa soluzione: tante piccole aziende, con prodotti probabilmente interessanti per l’export. Hanno bisogno quindi di una mano per vendere a quanti più Paesi possibile. E fa bene Liscia a sperare nell’appoggio del governo. Il momento è propizio: uno degli assi dell’Agenda digitale, a cui lavorano vari ministeri, riguarda l’ecommerce. Da qui viene una speranza, forse l’ultima, di accompagnare questo mercato verso la maturità, incentivare le aziende con tanta buona volontà ma scarsi mezzi, e supportare così l’economia italiana”. (fonte: www.pmi.it 22 maggio 2012) Consorzi, distretti digitali, piattaforme condivise dalle PMI, reti d’impresa? Queste ultime, per chi ancora non le conoscesse, sono un’altra modalità ancora più flessibile rispetto ad altre forme aggregative per poter competere a tutto tondo, nel web e nella gestione di tutte le attività che vedono l’impresa in primo piano sotto ogni aspetto organizzativo e di sviluppo, dalla produzione alla logistica alla gestione amministrativa a quella commerciale, al marketing, alla formazione. Le reti di impresa non solo consentono importanti economie di scala, ma, in particolare, permettono di focalizzarsi su un progetto condiviso tra le imprese aderenti, progetto realizzabile proprio per la compresenza di più attori, ognuno con il suo specifico apporto, attraverso quella che è di fatto un’unione snella e flessibile paragonabile, come spesso avviene, al fidanzamento prima del matrimonio, senza per questo perdere la propria connotazione e la propria identità imprenditoriale. Un rapporto in piena pariteticità, esente da vincoli relazionali stretti come quelli presenti per esempio nei Gruppi societari, dove il piccolo imprenditore in genere ne è socio di minoranza. La rete di impresa si concretizza come strumento innovativo anche perché permette a tutte le micro-piccole imprese di superare il problema dimensionale e potersi dotare di strumenti

di sviluppo che spesso non sono alla portata di micro-piccolo imprenditore. Per rimanere nel quadro del tema qui affrontato, la rete, Internet, basti già pensare alla possibilità di dotarsi di un sito web con funzioni avanzate (interattività, e-commerce, gestione database, CRM) e alla sua ottimizzazione continua, perché l’investimento, per quanto contenuto, non sia spesso sostenibile dal singolo. Viceversa, un progetto condiviso per costi e risorse (non solo tecnologico, quanto produttivo, distributivo, o rivolto al mercato estero per esempio) consente a più micro-imprese in rete di essere in grado di ripartire la spesa e poter approcciare nuovi mercati, o accelerare lo sviluppo o, comunque, di non essere costretti a chiudere i battenti e cessare l’attività, come troppo spesso sta accadendo. Il nostro non è certo un Paese che brilla per rapidità nell’accogliere l’innovazione, eppure alcuni strumenti esistono e, se da noi possono sembrare la novità, altrove sono già best practices consolidate. Stando ai dati riportati, meno di 170.000 usano l’e-commerce come strumento di vendita. In Italia ci sono 4.400.000 PMI, di cui 4.200.000 non hanno più di 10 dipendenti Se parliamo poi di reti di impresa, in 3 anni dall’entrata in vigore della legge che disciplina il “Contratto di rete”, sono circa 400 le reti di imprese costituite, che hanno coinvolto circa 2.000 PMI. In ASSORETIPMI abbiamo già iniziato a lavorare sulle altre 4.398.000.

MONICA FRANCO

Cofondatore e Vicepresidente,

ASSORETIPMI

iged.it 03.2012

Approf_FrancoMonica_h.indd 5

39 19/10/12 10:17


approfondimenti

MAPPE E DATI GEORIFERITI: INFRASTRUTTURE E CREATIVITÀ DI SERGIO FARRUGGIA

l’Informazione Geografica (dati, servizi e tecnologie) non è più soltanto dominio degli addetti ai lavori: esperti GIS, topografi, ecc. I dati geografici digitali, come “materia prima” rilevante per la Società dell’Informazione1, costituiscono un patrimonio essenziale per arricchire, migliorandolo, il nostro modo di interagire con le persone e con ciò che ci circonda. Esse sono infatti la fonte indispensabile per le tecnologie digitali che stanno dando vita a tale cambiamento: Location awareness, Digital interaction, Internet of things e Augmented reality. Hanno quindi un peso rilevante per il progresso dell’economia digitale. Settore pubblico, ricerca, imprese, singoli cittadini e loro associazioni devono essere in grado di poterne fruire. Per rendere tangibile questo risultato occorre in primo luogo che le informazioni geografiche digitali siano accessibili, utilizzabili e condivisibili. L’obiettivo è stato perseguito – prevalentemente dal settore pubblico- nell’ultimo ventennio creando le così dette “Infrastrutture di Dati Territoriali”, IDT 2 . La prima definizione istituzionale di IDT è stata coniata negli Stati Uniti. Si deve infatti alla presidenza Clinton la costituzione, nel 1994, della National Spatial Data Infra-

structure, (NSDI), come atto per promuovere le relazioni intergovernative, coinvolgendo i governi statale e locale nella produzione di dati geospaziali e migliorare le prestazioni del governo federale. Tale Executive Order descrive questa soluzione operativa come “l’insieme di tecnologia, politiche, norme e risorse umane necessarie per acquisire, elaborare, archiviare, distribuire e migliorare l’utilizzo di dati geospaziali”. Le iniziative per creare IDT si sono estese, a macchia d’olio, in tutte le regioni del Globo. Un quadro complessivo sullo svi-

luppo delle IDT a livello mondiale è acquisibile attraverso la consultazione delle iniziative della Global SDI Association (GSDI, http:// www.gsdi.org/). Nel 2002 la Commissione europea ha avviato un’iniziativa, imperniata sulla direttiva denominata INSPIRE3 (maggio 2007), che mira a creare una Spatial Data Infrastructure europea, basata su SDI nazionali e sub-nazionali. Un processo che ha galvanizzato il settore e acquisito apprezzamenti a livello internazionale. INSPIRE stabilisce

Fig. 1 - Schematizzazione della visione INSPIRE

40 iged.it 03.2012 Approf_Faruggia_h.indd 2

19/10/12 10:19


Rimani connesso tutto l’anno, iscriviti alla omat community OMAT360, il portale dedicato ai professionisti dell’information management. OMAT360 nasce con l’obiettivo di diffondere la cultura relativa alla gestione elettronica di documenti, informazioni e processi aziendali. Grazie a un’esperienza ultra ventennale nel settore, una redazione specializzata e contatti con aziende, istituzioni e associazioni, il portale costituisce un punto d’incontro fondamentale tra chi cerca e chi offre soluzioni per gestire al meglio il patrimonio di dati proprio di ogni organizzazione.

www.omat360.it ITER - via Rovetta 18 - 20127 Milano - tel. 02.28.31.16.1 - fax 02.28.31.16.66 - www.iter.it - iter@iter.it Approf_Faruggia_h.indd 3

19/10/12 10:19


l’”Infrastruttura per l’Informazione Territoriale” come insieme di: “metadati, set di dati territoriali e servizi ad essi associati; servizi e tecnologie di rete; accordi in materia di condivisione, accesso e utilizzo dei dati e i meccanismi, i processi e le procedure di coordinamento e di monitoraggio stabilite, attuate o rese disponibili conformemente alla presente direttiva” (art. 3). Questa definizione descrive gli elementi principali di una IDT, mentre quella a suo tempo definita per la NSDI aveva posto l’accento sugli obiettivi. In effetti, il concetto di IDT segue nel tempo l’evolversi delle tecnologie e il mutare delle esigenze: ha quindi assunto un valore più ampio, includendo anche la promozione dell’uso dei dati geospaziali e del loro riutilizzo per molteplici scopi, non solo in ambito pubblico ma anche con crescente attenzione verso il settore privato, stimolata dall’incremento di prodotti e applicazioni indirizzati al mercato consumer. La visione INSPIRE è schematizzata in figura 1. Per l’Italia, risale ormai al 1996 l’Intesa Stato, Regioni ed Enti Locali per la cooperazione e il coordinamento tra le amministrazioni pubbliche, relativa alla realizzazione di sistemi di informazione geografica. Il Codice dell’Amministrazione Digitale (CAD)4 dedica ai dati territoriali digitali uno specifico articolo (n.° 59); lo stesso articolo ha stabilito la costituzione del Comitato per le regole tecniche sui dati territoriali delle pubbliche amministrazioni, le cui attività negli anni successivi hanno favorito una completa collaborazione fra Amministrazioni Centrali, Regioni e Comuni per lo sviluppo armonico e condiviso dei sistemi informativi territoriali. Per quanto riguarda gli impegni connessi al processo di costituzione dell’Infrastruttura per l’Informazione Territoriale Europea, l’Italia ha recepito la Direttiva INSPIRE nel 2010 (D.L. 32/2010). È opportuno sottolineare che la Direttiva ha limitato il proprio campo d’in-

tervento prevalentemente sui temi ambientali, rinviando ad una seconda fase l’estensione del processo ai dati d’interesse per altri campi di applicazione. Tale impostazione è stata assimilata in maniera forse limitante in ambito nazionale. Infatti, l’assetto previsto con il suo recepimento concentra tutte le competenze di livello strategico al Ministero dell’Ambiente e della Tutela del Territorio e del Mare. È stato osservato5 che tale impostazione non corrisponde appieno alle necessità per la gestione delle infrastrutture dedicate all’informazione geografica digitale, sia perché sarebbe ragionevole gestirla non solo in funzione di esigenze di tipo ambientale, sia per quanto essa rappresenta per l’e-government e per l’economia digitale in generale. Le recenti iniziative del Governo per dotare il Paese di un’Agenda Digitale, in accordo con l’Agenda Digitale Europea, non possono trascurare l’Informazione Geografica. In questa fase di studio e pianificazione delle strategie, sono state pro-

poste diverse azioni per valorizzare il ruolo dei dati territoriali. All’interno del processo di creazione dell’IDT nazionale, le Regioni e le Province Autonome hanno realizzato importanti componenti subnazionali, acquisendo una notevole esperienza sia tecnica, sia in termini di governance delle IDT. In questo quadro rientra la proposta, inserita nel documento Agenda digitale: il contributo delle Regioni e Province Autonome 6, riguardante lo sviluppo della cooperazione applicativa per lo scambio dei dati geospaziali. Lo stesso documento propone la costituzione di un catasto delle infrastrutture di rete (sottosuolo e wireless), ritenuto strumento propedeutico per una razionale espansione della banda larga. Le Regioni ne propongono la realizzazione, in un quadro di regole e di standard comuni a livello nazionale, raccogliendo i dati disponibili presso gli Enti Locali e promuovendo la federazione dei sistemi informativi utilizzati per la loro gestione. Tema considerato prioritario a livello mu-

Fig. 2 - Reti tecnologiche Gallarate, VR – Laboratorio Sottosuolo, Regione Lom-

bardia

42 iged.it 03.2012 Approf_Faruggia_h.indd 4

19/10/12 10:19


nicipale: infatti, la proposta ANCI di Decreto Legge Disposizioni di semplificazione e digitalizzazione dei Comuni per l’attuazione dell’Agenda digitale 7, include uno specifico articolo riguardante la realizzazione del catasto delle infrastrutture del sottosuolo da parte dei Comuni, quale azione necessaria nell’ambito della realizzazione delle infrastrutture e reti per lo sviluppo digitale dei Comuni stessi.

che, per loro natura, essi si prestano a essere utilizzati nel contesto del web semantico come connettori d’informazioni di fonti disparate, arricchendole, rendendole interoperabili e più facilmente fruibili, anche in sistemi che prevedono comunicazioni tra macchine.

All’informazione geografica digitale viene dato risalto anche all’interno di documenti su argomenti d’indirizzo tecnico-organizzativo, relativi a temi d’interesse per l’Agenda Digitale: open data, open government, smart city, ecc. Per il tema trattato, è interessante citare le Linee Guida per l’interoperabilità semantica attraverso i Linked Open Data (LOD), pubblicate lo scorso luglio dalla Commissione di coordinamento SPC 9 dell’Agenzia Digitale Italiana (ex DigitPA).

Queste valutazioni sui dati territoriali, all’interno del contesto più ampio della valorizzazione della Public Sector Information (PSI), contribuiranno all’affermarsi di una sempre più diffusa consapevolezza del contributo all’economia digitale di tale patrimonio 10. Una sensibilità estesa dovrebbe poi indurre una maggiore attenzione sulla valutazione degli investimenti nel settore e - contemporaneamente - al monitoraggio dell’impatto socioeconomico che ne deriva 11. Argomenti che non riguardano solo il mondo pubblico, ma interessano anche quello delle imprese e della società civile. A questo riguardo, il predetto documento fornisce un’utile traccia per un primo approfondimento circa l’analisi, la comprensione e il governo dell’impatto sociale ed economico derivante dall’introduzione e dalla diffusione degli Open Data in generale, ovviamente applicabile al contesto dei dati territoriali. L’esposizione è sviluppata facendo ricorso al concetto di “catena del valore”, per identificare gli attori e ruoli dei fruitori degli Open Data e attraverso l’identificazione di uno schema di modelli di business abilitati dagli Open Data stessi.

La lettura di questo documento, oltre a fornire un quadro della normativa europea e nazionale, una panoramica sullo stato dell’arte (standard, tecnologie, strumenti), nonché proporre l’approccio metodologico all’interoperabilità semantica tramite i LOD, consente di apprezzare la posizione assegnata ai dati territoriali pubblici, quale tipologia su cui applicare il paradigma open data e prevederne l’interoperabilità semantica. Un’attribuzione derivante anche dal fatto

Lo studio fornisce alcuni elementi interessanti riferibili anche alle IDT. Ad esempio, si osserva che la catena del valore degli Open Data, dal punto di vista della PA, presenta una circolarità, ossia l’ente pubblico ha la possibilità di avere dati aggiornati da cittadini e imprese e inoltre ha l’opportunità esso stesso di attingere ai nuovi set di dati pubblicati da altri soggetti. Questa considerazione, supporta l’idea che - a regime - il settore pubblico svolga rispetto ai dati minori

Il termine “catasto” può qui essere inteso come sinonimo di IDT tematica. La sua realizzazione coinvolge più livelli della PA, soggetti privati (utilities) e cittadini, con diversi ruoli. Comprende tutti gli elementi indicati dalla definizione data in INSPIRE (metadati, dataset e servizi associati, accordi su governance, standard, ecc.). Se tali istanze saranno accolte nell’Agenda Digitale potranno essere diffuse e valorizzate buone prassi già esistenti, di cui in figura 2 ne viene richiamato un esempio 8.

funzioni di collettore per assumere quelle di gestore della qualità (autenticità, affidabilità, …) delle sorgenti d’informazioni. Rispetto a tale cambiamento, ogni IDT gioca un ruolo fondamentale ed è destinata ulteriormente ad evolvere nelle componenti e negli obiettivi; per questi ultimi si farà maggiore distinzione tra quelli riguardanti i dati (garantire accesso, utilizzo e condivisione dei dati territoriali) e quelli, finora meno considerati, connessi sia alle aspettative dei suoi utilizzatori e agli obiettivi – più ampi- delle loro organizzazioni, sia al contesto sociale entro cui essa è inserita. Un altro aspetto pertinente per le IDT è la dimensione geografica degli open data richiesti. Questo parametro può essere utilizzato - in prima istanza e insieme alle opportunità che le imprese possono cogliere dai dati - per valutare l’interesse del settore privato per uno specifico dataset. Rispetto ai dati territoriali, esso assume particolare rilievo, avendo questi granularità e scale differenti (dal locale, al regionale sino al nazionale e transnazionale), con disponibilità disomogenee tra aree differenti. Quindi, tale tipo d’indagini applicato alle IDT di livello subnazionale può orientare investimenti coordinati, per esempio a livello interregionale e di “smart community network”, finalizzati a rendere omogenea l’offerta di geo-dataset e servizi connessi su tutto il territorio nazionale, dando priorità a quelli con domanda più alta. La pubblica amministrazione sta abbandonando - culturalmente e operativamente - il modello “ufficio cartografico”: alla società non bastano più organismi che si limitino a gestire le informazioni territoriali; urgono soluzioni che assistano la società stessa a gestirsi facendo ampio e consapevole uso di tale patrimonio. Una trasformazione non priva di ostacoli: aumento della complessità, problematiche nuove, resistenze al cambiamento. Il settore privato – insieme agli attori emergenti iged.it 03.2012

Approf_Faruggia_h.indd 5

43 19/10/12 10:20


del web2.0 - sono chiamati a coprogettare la nuova soluzione, la cui caratteristica saliente è proprio quella di ogni infrastruttura: essere in grado di fornire servizi generici per raggiungere un ampio spettro di obiettivi, per varie classi di utilizzatori; gli uni e le altre anche ignoti a priori. NOTE: 1

Oltre l’80% dei dati detenuti dalla Pubblica Amministrazione è giudicato unanimemente di rilevanza geografica 2 Spatial Data Infrastructure (SDI) nel linguaggio utilizzato internazionalmente 3 Directive 2007/2/EC: “Infrastructure for Spatial Information in the European Community” 4 http://www.digitpa.gov.it/amministrazione-digitale/CAD-testo-vigente 5 Ad es., si veda il recente Disegno di Legge presentato al Senato, n. 3216:

Approf_Faruggia_h.indd 6

“Delega al Governo per il riassetto delle strutture competenti in materia di gestione e fruizione dell’informazione geografica digitale, nonché per il più azionale utilizzo della stessa al fine dello sviluppo dei servizi connessi”, www.senato.it/leg/16/BGT/ Schede/Ddliter/38150.htm 6 http://www.regioni.it/home_art. php?id=374 7 http://www.anci.it/index.cfm?layout= dettaglio&IdDett=36862 8 http://www.ors.regione.lombardia.it/ cm/pagina.jhtml?param1_1=N135c8fe 69d8294a9222 9 Il Sistema Pubblico di Connettività, SPC, è un insieme di infrastrutture tecnologiche e di regole tecniche per “federare” le infrastrutture ICT delle pubbliche amministrazioni al fine di realizzare servizi integrati. 10 Il cui valore economico potenziale è stimato essere circa dell’ordine del 50% dell’informazione pubblica complessiva;

per maggiori ragguagli si veda ad esempio lo studio di G.Vickery (capitolo 4), disponibile all’URL della nota successiva 11 Il riuso delle informazioni della PA è una prassi relativamente recente: gli studi riguardanti tali argomenti hanno messo in risalto l’esigenza di approfondimenti in termini metodologici e di monitoraggio costante dell’evoluzione del mercato: http://ec.europa.eu/information_society/policy/psi/facilitating_reuse/economic_analysis/index_en.htm

SERGIO FARRUGGIA

Consulente informazione geografica

23/10/12 17:16


esperienze

ESTRAZIONE INTELLIGENTE DEI DATI IN BASE ALLA SEMANTICA DEL CONTESTO DI MICHELE SLOCOVICH

INTRODUZIONE Il crescente ruolo strategico svolto, nell’era dell’economia della conoscenza e genericamente postindustriale, da processi di generazione acquisizione ed interpretazione dati legati alla proliferazione informazionale che caratterizza i contemporanei media digitali, ha comportato negli ultimi anni una moltiplicazione di studi ed analisi incentrati sulle tematiche della rappresentazione della conoscenza e sul ruolo sempre più rilevante svolto da queste ultime nel campo della cosiddetta knowledgeextraction. L’innesco di queste traiettorie di sviluppo e ricerca si radica evidentemente all’interno degli scenari di business connessi alle più recenti opportunità di mercato promosse dallo sfruttamento dell’informazione come fattore competitivo, ovvero allo sviluppo di tecnologie in grado di 1) processare grandi quantità di dati provenienti da fonti eterogeneee, informazioni nativamente povere di struttura 2) permettere il riconoscimento di pattern e ricorrenze tra dette entità informazionali 3) arricchirne il contenuto con metainformazioni 4) abilitare funzionalità di interrogazione dati e recupero di informazioni che siano sensibili ai contesti di significato in cui tali dati ed informazioni alloggiano. Il riorientamento concettuale subito dal Document Management indotto da questi nuovi scenari commerciali, diviene così evidente quando questo intenda offrire ad una azienda uno strumento informatico capace non solo di ordinare e rendere accessibili le informazioni (evitare ripetizioni, possibili ridondanze, impossibilità di accesso, incoerenza, perdita di dati,

ecc.), quanto piuttosto una suite che supporti 1) l’analisi e la catalogazione di dati eterogenei e dei depositi di conoscenza implicitamente presenti nella massa documentale gravitante attorno ad un’impresa (dai documenti proprietari a documentazione distribuite nell’infosfera), 2) l’acquisizione e la rappresentazione sistematica e formale di questa conoscenza, 3) l’attivazione di processi computazionali efficaci nella sua maintenance e nel suo incremento, e, naturalmente, 4) modalità molteplici di condivisione e trasferimento della stessa. In quest’ottica, ciò che si chiede ad un Document Management System è dunque che sia anche in grado di aggredire il livello propriamente conoscitivo delle informazioni, ovvero che sia capace di riconoscere automaticamente il significato delle informazioni processate/catalogate in funzione degli interessi specifici dell’utente che vi accede. In una parola, un sistema che, sensibile al contesto semantico delle parole, offra servizi di classificazione, analisi ed interrogazioni su corpora informazionali che sono non solo distribuiti ed eterogenei, ma anche fortemente destrutturati (come nel caso dei documenti web). Obiettivo del contributo è precisamente quello di illustrare, attraverso la descrizione di un reale caso aziendale, le linee metodologiche per lo sviluppo di una classe di sistemi di Information Retrieval basati esattamente sul trattamento semantico di informazioni contestuali. A questo scopo in quanto segue viene

presentata l’esperienza condotta da Vega Informatica s.r.l. nel campo della progettazione e sviluppo di un sistema di Context-Based Intelligent Capturing realizzato con tecniche di rappresentazione della conoscenza e applicato al riconoscimento e classificazione automatica di grandi flussi documentali dematerializzati. DATI, CONTESTO E SEMANTICA APPLICATA: IL CASO GRAFEMA In linea generale Grafema nasce come sistema diContext-Based Intelligent Capturing mirante ad escludere - o comunque portare a livelli minimi - l’intervento umano nel processo di riconoscimento/ interpretazione di significati testuali. Nello specifico Grafema è stato sviluppato come applicazione che, collocata a valle di sistemi Optical Character Recognition (OCR), consente di estendere le potenzialità di lettura di questi ultimi arricchendone il processo di interpretazione con moduli Knowledge Based. Portando cioè a convergenza l’approccio basato sulla visione artificiale e quello testuale/semantico, Grafema rappresenta ad oggi una soluzione di Document Management e Knowledge Extraction che, coordinando vari moduli applicativi esterni (ICR, motore inferenziale, Knowledge Base, Document Management System) permette di automatizzare la gestione di flussi documentali e spostare il focus dei tradizionali approcci documentali al riconoscimento ottico di caratteri dalla semplice digitalizzazione dei iged.it 03.2012

Esper_Vega_h.indd 1

45 19/10/12 10:21


flussi documentali in ingresso (fatture passive, cartelle cliniche, email, ecc.), ad un livello più evoluto capace di affrontare il livello semantico dell’informazione disponibile nel testo scritto. L’evoluzione a cui qui si allude si riferisce essenzialmente ai colli di bottiglia di cui i tradizionali sistemi OCR soffrono, i quali, senza scendere in analisi di dettaglio fuori dagli scopi del presente contributo, derivano essenzialmente dalle ambiguità semantiche di cui soffre la lettura OCR. Sul piano strettamente tecnologico dei sistemi OCR il razionale da cui dette ambiguità traggano origine, trova spiegazione in tre distinte considerazioni: Nel fatto che la scelta basata su algoritmi puramente grafici può essere in sé ingannevole; Nel fatto che la filtrazione basata su dizionari non è sufficiente a dirimere casi di ambiguità semantica; Nel fatto che la costruzione manuale di insiemi di regole per la classificazione documentale e la data extraction è particolarmente costosa e onerosa. Sul piano invece delle performance e dunque delle effettive prestazioni offerte in specifici casi applicativi, queste ultime sono strettamente dipendenti dal grado di ‘regolarità’ strutturale posseduto dai documenti dematerializzati. Mentre infatti nei documenti strutturati (ad esempio format o tabelle valorizzate univocamente generate da una singola applicazione, ad esempio un DBMS) la forma del testo offre ai termini e alle asserzioni che in quella struttura sono organizzate un contesto per ridurne le eventuali ambiguità di significato, nei documenti non strutturati (ad esempio testi in campo libero) il significato del testo non può essere supportato da alcun tipo di analisi strutturale mirante all’individuazione dei contesti semantici. Tra queste due opzioni - che di fatto esprimono le aree del Document Object Modelling e quello del Natural Language Processing - trova

spazio il caso ‘ibrido’ di documenti semi-strutturati, ovvero testi in cui la semantica dello scritto può essere solo intuita dalla struttura poiché il significato dei termini che vi occorrono è solo parzialmente inferibile dalla struttura in cui i termini sono organizzati (esempi di questo tipo rappresentati in Tabella 1). Il caso di studio Grafema qui descritto è precisamente riferito al trattamento computazionale di quest’ultima tipologia di documenti. Come estrarre quindi, in modo intelligente, i dati in base al contesto? In linea generale la strategia risolutiva per supportare un processo di interpretazione automatica di testi semi-strutturati consiste di fatto nell’individuazione di euristiche per

minimizzare l’ambiguità del significato, ovvero nel definire delle procedure computazionali in grado di utilizzare il riconoscimento automatico del contesto offerto dalla semi-struttura per arricchire semanticamente i segni linguistici – per l’appunto i grafemi – che vi occorrono. Dalla linea generale al punto applicativo il passo non è banale. L’esperienza quinquennale di ricerca e sviluppo maturata su questo tema attraverso Grafema, ha permesso di impostare una via originale sul piano metodologico ed innovativa sul piano computazionale per la realizzazione del suddetto obiettivo. In breve – ma a fronte di un lavoro estremamente lungo - l’euristica per il trattamento del contesto semantico è stata individuata negli indicatori tipografici e topologici presenti nel testo da

Fig.1 - Rappresentazione del flusso concettuale Grafema-OCR. Due distinte interfacce permettono l’accesso al sistema. L’interfaccia utente consentedi eseguire 1) le funzionalità di analisi ed interpretazione erogate dal Knowledge Based System oltre che 2) i servizi di supervisione dipendenti dalla valutazione dell’utente rispetto agli output del sistema. L’interfaccia di servizio consente invece ai manutentori/tecnici informatici/ingegneri della conoscenza, di configurare e manutenere i moduli del KBS verticalizzando in funzione dei casi d’uso la configurazione del sistema. La componente ‘Machine Learner’ opera invece direttamente sulle regole implementate nei modelli di conoscenza correggendole in senso statistico. Gli archi rappresentano il flusso informativo OCR-Grafema orchestrato dal gestore del Sistema.

46 iged.it 03.2012 Esper_Vega_h.indd 2

19/10/12 10:21


interpretare automaticamente. Detto altrimenti, attraverso una interpretazione posizionale dei tipi e sottotipi grafici (derivata da una teoria sui comportamenti grafici dello scrivente) si è riconosciuto come la disposizione assoluta e relativa dei tipi grafici potesse essere una sentinella utile per il riconoscimento del significato dei grafemi occorrenti in detta disposizione (si pensi al caso - realmente accaduto nel caso della interpretazione di fatture - del riconoscimento automatico di tabelle irriducibili ad una singola struttura e presenti in documenti dalla struttura altrettanto variabile). Il significato di un grafema è stato così rappresentato sulla base di un modello a due facce: per un verso il significato puntuale del termine, per l’altro il contesto tipografico in cui il grafema si presenta. Il trattamento coordinato di queste due sorgenti di informazione (una esplicita legata al singolo termine, l’altra implicita legata alla sua disposizione nello spazio del testo) ha permesso di progettare, sviluppare ed ingegnerizzare un sistema basato sulla conoscenza (KBS) a supporto della interpretazione dei risultati di piattaforme OCR che implementa tre moduli tra loro integrati: Un sistema di rappresentazione dello spazio dei grafemi per il trattamento dei contesti semantici su base topologica e posizionale; Un sistema di rappresentazione del

Tabella 1- Domini Applicativi Grafema

significato lessicale dei termini, ovvero una ontologia e un dizionario controllato; Un sistema di apprendimento meccanico per l’aggiornamento semi-automatico delle basi di conoscenza. Nel complesso l’architettura del sistema appare come da Figura 1. Aspetto rilevante dell’architettura riguarda precisamente l’ibridazione tra un approccio modellistico basato su tecniche simboliche di rappresentazione della conoscenza (ontologie, reasoners, sistemi a regole) ed un approccio sub-simbolico volte a calibrare i modelli di conoscenza attraverso correzioni di tipo statistico. A fronte di un opportuno addestramento del sistema e di specifiche verticalizzazioni del sistema in funzione dei distinti domini applicativi (la componete “KBS” di Figura 1) ed a fronte inoltre dell’implementazione di distinte interfacce per il sistema di supervisione accedute direttamente dall’utente finale del sistema (la componente “Supervisione” in Figura 1) e volte a favorire la manutenzione dei modelli, sono stati raggiunti risultati - sia su casi di studio che su clienti reali - estremamente significativi rispetto a quelli espressi dai sistemi OCR in commercio, arrivando a performance di estrazione di dati significativi non inferiori al 75% su tipologie di documenti che spaziano tra le classi di documenti

segnalati in tabella1. CONCLUSIONI L’esperienza maturata attraverso Grafema come esempio di trattamento semantico dell’informazione applicato a documentazione dematerializzata, costituisce un caso aziendale significativo di profonda sinergia tra l’approntamento e definizione di metodologie di sviluppo Knowledge Based tipiche della ricerca di base e lo sviluppo di applicativi in grado di rispondere alle richieste gestionali indotte dalla proliferazione informazionale che caratterizza larga parte degli attuali scenari di mercato in ambito ICTdocumentale. In questo senso il caso qui descritto intende mostrare l’alleanza Grafema-OCR solo come uno tra i molteplici scenari applicativi del più generale approccio metodologico al trattamento semantico e contestuale di corpi informazionali (information retrieval) di cui Grafema costituisce, per l’appunto, una tra le possibili istanze.

MICHELE SLOCOVICH

Responsabile R&D di Vega Informatica

iged.it 03.2012

Esper_Vega_h.indd 3

47 19/10/12 10:21


esperienze

LA FIRMA GRAFOMETRICA AL SERVIZIO DEL CITTADINO NELLA PROVINCIA AUTONOMA DI TRENTO Un primo bilancio DI MICHELA CAZZANI

Risale ad inizio anno l’avvio del progetto che ha introdotto la Firma Grafometrica applicandola ad alcune istanze presentate dai cittadini alla Pubblica Amministrazione trentina presso uno sportello . Più precisamente, si tratta delle Dichiarazioni sullo stato reddituale per persona fisica (ICEF) e della Domanda Unica per contributo su mense, trasporti, famiglie numerose e assegno regionale al nucleo. È ora possibile effettuare un primo bilancio dell’operazione che coinvolge circa 600 operatori degli 11 Centri di Assistenza Fiscale (CAF), a presidio di circa 250 postazioni di sportello1 . La Provincia autonoma di Trento è fortemente impegnata in questo progetto e lo sta sottoponendo ad un monitoraggio molto stretto e puntuale. A pochi mesi dalla messa in esercizio, la percentuale delle dichiarazioni e domande sottoscritte con Firma Grafometrica risulta pari al 75% del totale, pari a ca. 140.000 documenti. Si è potuto osservare che l’85% delle domande sono concentrate oggi sulla metà delle organizzazioni che operano sul territorio. Un risultato positivo e che stimola peraltro l’Ente che punta a raggiungere e superare la soglia del 90% in tempi stretti, intervenendo sia sotto il profilo organizzativo che procedurale. L’esperienza di progetto è che l’innovazione introdotta dall’uso della firma grafometrica lato utente (front-end) è relativamente contenuta, dal momento che, semplificando al massimo, si traduce nel firmare su una tavoletta anziché su carta, potendo poi consultare on-line tanto le dichiarazioni, quanto le domande firmate.

48 iged.it 03.2012 Esper_Infocert_h.indd 2

19/10/12 10:22


presenta

SICUREZZA TOTALE

GUIDA ALLA PROTEZIONE DEI BENI AZIENDALI DI GIANCARLO BUTTI LA BS 7799, LA ISO IEC 27001, CRISC, ISM.

Security manager ed auditor presso gruppi bancari, consulente in ambito sicurezza e privacy.

Il primo libro sulla sicurezza pensato espressamente per quanti (imprenditori, professionisti…) devono tutelare i beni della propria azienda e per quanti sono demandati ad aiutarli nella scelta e nella implementazione delle misure di sicurezza più idonee. Il libro propone con linguaggio semplice, semplificato, discorsivo e, per quanto possibile, privo di termini tecnici, tutti i principali aspetti relativi alla sicurezza ed alla protezione dei beni materiali ed immateriali che costituiscono il patrimonio aziendale. Un approccio didattico, che può agevolare nel loro lavoro anche i professionisti della sicurezza, che trovano uno strumento che illustra argomenti non sempre facili da spiegare. La modalità di illustrazione delle informazioni è semplice e schematica, una sorta di presentazione, una sequenza di slide e di tabelle che in breve esprimono i concetti più importanti. Viene presentata una panoramica completa su quelli che sono i rischi dei beni materiali ed immateriali delle aziende e le misure di sicurezza più idonee per contrastarli. In particolare, il libro evidenzia tramite casi aziendali, tabelle e norme di comportamento che cosa si può fare utilizzando quanto è già presente in azienda, senza ricorrere a costosi investimenti. Le informazioni fornite aiutano anche a rispettare le prescrizioni di numerose normative, quali il Dlgs 196/03 (normativa privacy).

Esper_Infocert_h.indd 3 53_58_h.indd 1

Per ordinare il volume "SICUREZZA TOTALE", visitare il link:

www.iter.it/libri.htm e compilare la scheda, oppure contattare l'editore ai riferimenti in calce

Un’iniziativa: ITER S.r.l. Via Rovetta, 18 20127 Milano (MI) tel. +39 02 2831161 - fax +39 02 28311666 www.iter.it

19/10/12 19/10/11 10:22 11:32


INFORMATICA TRENTINA, società di sistema della Provincia autonoma di Trento per l’ICT, ha condotto in porto il progetto con successo, potendo contare su un team di collaborazioni fortemente coeso: KLEVER, per il “motore” di firma grafometrica; INFOCERT, per i servizi di firma digitale e conservazione sostitutiva; PAROS, per i servizi operativi di supporto e formazione; CLESIUS, per l’interfacciamento applicativo ICEF.

Il plus di questa innovazione non sta quindi, nella velocizzazione della sottomissione della domanda, ma nell’accessibilità dei dati in formato digitale da parte del cittadino. Più significativo risulta invece l’impatto per l’Ente a livello backend. L’attività di sportello, infatti, non richiede più la stampa del documento per l’apposizione della firma autografa e la consegna della documentazione cartacea da parte del CAF al Dipartimento provinciale competente. Questo, dunque, il

vero punto di forza della firma grafometrica: la razionalizzazione e il cospicuo efficientamento dell’intero processo di gestione documentale e il conseguente risparmio dello spazio fisico per la conservazione della ingente documentazione cartacea. La componente di infrastruttura del progetto di Firma Grafometrica, assieme alla componente di project management, è costata nell’allestimento iniziale circa 6-7 volte rispetto al costo dell’interfacciamento dell’applicativo ICEF; basti pensare

alla blindatura on-line del documento firmato grafometricamente (effettuata con time-stamping e Firma Digitale), all’inoltro dei documenti ad un sistema di conservazione sostitutiva, alla ricerca, verifica di integrità ed esibizione dei documenti conservati. Proprio per questo e per come è stato progettato, la Provincia autonoma di Trento dispone oggi di un servizio di Firma Grafometrica basato su un impianto riusabile; ed è quindi possibile estendere ad altri ambiti il servizio con un’attività minima di progettazione e integrazione con le applicazioni gestionali che necessitano di interventi analoghi. L’architettura sottesa all’impianto sopraccitato ben si presta a qualificare il ruolo di Centro Servizi Territoriale di Informatica Trentina, società di sistema in ambito ICT, di Provincia autonoma di Trento e degli Enti locali, che la società in house trentina sta promuovendo verso il territorio provinciale. In questo senso va letto lo sviluppo di un nuovo progetto per una prima sperimentazione in ambito sanitario in stretta collaborazione con l’Azienda Provinciale per i Servizi Sanitari di Trento. Un caso comune e sensato di “riuso” di know-how progettuale, di una infrastruttura tecnologica collocata in posizione baricentrica e delle relative competenze di supporto. NOTE 1

Vedi articolo iged.it febbraio 2012

MICHELA CAZZANI

Project Manager, Direzione Centro Servizi Territoriali Informatica Trentina

50 iged.it 03.2012 Esper_Infocert_h.indd 4

19/10/12 10:22


Pubblicazioni Professionali ITER

Dal Documento all’Informazione

69_72_NEW.indd benvenuto_omat2.indd Esper_Itagile_h.indd 1 7 59_62_h.indd 1 113 13 PROFILI_009F.indd PROFILI.indd PROFILI_8.indd 7

A cura di Roberto Guarasci

Una disciplina che voglia riflettere sulle ragioni e i modi del suo costituirsi legittimamente in scienza - scriveva Paolo Bisogno - deve ripensare in maniera autonoma i principi ed accogliere risultati ed orientamenti con apertura interdisciplinare. La Documentazione, che in Europa diventata elemento fondante delle scienze dell'informazione e che in Italia fatica ancora ad imporsi come autonomo oggetto di studio, spesso relegata al rango di figlia negletta delle scienze del libro, evidenziava questa sua difficoltà anche attraverso l'indisponibilità di testi per la formazione specialistica. L’insieme dei contributi raccolti segue il filo logico del percorso didattico costruito insieme a studenti, addetti a centri di documentazione, pubblici dipendenti, tutti accomunati dalla necessità sempre più pressante di padroneggiare l’insieme di conoscenze teoriche e abilità tecniche che permettessero loro di rispondere ai bisogni informativi delle organizzazioni di appartenenza utilizzando correttamente la pluralità delle fonti e dei media a loro disposizione.

L’autore

Roberto Guarasci è professore ordinario di Documentazione presso l’Università della Calabria, nonché Responsabile Scientifco dell’Unità di Ricerca “Sistemi di Indicizzazione e Classificazione” del C.N.R.

L’indice

Roberto Guarasci - Che cos’è la documentazione Antonio Romiti - Archivistica e Documentazione tra passato e presente Piero Innocenti - Bibliografia, Biblioteconomia, Documentazione Giuseppe Scandurra - Il Documento Renato Rolli - Il diritto di accesso ai documenti amministrativi Anna Rovella - Produzione ordinamento e gestione dei documenti Eduardo De Francesco - I linguaggi di descrizione documentale Roberto Guarasci - Indicizzazione e classificazione: concetti generali Giovanni Adamo - La terminologia Daniele Gambarara, Alfredo Givigliano - Thesauri, mappe semantiche, ontologie. Problemi semantici e costruzioni concettuali Maurizio Lancia, Andrea Lapiccirella - Data Mining e Text Mining Stefano Pigliapoco - I sistemi informativi

Per ordinare il volume "Dal documento all'informazione", visitare il link:

www.iter.it/libri.htm

e compilare la scheda, oppure contattare l'editore ai riferimenti in calce

Per informazioni: ITER - Via Rovetta 18 20127 Milano Tel. 02 2831 161 - Fax 02 2831 1666 E-mail: iter@iter.it www.iter.it

15-10-2008 3-11-2008 10:46:11 13:11:12 19/10/12 10:23 18/10/11 20:53 04/11/10 12.39 25-03-2009 5-11-2009 11:01:30 11:23:54


esperienze

SENZA FIRMA DIGITALE LA DEMATERIALIZZAZIONE RIMANE... SULLA CARTA DI GIANNI SANDRUCCI

Perché stampiamo un documento? Può essere più facile leggerlo, certo. Ma nella maggior parte dei casi le aziende e gli enti pubblici stampano un documento solo perché il documento deve essere firmato. Il documento nasce in elettronico, viene trasmesso in elettronico con una email, viene archiviato in elettronico. Non ha senso stamparlo solo perché deve essere firmato. Ecco cosa succede oggi: • Preparazione del documento digitale • Stampa • Firma su carta • Scansione • Spedizione per email dell’immagine scansionata • Archiviazione della scansione • Spedizione per posta dell’originale • Conservazione dell’originale Come si può facilmente notare si crea un doppio canale di gestione del documento. Il lavoro ed i costi aumentano, invece di diminuire. Ma ecco cosa può succedere introducendo la firma digitale. • Preparazione del documento digitale • Firma digitale • Spedizione per email • Archiviazione elettronica

Quindi sicuramente non basata su smartcard o altri dispositivi locali di firma. Costosi da distribuire, installare e supportare. Sentite dire da chi ha provato le smartcard per firmare digitalmente: “Abbiamo fatto un progetto di firma digitale, ma poi nessuno l’ha utilizzata” “Con il progetto di firma digitale abbiamo fatto un bagno di sangue e adesso i nostri responsabili non ne vogliono più sentire parlare” “La firma digitale ce l’abbiamo, ma la utilizziamo solo per la conservazione sostitutiva”

USABILITÀ Obiettivo desiderabile dell’usabilità è quello di rendere la tecnologia sottostante il più possibile invisibile, trasparente all’utente, il quale deve potersi concentrare esclusivamente sul compito, anziché sull’interfaccia. Un caso su tutti di usabilità, semplicità e velocità che non sia prigioniero della tecnologia e che abbiamo davanti ai nostri occhi di navigatori della rete tutti i giorni: Google Sia l’interfaccia verso il motore di ricerca (www.google.it) che il browser Google Chrome sono caratterizzati da essenzialità, facilità d’uso e velocità, elementi che hanno reso Google il motore di ricerca e il browser più utilizzati al mondo, confermando

Semplice, molto più veloce e molto più economico. Naturalmente questo è vero se l’utilizzo della firma digitale è, a sua volta, semplice, veloce ed economico.

52 iged.it 03.2012 Esper_Itagile_h.indd 2

19/10/12 10:23


l’applicazione rigorosa da parte della azienda Google Inc. della prima delle sue dieci verità: Attenzione incentrata sull’utente: tutto il resto viene dopo.

Quello che noi non vediamo dietro l’estrema essenzialità e semplicità d’uso “don’t make me think” della tecnologia Google, è l’enorme infrastruttura tecnologica che la rende fruibile a miliardi di utenti tutti i giorni, che per semplicità possiamo rappresentare con il singolo dato dei suoi 35 datacenter sparsi in 4 continenti (Europa, America del Nord, America del Sud, Asia) la cui estensione media supera alcuni campi di calcio messi insieme. Adesso prendiamo le nostre smartcard, mettiamole in una cassaforte ed usiamole in modo sicuro attraverso la rete, ovunque noi siamo, con qualunque applicativo. Bello vero? Ispirandosi allo stesso paradigma della usabilità - “don’t make me think” - è nata la soluzione di firma digitale CoSign. Una soluzione di firma centralizzata, o “remota”, che espone la firma come servizio per tutti i flussi documentali dell’azienda.

CoSign è una soluzione vincente perché rigorosamente mantenuta nello standard della firma digitale (PKI) e all’interno di dispositivi di alta sicurezza (HSM), comprovata da organismi terzi. Ma al tempo stesso creata con il preciso obiettivo di avere uno strumento facile per gli utilizzatori ed un sistema gestibile per i responsabili del servizio. L’architettura di CoSign ha dimostrato di essere all’altezza dei più stringenti requisiti di sicurezza perché genera ed utilizza le chiavi private dell’utente esclusivamente all’interno del dispositivo fisico sicuro e sblocca l’utilizzo della chiave privata, validando il codice di accesso, esclusivamente all’interno del dispositivo fisico sicuro. CoSign è quindi una soluzione di firma elettronica centralizzata o remota che – in poche ore - può essere installata, configurata, integrata nell’ambiente IT del cliente ed immediatamente utilizzata da centinaia di persone.

La disponibilità di API a tutti i livelli consente la facile integrazione del servizio di firma in qualsiasi applicazione e con qualsiasi “sfumatura” di firma. Le “cinquanta sfumature” di firma e il loro valore probatorio • Firma elettronica qualificata = firma digitale = massimo valore probatorio del documento • Firma elettronica avanzata (PKI standard) = valore probatorio medio alto. In tribunale bisogna poter dimostrare che è una firma elettronica avanzata • Firma grafometrica = firma elettronica avanzata non interoperabile = valore probatorio medio • Firma elettronica = valore probatorio basso Ecco le ragioni del successo di una soluzione innovativa di firma, leader in Italia, elemento indispensabile dei processi di dematerializzazione nelle aziende e nella pubblica amministrazione.

La centralizzazione del dispositivo di firma ha permesso, negli anni, l’integrazione con numerosi applicativi e sistemi (Office, Acrobat, SharePoint, SAP, ActiveDirectory, OpenText ecc.).

GIANNI SANDRUCCI

CEO di ITAGILE

iged.it 03.2012

Esper_Itagile_h.indd 3

53 19/10/12 15:19


mercato

CATTURARE DOCUMENTI CARTACEI IN MOBILITÀ DI FRANCESCO PUCINO

Negli ultimi anni abbiamo assistito ad una crescente diffusione di SmartPhone e Tablet accompagnata da una ampia offerta di connettività internet mobile a basso costo. Oggi è diventato scontato, attraverso il proprio telefonino, poter consultare la casella di posta elettronica e poter navigare sui siti internet di proprio interesse. Inoltre le capacità del dispositivo mobile si possono estendere a piacimento grazie alla possibilità di poter scaricare ed installare tutte una serie di applicazioni, dette comunemente “App”, che

consentono di svolgere le attività più disparate e fantasiose. In questo contesto è chiaro che anche alcuni produttori di applicazioni di gestione documentale si sono premurati di rendere disponibili, per le loro piattaforme documentali, add-on più o meno sofisticati per consentire la consultazione dei propri archivi digitali da parte degli utenti anche attraverso l’uso di questi dispositivi mobili. Alcuni sistemi, ad esempio, offrono la possibilità di poter rendere disponibile via internet i documenti archiviati, cosa che automaticamente ne comporta l’ac-

Fig. 1 – Sebbene si definiscano tutti SmartPhone o Tablet, a seconda del produttore, i dispositivi mobili possono avere un sistema operativo differente e/o caratteristiche hardware non omogenee, cosa che rende più complicata la realizzazione di una “App” che si desideri funzioni su più modelli.

cessibilità tramite il browser dello SmartPhone o del Tablet, sebbene non sempre in modo ottimizzato per comprensibili ragioni. Altri, invece, offrono vere e proprie App proprietarie da utilizzare su dispositivi mobili, che fungono così da client di consultazione per la loro piattaforma documentale, ottimizzati proprio per la tipologia di dispositivo per i quali sono disponibili. In quest’ultima circostanza la compatibilità è il “tallone di Achille” in quanto i produttori di hardware usano sistemi operativi differenti che rendono i telefonini intelligenti e le tavolette spesso incompatibili tra loro, richiedendo a chi sviluppa software di realizzare applicazioni diverse, una per ciascuna delle piattaforme da supportare. Comunque sia, molti produttori di sistemi di archiviazione documentale riescono a dare la possibilità di poter utilizzare un Tablet o uno SmartPhone in mobilità per accedere al proprio archivio documentale, per poter fare ricerche più o meno complesse e per poter visualizzare le immagini dei documenti selezionati: tutto anche quando si è lontani dal proprio ufficio e si dispone solo del proprio inseparabile cellulare. Ma cosa succede se si ha anche la necessità di dover digitalizzare dei documenti cartacei in mobilità ? Per raggiungere lo scopo sicuramente ci sono degli scanner documentali portatili molto compatti che possono svolgere egregiamente tale compito: alcuni, di tipo “classico”,

54 iged.it 03.2012 Esper_Pucino_h.indd 2

19/10/12 10:26


Keywords

Tech contact

Live

Duration

Reporting

Browser

Website

ISP Admin contact

URL

Referral Sources

Country

Address

Geographic view

Visits

Phone

Company

City

QUALI AZIENDE VISITANO IL TUO SITO WEB? Scoprilo con IPgenius! Grazie a un sistema completamente web-based, IPgenius è in grado di riconoscere gli indirizzi IP statici dei visitatori del tuo sito e indicarti a quali aziende corrispondono, fornendo importanti indicazioni per elaborare strategie di marketing efficaci. IPgenius non è uno strumento di analytics: è uno strumento di lead generation. Nessun prodotto di analytics è in grado di fornire le informazioni che IPgenius ogni giorno consegna nella tua casella di posta elettronica: dati aggregati e puliti, anagrafiche complete, dettagli delle pagine viste e molto altro ancora. Scarica la brochure all’indirizzo www.iter.it/pdf/IPgenius.pdf e contattaci ai riferimenti che trovi a lato per iniziare subito a provare IPgenius!

Esper_Pucino_h.indd 3 49-57_h.indd 9 01_05_f.indd 3

ITER Via Rovetta 18 - 20127 Milano (MI) tel. 02.28.31.16.1 - fax 02.28.31.16.66 www.iter.it - iter@iter.it

19/10/12 11/03/11 17.17 13/01/11 10:26 13.16


Fig. 2 – Uno scanner portatile che consente di acquisire documenti cartacei in mobilità senza l’uso del pc. Sicuramente una buona soluzione se dimensioni e peso, purtroppo superiori a quelli dello SmartPhone e del Tablet, non rappresentano un problema.

vanno necessariamente collegati ad un computer; altri funzionano in modo indipendente memorizzando le immagini su una scheda di memoria che può poi essere scaricata sul pc; altri ancora, vere e proprie unità specializzate, integrano al loro interno un piccolo computer dotato di display touch, sistema di connettività e software specializzato. Tralasciando i pro ed i contro di ciascuna soluzione sembrerebbe comunque che ci si debba rassegnare e

rinunciare ad acquisire documenti in mobilità se l’esigenza è sporadica o se non ci si può o vuole portare dietro ulteriore hardware, vuoi per motivi logistici che economici. Invece non è così! La maggior parte dei dispositivi mobili integra infatti la funzionalità di macchina fotografica, ossia una piccola fotocamera che consente di acquisire immagini: perché dunque non sfruttarla? In effetti se si provasse ad utilizzare il proprio SmartPhone per fare qualche

foto di documenti cartacei i risultati non sarebbero proprio esaltanti: immagini deformate a causa della distorsione prospettica, immagini contenenti elementi esterni e non solo i fogli, immagini prive di illuminazione uniforme a causa di ombre e luci ambientali, immagini sfocate o mosse a causa della precarietà dell’operazione. Infine ci sarebbe anche il problema della macchinosità e scarsa automazione per spostare tali immagini nel sistema documentale remoto. Per ovviare a questi inconvenienti abbiamo pensato di realizzare ciò che è stato battezzato Recogniform Mobile Capture System. Si tratta di un sistema di acquisizione documenti, integrabile con qualsiasi piattaforma di gestione documentale, composto da una componente client che gira su qualsiasi dispositivo mobile dotato di sistema operativo iOS, Android, Blackberry, Windows Phone e Symbian, e da una componente server che gira su piattaforma Windows.

Fig. 3 – Una tipica unità mobile completa per la digitalizzazione documenti: una ottima soluzione quando l’attività di acquisizione documenti avviene in modo sistematico e quando il budget ne permette l’uso.

La parte client è sostanzialmente una App specializzata che consente di fotografare i documenti utilizzando la camera dello SmartPhone o del Tablet e di inviare le immagini al server via internet, corredate eventualmente da alcuni metadati personalizzabili che potranno essere utili al sistema di gestione documentale su cui finiranno le immagini. La parte server è invece un sofisticato

56 iged.it 03.2012 Esper_Pucino_h.indd 4

19/10/12 10:26


Fig. 4 – L’ immagine “nuda e cruda” di un documento cartaceo acquisita con la fotocamera di uno SmartPhone: la qualità non è ovviamente la stessa cui siamo abituati utilizzando classici scanner documentali.

Fig. 5 – L’ immagine di un documento cartaceo acquisita con la fotocamera di uno SmartPhone, dopo il processo di elaborazione automatica di Recogniform Mobile Capture System: il risultato è praticamente indistinguibile da una classica scansione.

sistema di image-processing che riesce a ritagliare, automaticamente, la parte che contiene il foglio di carta dall’intera immagine, ad identificare il corretto orientamento, a correggerne la distorsione prospettica, a bilanciare contrasto e luminosità, ad effettuare l’eventuale conversione in monocromatico con soglia dinamica ed a rendere disponibile finalmente il documento, in formato TIF/PDF, insieme agli eventuali metadati, al sistema documentale. Un connettore personalizzabile può infatti fare in modo che i documenti ricevuti e

processati dal server finiscano direttamente sulla piattaforma documentale, senza alcun intervento manuale. Utilizzando tutta l’esperienza maturata nell’elaborazione digitale delle immagini Recogniform Technologies è quindi riuscita a sfruttare la sezione fotografica di SmartPhone e Tablet in guisa di scanner documentale, aprendo la possibilità all’acquisizione dei documenti cartacei in mobilità anche quando si è lontani dal proprio ufficio e non si dispone di hardware apposito.

FRANCESCO PUCINO

CEO di Recogniform Technologies, membro IEEE ed AIIM, svolge attività di ricerca nel settore imaging dal 1990

iged.it 03.2012

Esper_Pucino_h.indd 5

57 19/10/12 15:20


www.iter.it/seminari

DIGITALIA le nuove regole dell’amministrazione digitale Roma, 13 novembre 2012

Lo scenario: Il recente Decreto Digitalia recentemente varato dal Governo per dettare le regole necessarie all’attuazione dell’Agenda digitale italiana ha introdotto alcune significative novità nel quadro normativo dell’amministrazione digitale. Tra le più significative: le regole relative all’identità digitale di tutti i cittadini e al domicilio informatico di cittadini, professionisti ed imprese, il rinnovato “investimento” nella posta elettronica certificata quale strumento di comunicazione privilegiato tra pa, cittadini, e imprese ed un importante sferzata alla digitalizzazione delle comunicazioni nell’ambito del processo civile. La piccola - ma importante - rivoluzione digitale lanciata con il Decreto passa, inoltre, per il ruolo della neonata Agenzia per l’Italia digitale, per un’ampliamento delle funzioni della Consip e, infine, per alcune importanti misure relative alle Startup innovative. Una serie di misure che offrono agli addetti ai lavori nuove opportunità di business.

Esper_Pucino_h.indd 6

Il docente: Guido Scorza Avvocato, Dottore di ricerca in informatica giuridica e diritto delle nuove tecnologie, è docente presso il Master di diritto delle nuove tecnologie della facoltà di Giurisprudenza dell’Università di Bologna, presso il Master in Sicurezza dei sistemi e delle reti informatiche dell’Università La Sapienza di Roma, presso la Scuola Ufficiali dell’Arma dei Carabinieri, presso il Corso di Laurea in tecnologie informatiche dell’Università La Sapienza nonché presso la European School of Economics. è membro del Consiglio scientifico e del Consiglio dei docenti del Master di diritto delle nuove tecnologie dell’Università degli Studi di Bologna. Organizziazione: ITER via Rovetta 18, 20127 Milano tel 02.28.31.16.1 - fax 02.28.31.16.66 Il programma del seminario e il modulo di adesione sono disponibili all’indirizzo www.iter.it/seminari

19/10/12 10:27


eventi CON OMAT, LA RIVOLUZIONE DIGITALE RIPARTE DA ROMA La mostra convegno dedicata alla gestione dei contenuti digitali e dei processi aziendali si terrà il 14 e 15 novembre. Tutte le news su www.omat360.it/rm12 DI STEFANO FORESTI

La prossima edizione di OMAT si preannuncia particolare come poche altre. Particolare per il momento che il mercato sta attraversando, certo, o per le molte novità in programma. Ma soprattutto, particolare perché è la prima senza il nostro amico e maestro Vincenzo Gambetta, che negli anni ha rappresentato l’anima e la mente della manifestazione, la sua guida scientifica e culturale. E molto di più. Vincenzo non è più fisicamente tra noi, ma i suoi insegnamenti saranno per sempre nella memoria e nel cuore di chi insieme a lui ha vissuto tante e tante edizioni di OMAT. Per questo, faremo il massimo per

onorare il suo ricordo e la sua passione. Senza nostalgia, ma con la voglia di rendere omaggio a una persona che ha vissuto di innovazione, veniamo alle novità e vediamo perché OMAT Roma 2012 è particolare come dicevamo.

NUOVI TEMI L’evoluzione tecnologica degli ultimi anni ha apportato una vera e propria rivoluzione nel campo della gestione delle informazioni digitali. Non a caso la linea grafica di OMAT 2012 recita “La rivoluzione digitale prende forma”. Il fenomeno (ormai consolidato) del cloud e

la diffusione sempre più capillare di dispositivi mobili evoluti come tablet e smartphone stanno apportando cambiamenti strutturali che richiedono un rinnovamento delle logiche alla base della gestione delle informazioni. I confini dell’ufficio sono stati abbattuti, l’operatività è totale, e la sfida tra i maggiori player del settore è più accesa che mai. Parallelamente, l’iter normativo prosegue il proprio corso nel tentativo di fornire strumenti efficienti e applicabili per utenti e fornitori. La figura sottostante è una rappresentazione grafica dei principali temi attorno ai quali si svilupperà OMAT Roma 2012.

iged.it 03.2012

Eventi_Omat_h.indd 1

59 19/10/12 15:22


È prevista la partecipazione del Ministro per la pubblica amministrazione e la semplificazione, Filippo Patroni Griffi, nel corso della sessione plenaria di apertura.

NUOVO COMITATO Per essere sempre più up-to-date e vicini alle esigenze del pubblico è fondamentale poter contare sull’apporto di esperti che vivono il digitale a 360 gradi e, spesso, guidano la rivoluzione di cui dicevamo poco fa. Per questo, si è recentemente costituito il Comitato per l’Innovazione di OMAT360: una preziosa fonte di idee, spunti e suggerimenti utili a tutta la OMAT Community. Il comitato è coordinato da Flavia Marzano e, ad oggi, annovera i seguenti membri: Leandro Agrò, Global Director UX Publicis Healthware International Claudio Cipollini, ReteCamere.it Paola Conti, Comune di Roma Sergio Farruggia, Geographic Information Consultant

Roberto Guarasci, Università della Calabria Nello Iacono, Stati Generali Innovazione Caterina Lupo, Libera Professionista Alessio Pennasilico, Security Evangelist Stefano Pigliapoco, Università di Macerata Antonella Giulia Pizzaleo, Istituto di Informatica e Telematica del CNR Stefano Quintarelli, Imprenditore Morena Ragone, Giurista, studiosa di diritto della rete e di Open Government Pierluigi Ridolfi, Università di Bologna Franco Ruggieri, UNINFO presso ETSI – ESI (Electronic Signatures & Infrastructures) Benedetto Santacroce, Studio Legale Tributario Santacroce - Procida - Fruscione Teresa Sibilio, Responsabile Acquisti

Beni e Servizi IT di Consip Michele Vianello, Parco Tecnologico VEGA NUOVA SEDE Dopo alcuni anni trascorsi al Crowne Plaza St. Peter’s, quest’anno OMAT approda nella nuova sede dell’Ergife Palace hotel. Una location moderna e modulare, che ben si adatta alle esigenze degli espositori e di un pubblico sempre più evoluto. L’hotel si trova in via Aurelia 619 ed è comodamente raggiungibile con i mezzi pubblici. NUOVA MODALITÀ DI ISCRIZIONE Nell’ottica di una sempre maggiore profilazione dei partecipanti, quest’anno OMAT ha adottato una duplice procedura di iscrizione: gratuita per gli utenti finali e pagamento di una (piccola) quota per gli operatori del settore ICT. Inoltre, è previsto un sistema di codici - invito per gestire eventuali ospiti di espositori e sponsor. LE PRIME ADESIONI Al momento della chiusura di questo articolo (il 10 ottobre) è già stata confermata la partecipazione in qualità di espositore o sponsor di Arx, BancTec, Canon, CGK Solutions, CoSign, Cosmic Blue Team, Epson, Gruppo Tognetto, InfoKnowledge, InoTec, Itagile, Kodak, Land, Nica, Olivetti e Recogniform Technologies. Altre aziende stanno aderendo: per tutti gli aggiornamenti, per consultare il programma definitivo della conferenza e per iscriversi a OMAT, si rimanda al sito internet www. omat360.it.

60 iged.it 03.2012 Eventi_Omat_h.indd 2

19/10/12 15:23


NOTIZIE IN ANTEPRIMA:

CBT CBT, Cosmic Blue Team S.p.A., società attiva da oltre 30 anni sul mercato dell’Information & Communication Technology, con 7 sedi sul territorio nazionale, presenta a OMAT Roma le proprie soluzioni innovative nell’ambito della gestione documentale e del workflow management. WebRainbow®, la proposta in ambito ECM, è progettata in architettura SOA – J2EE, è indipendente dall’hardware e software già installato in azienda e permette un’immediata integrazione con i diversi sistemi informativi. WebRainbow, ora disponibile sia come piattaforma sia come soluzione nei seguenti ambiti: ufficio tecnico,

ufficio del personale, commerciale, marketing, legale e qualità. Ha moduli verticali come Pec, Protocollo Informatico, Rassegna Stampa, Fatturazione Elettronica e Conservazione sostitutiva. WebRainbow vanta più di 200 installazioni e moduli verticali per settori di mercato: banche, assicurazioni e pubblica amministrazione.

CANON In occasione della prossima edizione di OMAT, Canon presenterà la propria offerta di scanner professionali, tra cui il modello P-215. Canon, leader mondiale nella tecnologia di digital imaging, annuncia il lancio di imageFORMULA P-215, lo scanner portatile, alimentato tramite porta USB, ideale per piccoli

uffici, ambienti SoHo, ma anche per i professionisti in continuo movimento. Il nuovo scanner ultra compatto è compatibile con ambiente MAC e PC e supporta funzioni mobile che permettono di effettuare scansioni direttamente da applicazioni cloudhosted come GoogleDocs™, Evernote e SharePoint. Alimentato da un cavo USB, imageFORMULA P-215 esegue scansioni di entrambi i lati del documento con un solo passaggio, acquisendo fino a 15 pagine al minuto. Lo scanner incorpora un alimentatore automatico di documenti che è in grado di contenere fino a 20 fogli, facendo in modo di risparmiare tempo prezioso nella scansione di documenti composti da più pagine. P-215 incorpora inoltre uno speciale slot per la scansione di documenti su tessera plastificata come la carta d’identità, la patente o magari anche carte di debito/credito.

iged.it 03.2012

Eventi_Omat_h.indd 3

61 18/10/12 16:42


CGK SOLUTIONS CGK Solutions partecipa OMAT Roma 2012 presentando dal vivo una tecnologia modulare molto interessante e innovativa, lo scanner massivo prodotto da Banc Tec, l’IntelliScan XDS Hight Speed da 550 pagine al minuto. L’idea di CGK e BancTec è quella di proporre a tutti gli operatori del settore, mettendoli in condizione di testarne le caratteristiche, una tecnologia che possa rappresentare l’investimento in innovazione ideale per affrontare le sfide del prossimo futuro. L’IntelliScan XDS è uno Scanner massivo all’avanguardia che ridefinisce, rivedendoli in chiave innovativa, i concetti cardine della gestione documentale quali: velocità

di scansione, produzione ed elaborazione immagini ad alta risoluzione, offrendo una vasta gamma di soluzioni tecniche utili a soddisfare le esigenze dei Clienti, gestendo, ordinando ed elaborando diverse varietà di documenti e di formati. Riesce, con facilità, a scansionare documenti eterogenei sia nella grammatura che nel formato, lavorando con efficacia ed efficienza produttiva documenti dal formato A7 fino al formato A3, gestendo il tutto con estrema funzionalità grammature che possono variare da 45 ai 200 g/mq. Tutto il flusso del lavoro è gestito al meglio grazie al software di gestione Scanner UCS – Universal Scanner Control -, con know how ad altissimo valore aggiunto, frutto di tanti anni di esperienza nella lettura ottica e del document management per servizi bancari. L´utilizzo dell`IntelliScan, grazie anche all`innovativo “Multi-Pocket Stacker”, è in grado in pochissimo

spazio, di incasellare documenti in 5 caselle di uscita con il formato A3. Vi invitiamo a venirci a trovare al Nostro Stand 15 e 17. Poter apprezzare l`IntelliScan XDS all’opera presso lo stand CGS Solutions sarà per tutti uno spettacolo tecnologico di sicuro interesse!

Gruppo Tognetto, in collaborazione con Canon Italia, installa nei primi anni ’90 il primo sistema di archiviazione digitale. Con oltre venti anni di esperienza acquisita nel settore è stato realizzato Docfinder, la piattaforma documentale semplice nell’utilizzo che propone una profilazione degli utenti capillare e garantisce una sicurezza dei dati senza pari. L’applicazione immagazzina dati e immagini all’interno di librerie che possono definirsi il cuore del siste-

62 iged.it 03.2012 Eventi_Omat_h.indd 4

19/10/12 15:23


ma. L’utente può creare e modificare autonomamente infinite librerie rendendo il sistema plasmabile in base alle proprie esigenze. Docfinder prevede più moduli tra cui il client, che consente la gestione delle librerie, degli utenti e della scansione; il web che è la versione semplificata ed il modulo mfp che è il plug-in sviluppato nativamente all’interno delle multifunzione per inviare immagini direttamente in docfinder. Per ulteriori informazioni ed approfondimenti è possibile visitare il sito www.docfinder.it, dove sarà possibile accedere alla piattaforma web per una demo online.

ITAGILE Senza firma elettronica la dematerializzazione rimane... sulla carta. La normativa oggi consente di superare finalmente l’impasse della smartcard usando gli HSM per tutte le esigenze di firma centralizzata, “server side” e remota, di usare forme meno onerose di firma elettronica avanzata (ma standard e sicura) e di usare, dove necessario, la firma grafometrica integrata con la firma “server side”. Oggi possiamo prendere le nostre smartcard, metterle in una cassaforte e usarle in modo sicuro attraverso la rete, ovunque noi siamo, facilmente e con qualunque applicativo; tutto questo è diventato possibile grazie a CoSign, soluzione vincente per tutti i tipi di firma. Un sistema server di firma tamper proof e tamper evident, dove tutte le chiavi private degli utenti sono conservate esclusivamente all’interno di un perimetro di sicurezza certificato, con autenticazione all’interno di questo perimetro, al pari e meglio di una smartcard. CoSign è l’unico HSM legale in Italia dal 1° novembre 2011 ed è l’unico HSM realmente usabile per la “remote user signature”. CoSign è stato pensato, progettato e realizzato per far firmare gli esseri umani, non solo le procedure automatiche. Farli firmare con facilità,

usando sia gli applicativi Desktop, sia gli applicativi enterprise, ma anche i tablet e gli smartphone. CoSign non è un riadattamento di prodotti nati per fare altro, è il prodotto core business di Arx ed Itagile.

Kodak, oltre a 210 modelli di scanner concorrenti. Il prodotto è in grado d’importare, per processare, anche immagini provenienti da multifunzioni. Il prodotto esiste anche nella versione Network Edition.

Con il prodotto CoSign ARX ed Itagile hanno collaborato con DigitPA ed OCSI e le altre istituzioni per l’evoluzione delle norme e delle procedure di accertamento della sicurezza, ponendo, come già accaduto in passato, l’Italia al centro dell’attenzione europea per la capacità di innovare ed attivare processi normativi finalizzati a regolamentare le nuove tecnologie.

Inoltre le soluzioni software Kodak offrono anche una vasta gamma in ambiente SharePoint, partendo da semplici plug-in per la scansione, visualizzazione, ricerca e modifica dei documenti direttamente dal sito stesso, fino ad arrivare a soluzioni che consentono il miglioramento dei flussi documentali all’interno della piattaforma di SharePoint.

KODAK Presso lo stand Kodak sarà possibile visionare le soluzioni della divisione Document Imaging. I prodotti esposti comprenderanno gli scanner per i gruppi di lavoro con il nuovo scanner Portatile ScanMate i940, la Serie i2000 (A4, da 30 a 70 ppm) fino ad arrivare ai dispositivi di produzione di tipologia A3 (Serie i4000) che garantiscono una produttività fino a 50.000 pagine al giorno. Da sottolineare la presenza di un prodotto unico sul mercato, la Camera Scanner SceyeX, portatile, particolarmente indicata per trattare documenti rilegati e per scansionare qualsiasi tipo di oggetto che rientri nelle dimensioni di un foglio A4. Gli scanner Kodak, dotati della propria tecnologia di scansione ad altissima qualità, sono corredati da molte funzionalità che consentono di ridurre al minimo l’intervento manuale grazie alla ormai famosa tecnologia di scansione e miglioramento dell’immagine Perfect Page. Gli scanner sopra elencati saranno mostrati con il Kodak Capture Pro Software, potente applicativo di scansione batch con possibilità di indicizzazione tramite OCR, Barcode, collegamento a database esterni e inserimento manuale. Tale software pilota l’intera gamma degli scanner

LAND LAND si presenta a OMAT Roma con una serie di importanti novità. Il nuovo WRCS. LAND introduce sul mercato un nuovo Codice grafico ad alta densità destinato a diventare il nuovo benchmark di riferimento nel particolare mercato dei codici a barre bidimensionali. Il nuovo Codice Grafico ad altissima densità, denominato WR Code System, riesce a codificare un contenuto binario puro pari a 5.000 byte per pollice quadro (con densità di stampa a 300 DPI e acquisizione, tramite un normalissimo scanner, a 600 DPI). SecurePaper™ in Remote Service Il nuovo accordo di Partnership con Ancitel per la diffusione del Timbro Digitale nei Comuni Italiani sarà l’inizio di un vero e proprio percorso di dematerializzazione con il fine di aumentare il servizio al cittadino diminuendo i costi di gestione. Infatti, Ancitel offre ai Comuni italiani il nuovo servizio per l’emissione del Timbro Digitale tramite Tecnologia SecurePaper™ con una nuova e rivoluzionaria piattaforma remotizzata (sia per la firma digitale che per l’apposizione del Timbro Digitale) che non prevede nessuna installazione software locale. SPRS e SAV Il nuovo accordo di Partnership iged.it 03.2012

Eventi_Omat_h.indd 5

63 18/10/12 16:42


con ServiziaValore, autrice della soluzione di posta ibrida OnDemand Clicca&Posta permette l’invio di qualsiasi documentazione in uscita da Aziende ed Enti in PIC (Posta Ibrida Certificata). Un semplice software di gestione (fornito gratuitamente) permette la creazione del documento (Word, Excel o qualsiasi editor di testi), la firma digitale dello stesso, l’apposizione dei Glifi e l’invio in postalizzazione.

NICA A seguito dei cambiamenti strutturali dell’economia negli ultimi due anni, la domanda di archiviazione documentale continua a rivolgersi principalmente verso le applicazioni in grado di offrire, a costi molto contenuti, significativi incrementi di efficienza e notevoli riduzioni dei costi interni dell’azienda. Partendo da questi presupposti, NICA presenta ad OMAT Roma 2012 due novità: - DOCS, la soluzione in grado di realizzare in modo efficace la dematerializzazione dei documenti cartacei delle aziende. Il sistema ha come obiettivo l’eliminazione dei supporti cartacei nel punto in cui emergono in azienda e la loro sostituzione con documenti elettronici. I presupposti della soluzione sono: • D e m a t e r i a l i z z a z i o n e distribuita,operativamente immediata e, senza impatto sulla struttura organizzativa (Front end). Questo risultato è ottenuto tramite “DOCS Suite” l’insieme di stazioni intelligenti di scansione; • Sistema di archiviazione elettronica near.line (back end): Realizza il completamento dei dati di navigazione e la certificazione dei documenti dematerializzati. Garantisce la disponibilità, a tutti gli utenti autorizzati, dei dati e dei documenti elettronici, in tempi predefiniti per ogni tipo di documento (4 ore, 12

ore, 3 giorni, etc). È realizzata tramite OPUS.Easy, la soluzione di archiviazione documentale per i tempi di crisi: funzionalmente completa, facile da installare, di immediato utilizzo e di costo contenuto. - ProFit e ProF24, le nuove soluzioni per la gestione automatica sia del ciclo delle fatture passive sia degli F24 con fatturazione a consuntivo in base ai documenti effettivamente elaborati. Prevede una rete di Centri Servizi che offrano alle aziende Italiane la elaborazione completa delle Fatture ricevute o degli F24. Il servizio prestato al Centro Servizi sarà fatturato in base ai documenti elaborati e quindi con un costo certo e definito in base all’effettivo utilizzo dell’applicazione.

lizzazione di libri: scansione automatica mediante riconoscimento del cambio pagina, ritaglio automatico delle pagine affiancate, correzione della curvatura e molto altro! Recogniform ImageProcessor 7.2, la nuova minor release del potente sistema di elaborazione batch delle immagini con centinaia di funzioni avanzate che consentono di migliorare, convertire e verificare la qualità di documenti digitali. Inoltre, così come ormai tradizione, Recogniform Technologies, regalerà ai visitatori del proprio stand una utilissima pubblicazione di introduzione alla lettura ottica che ne spiega in modo divulgativo tecnologia, utilizzo e segreti.

RECOGNIFORM TECHNOLOGIES Recogniform Technologies SpA presenterà durante l’edizione 2012 di OMAT Roma diverse novità. Recogniform Reader 10.1, la nuova release della piattaforma di lettura ottica utilizzabile per estrarre dati ed informazioni da moduli e documenti cartacei sia strutturati che non strutturati. Nella major release corrente sono state introdotte decine di innovazioni, tra cui ricordiamo il nuovo sistema di estrazione automatica dei dati marcati con evidenziatori colorati e il nuovo motore CHR (Cursive Handwritten Recognition) per la lettura dei testi manoscritti in corsivo. Recogniform Mobile Capture System, la nuovissima soluzione software per utilizzare qualsiasi Tablet e SmartPhone come un vero e proprio scanner portatile da cui inviare documenti al proprio sistema di archiviazione documentale, qualsiasi esso sia. Recogniform Book Scanner, il nuovo ed originale sistema hi-tech, ma low-cost specifico per la demateria-

STEFANO FORESTI

Marketing communication, ITER

64 iged.it 03.2012 Eventi_Omat_h.indd 6

18/10/12 16:42


novità

UNIVERSITA’ DEGLI STUDI DI MACERATA Master di I° livello in “Formazione, gestione e conservazione di archivi digitali in ambito pubblico e privato” L’Università degli Studi di Macerata ha attivato, per l’a.a. 2012/2013, con il patrocinio di ANAI e DigitPA, la VI edizione del Master FGCAD di I° livello in “Formazione, gestione e conservazione di archivi digitali in ambito pubblico e privato” con l’obiettivo di formare figure professionali che sappiano razionalizzare i processi inerenti alla gestione documentale, sfruttando al meglio le potenzialità offerte dalle nuove tecnologie e garantendo la formazione e la conservazione degli archivi digitali unitamente a quelli cartacei. L’attività didattica sarà svolta prevalentemente a distanza, attraverso una piattaforma di e-learning, per agevolare la partecipazione di coloro che non risiedono nella Regione Marche o hanno già un impiego. Inoltre, con l’intento di favorire l’inserimento dei partecipanti nel mondo del lavoro, è stata prevista la presentazione di casi pratici e soluzioni tecnologiche avanzate da parte di aziende operanti nel settore dell’Electronic Document Management e dedicato un intero modulo didattico allo studio dei settori applicativi nei quali si registra oggi la maggiore richiesta delle figure professionali formate dal Master. È ammessa la partecipazione, come uditori, di non laureati ai quali sarà rilasciato un certificato di frequenza. Il bando, la modulistica, il depliant e le informazioni dettagliate sono reperibili sui siti http://www. masterarchividigitali.it e www.unimc.it/af/master/12/formazione-gestione-e-conservazionedi-archivi, oppure possono essere richiesti alla segreteria didattica ed organizzativa del Master (e-mail: segreteria.masterad@unimc.it). Le domande d’iscrizione devono essere presentate entro le ore 13.30 del 23 novembre 2012. Il Direttore del Master

Prof. Stefano Pigliapoco

Dipartimento di Studi Umanistici Centro studi e ricerche CEIDIM per la digitalizzazione, l’innovazione e il management www.unimc.it - www.masterarchividigitali.it

iged.it 03.2012

Novità_Uni_h.indd 1

65 18/10/12 16:36


I T E R S E M I N A R I P RO F E SS I O N A L I

EXECUTIVE ASSISTANT

EMAIL MARKETING

EVENTO 2.0

Il seminario ha lo scopo di aumentare l’efficacia e l’efficienza delle relazioni professionali di a segretarie e assistenti di direzione, la cui funzione comporta degli elementi di relazione, d’iniziativa e di organizzazione.

Un seminario operativo, grazie al quale imparerà come scrivere messaggi efficaci, che non vengano interpretati come spam e nel pieno rispetto delle norme sulla privacy.

Un seminario per imparare ad organizzare un evento con il web. Strumenti, tecniche, economie e molta esercitazione pratica, grazie ad una simulazione di gestione di un evento in ottica 2.0. Dall’importanza strategica dell’evento come strumento di relazione e comunicazione, alle diverse forme di promozione e ai nuovi strumenti a disposizione dell’event manager.

FRONT OFFICE D’ECCELLENZA

SOCIAL MEDIA STRATEGY

Questo seminario è rivolto principalmente alle persone addette al ricevimento e al centralino, il cui lavoro quotidiano comporta responsabilità di relazione, d’iniziativa, di organizzazione e di presa di decisione.

COME REALIZZARE UN PIANO INDUSTRIALE E FINANZIARIO PER L’IMPRESA E LE BANCHE Il seminario illustra come impostare un “Business Plan” da presentare alle Banche per ottenere i crediti necessari, alle migliori condizioni e nel contempo consente all’imprenditore di evidenziare le implicazioni economiche e finanziarie per attuare il proprio programma di sviluppo.

Novità_Uni_h.indd 2 65_h.indd 3 3 33_40_h.indd

Facebook, MySpace, Linkedin e gli altri Social Media hanno cambiato per sempre il nostro modo di comunicare. Le aziende sono oggi di fronte a un bivio: adeguarsi oppure essere scavalcate dal cambiamento, a vantaggio della concorrenza.

TECNICHE DI PROBLEM SOLVING Le tecniche di problem-solving possono essere applicate quotidianamente per tutti i problemi correnti e creano sistemi e metodi di lavoro che risolvono i problemi già apparsi e riducono l’insorgere di nuovi problemi: questo seminario spiega come fare.

WEBMARKETING Dal SEO/SEM ai web analytics e alle strategie di promozione in rete. Un seminario indispensabile per tutti coloro che vogliono sfruttare al massimo il canale online per studiare il mercato e sviluppare nuovi rapporti commerciali (promozione/pubblicità, distribuzione, vendita, assistenza alla clientela, etc.) tramite il Web.

GESTIONE DEI CONTRASTI E DEI CONFLITTI L’obiettivo del seminario è portare i partecipanti a distinguere tra contrasti e conflitti e aiutarli affinché riescano nei momenti di disaccordo a muoversi alla ricerca della migliore soluzione e non dell’affermazione a priori del proprio punto di vista.

18/10/12 18/10/11 20:54 01/02/11 16:36 16.33


NovitĂ _Uni_h.indd 3

18/10/12 16:36


NovitĂ _Uni_h.indd 4 10_14_h.indd 3

18/10/1212:38:30 16:37 15-06-2009


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.