www.technopolismagazine.it
NUMERO 49 | OTTOBRE 2021
STORIE DI ECCELLENZA E INNOVAZIONE
IL FUTURO DELLE BANCHE È LEGATO AL DIGITALE Dopo l'esperienza dei lockdown, il percorso di trasformazione degli operatori del settore accelera, inseguendo l'omnicanalità e puntando a migliorare il rapporto di fiducia con il cliente.
INFRASTRUTTURE
30
La strategia per realizzare il ”cloud nazionale” per la Pubblica Amministrazione è tracciata. Standardizzazione e sicurezza le principali sfide.
CYBERSICUREZZA
36
Dagli attacchi ransomware alle manomissioni dei sistemi ”cyber-fisici”, sulle smart city pendono numerosi rischi. Come limitarli?
EXECUTIVE ANALYSIS Data center più moderni, uso del cloud e digitalizzazione: così le aziende cercano di ridurre il proprio impatto ambientale.
The Innovation Group Innovating business and organizations through ICT
Events & Webinar Market Research Consulting & Advisory Digital Marketing Go to market services Content creation Storytelling ICT Magazines
www.theinnovationgroup.it segreteria.generale@theinnovationgroup.it 0287285500
SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE
N° 49 - OTTOBRE 2021 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012 Direttore responsabile: Emilio Mango Coordinamento: Valentina Bernocco Hanno collaborato: Michele Bertola, Roberto Bonino, Carmen Camarca, Loris Frezzato, Roberto Masiero, Ugo Polli, Andrea Sinopoli, Elena Vaciago, Gianluca Vannuccini, Ezio Viola Foto e illustrazioni: iStockphoto, Adobe Stock Images, Shutterstock, Unsplash, Pixabay
Il “bazooka digitale” per la ripresa L’alternativa del Banking-as-a Service Una “cloudificazione” sostenibile Tecnologia e fiducia, i due pilastri del futuro
10 IN EVIDENZA
Resilienza del digitale: un ossimoro? Notebook e tablet, continua la scalata in Europa Istat rilancia sulla virtualizzazione dei dati Un punto di vista indipendente sulla trasformazione Multicloud, edge, Kubernetes: gli assi del futuro Infrastructure-as-a-code, nuovo passo in avanti I cambiamenti e le sorprese del post pandemia Il welfare aziendale si arricchisce con le polizze biometriche Scaricare a terra la potenza dei dati e valorizzarli I dati rallentano le banche, ma si può accelerare
26 ITALIA DIGITALE
Regioni, gli intermediari della digitalizzazione La PA può rinascere con l’intelligenza artificiale
30 INFRASTRUTTURE Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it Pubblicità: The Innovation Group Srl tel: 02 87285500 Stampa: Ciscra SpA - Arcore (MB) © Copyright 2021 The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.
Missione autonomia per il cloud nazionale Promesse ambiziose nel futuro del settore pubblico
34 SMART MOBILITY
La via italiana alla mobilità connessa
36 CYBERSECURITY
Città digitali, danni materiali La smart city ha bisogno di sicurezza
40 EXECUTIVE ANALYSIS
Il percorso sostenibile dell’innovazione Ambiente e IT, strategie congiunte
46 ECCELLENZE
Ministero del Lavoro - Nutanix Comune di Venezia - Avigilon di Motorola Solutions Iperceramica - Salesforce Raleri - HP
50 APPUNTAMENTI
Photo by Matthew Guay on Unsplash
STORIA DI COPERTINA | Banking
IL “BAZOOKA DIGITALE” PER LA RIPRESA La trasformazione è trainata dall'Open Banking, dall'analisi dei dati e dal modello “ibrido”. Si punta, innanzitutto, a migliorare la relazione con i clienti.
4
| OTTOBRE 2021
S
iamo a un punto di svolta per il settore dell’industria finanziaria italiana, alle prese da anni con un processo di trasformazione. Le banche sono state in grado di gestire le sfide impreviste della crisi pandemica soprattutto grazie a una capacità ormai consolidata di utilizzare le tecnologie digitali, che hanno consentito loro, anche nella fase più critica dell’emergenza, di continuare a fornire i servizi bancari essenziali a cittadini e imprese. La trasformazione digitale è un percorso che la grande ma-
gioranza degli operatori del settore stava percorrendo già prima dell’emergenza sanitaria, ma che con la pandemia ha segnato un’accelerazione in alcuni comparti e attività delle banche. La drammatica esperienza del covid-19 ha avuto un impatto significativo sulle attività operative delle banche, richiedendo in diversi casi il ridisegno sia dei processi interni legati all’utilizzo esteso dello smart working sia delle modalità di interazione e relazione con i clienti. La pandemia ha evidenziato come abbia
Le sfide all’orizzonte
In questo momento storico la tecnologia può davvero agire con la potenza di un bazooka, che porta scompiglio nel settore. La trasformazione digitale è destinata a essere fattore strutturale dell’industry bancaria nel cosiddetto “next normal”, anche per la ripresa economica del nostro Paese. Bisogni e comportamenti dei clienti e del personale addetto sono cambiati, l’organizzazione delle banche e il modo di fare banca ne dovrà tenere conto definitivamente nel ridisegnare processi, relazioni ed esperienze con il digitale. Le banche, inoltre, dovranno essere pronte
Photo by Stephen Dawson on Unsplash
assunto ancora più rilevanza la necessità di integrare maggiormente customer experience e customer service. Gli istituti bancari avevano già iniziato ad approcciare negli anni scorsi la rivisitazione della relazione con il cliente, semplificandola e arricchendola con i canali digitali. Nello scenario pre-pandemia l’attenzione al cliente rappresentava già un aspetto rilevante all’interno di una più ampia strategia da considerare in relazione ai processi di innovazione digitale, ai mutamenti di scenario imposti dalle normative e dall’arrivo di nuovi competitor. La situazione di contingenza generata dalla crisi sanitaria ha però reso quest’aspetto un fattore centrale di successo e di resilienza nelle banche, in un percorso che ha visto nello strumento digitale il suo punto cardine ma che deve bene integrarsi con la possibilità di dialogo con le persone nei vari customer journey. Non si dimentichi, infatti, che nella fase più acuta dell’emergenza (quando l’accesso fisico alle filiali è stato limitato) sono state introdotte diverse misure per consentire la conclusione di contratti bancari e assicurativi a distanza, dimostrando quanto fosse importante promuovere lo sviluppo e rendere disponibili una vasta gamma di servizi in maniera full digital, così come hanno svolto un ruolo fondamentale i contact center.
per affermarsi come protagoniste della ripresa e della crescita del Paese. Esse possono essere un volano di trasformazione e innovazione dei loro clienti, soprattutto le imprese; possono mobilitare le risorse finanziarie e il risparmio verso l’economia reale; e possono essere il canale privilegiato per potenziare gli investimenti privati derivanti da quelli pubblici previsti dal Pnrr, il Piano Nazionale Ripresa e Resilienza. Oggi le banche hanno davanti tre principali sfide: accelerare il processo di cambiamento e di innovazione con l’utilizzo esteso e pervasivo delle tecnologie digitali, per trovare modelli di business che consentano maggiore redditività; aiutare la transizione tecnologica e la crescita sostenibile dei loro clienti; difendersi o meglio riposizionarsi nei confronti della concorrenza che arriva da diversi fronti. Anche l’anno prossimo continuerà, e velocemente, il processo di consolidamento e di razionalizzazione del settore, mentre aumenterà la concorrenza tra le banche tradizionali ma soprattutto crescerà la competizione con nuovi attori bancari, siano essi operatori digitali o banche con modelli di business più specializzati e leggeri. La situazione vissuta nell’ultimo anno ha fornito nuova linfa agli operatori tradizionali, che hanno fronteggiato la migrazione forzata dell’offerta sui canali
digitali mantenendo il giusto equilibrio tra automazione e human touch. In questo contesto emergono una serie di aspetti a cui gli operatori bancari dovranno prestare attenzione. Ne citiamo alcuni: una conoscenza approfondita del consumatore/cliente, per rispondere ai suoi bisogni; la massimizzazione dell’efficienza economica; l’adozione di modalità di lavoro flessibili; un adeguamento alla regolamentazione; la costruzione di ecosistemi integrati con terze parti, sfruttando le potenzialità dell’Open Banking. Tecnologie che migliorano l’esperienza
La customer experience non significa solo un front-end bello e facile da usare, ma dev’essere un processo end-to-end, che accompagni il cliente sin dalle prime fasi di interazione con la banca: per tali ragioni accanto al tema della “esperienza” acquisisce rilevanza anche quello dell’arricchimento del customer journey, che dev’essere costruito in maniera sempre più articolata, facendo leva su dati e analytics nonché sull’utilizzo di tecnologie e processi orientati all’intercettazione dei bisogni del cliente. Il focus delle banche italiane in un contesto economico in miglioramento sarà non solo sull’efficienza, ma sulla ricerca di ulteriori fonti di ricavo attraverso nuovi servizi/prodotti da 5
STORIA DI COPERTINA | Banking
proporre con attività di cross-selling/upselling e sul potenziamento della capacità di marketing e vendita su nuovi clienti. Far evolvere le piattaforme di Crm integrato con le capacità di sfruttare gli strumenti analitici e avanzati (anche di intelligenza artificiale) per estrarre valore dai dati diventa fondamentale e strategico per creare una relazione e soluzioni personalizzate su tutti segmenti di utenza. La relazione con il clienti si può arricchire di ascolto, di interazione e dialogo fino a un suo diretto coinvolgimento, per una completa soddisfazione e per fidelizzarlo fin dalla fase di on-boarding. L’Open Banking dischiude enormi potenzialità per creare o diventare parte di ecosistemi di nuovi servizi (bancari e non) da offrire ai clienti. Open Banking significa poter sviluppare soluzioni in grado di modificare il modello di business e di offerta di servizi, in collaborazione con Fintech, con altre banche e con nuovi player (an-
che extra settore). Con questo approccio si possono realizzare nuovi prodotti o servizi sia per il mercato retail sia per il mercato delle imprese, nel quale la customer experience è stata finora sottovalutata. I nuovi modelli di business abilitati dall’Open Banking si basano su piattaforme digitali aperte e scalabili in cloud e permettono di arricchire ulteriormente la conoscenza dei bisogni dei consumatori attraverso una maggiore disponibilità di nuovi dati. Un modello “ibrido”
Oggi si parla molto di modelli “ibridi”, per esempio in riferimento alle infrastrutture tecnologiche (che spesso mescolano l’uso dei server on-premise e il ricorso al cloud) o alle nuove modalità di lavoro (un po’ in presenza e un po’ in smart working) adottate da molte aziende. Possiamo applicarlo anche al settore del banking: oggi sta configurando un modello operativo di banca ibrido e integrato. Un modello
che coniuga l’accesso ai servizi di banking a distanza, attraverso la omnicanalità, e una banca “distanziata” nell’organizzazione dei workplace in uffici e filiali, aperta all’esterno per essere sempre presente (si parla di ubiquitous banking e di banking anywhere) e quasi invisibile per molti servizi standardardizzati, semplici e transazionali. Ed è, inoltre, una banca più vicina alle persone, più umano-centrica nella relazione con i clienti, perché arricchita con i dati. Il Banking Summit di The Innovation Group, svoltosi lo scorso settembre, ha reso evidente come quest’anno potrebbe essere l’anno del “whatever it takes”, in cui l’impegno delle banche dovrà essere eccezionale e unico. Esse devono diventare ancora più forti, resilienti e innovative ponendo al centro l’utilizzo del digitale ma anche le persone e i clienti per cogliere le prospettive di crescita e di innovazione che si aprono anche a tutto l’ecosistema che le banche attivano. Ezio Viola
LE FONDAMENTA DEL FUTURO
6
| OTTOBRE 2021
Per realizzarla, bisognerà superare gli attuali silos e condizioni legacy tecnologiche ed organizzative. • La capacità di sfruttare appieno la potenza e il valore dei dati, sia interni sia esterni, con tecnologie di analytics e AI/ML (intelligenza artificiale o machine learning) e con una Photo by Alexander Mils on Unsplash
Dove vanno gli investimenti digitali delle banche nel biennio 2021-2022? Individuiamo in particolare sei tendenze in crescita: • L’impatto dello smart working sui sui processi di lavoro, tenendo conto delle limitazioni di distanziamento sociale ancora in vigore. Si dovrà ridisegnare una nuova workplace experience sempre più integrata con la customer experience. A tal fine bisognerà anche individuare indicatori di performance e attivare una coerente gestione organizzativa. • La reingegnerizzazione dei processi end-to-end, per poter ottenere una ottimale customer experience e una relazione banca-clienti veramente semplice, omnicanale e fiduciaria.
strategia chiara e solida di data governance e data management. • L’utilizzo del cloud come piattaforma di riferimento per sviluppi innovativi, ma anche come base per la modernizzazione dei sistemi IT. • La cybericurezza e la resilienza. La difesa dagli attacchi e la business continuity saranno temi sempre più importanti, considerando che molte delle tendenze spinte dalla pandemia (come la migrazione al cloud e l’utilizzo intenso del canale mobile) hanno ampliato i perimetri dell’IT aziendale e aumentato il rischio. • La twin transformation dell’organizzazione IT. Il digitale deve andare di pari passo con la trasformazione digitale dei processi bancari.
L’ALTERNATIVA DEL BANKING-AS-A SERVICE
Photo by rupixen.com on Unsplash
Si ritagliano nuove possibilità per le banche, che diventano fornitrici di servizi (come prestiti e pagamenti rateali) per altri attori della filiera.
Di Open Banking si sente parlare da tempo, mentre l’espressione Bankingas-a Service (BaaS) è forse soprattutto nota tra gli addetti ai lavori. Un concetto che è un po’ il contraltare dell’Open Banking: quest’ultimo è l’approccio che consente ad attori esterni (come le Fintech) di accedere ai dati degli istituti bancari e finanziari per poter erogare servizi all’utente finale; il BaaS, al contrario, è il modo con cui le banche possono esse stesse fornire servizi ad altri attori della filiera. Nel percorso di ingaggio e fidelizzazione di un cliente a cui venga proposto un prodotto o servizio, oggi la componente finanziaria assume una rilevanza diversa rispetto al passato. Per esempio, poter offrire un prestito o una rateizzazione dei pagamenti può essere una leva di vendita o di
fidelizzazione. Questo però implica il possesso di permessi, licenze e competenze che sono difficili da ottenere, per non parlare dei requisiti di capitale o dell’allineamento alle varie normative in campo finanziario. Qui entra in gioco il concetto di banking-as-a-Service, che consente alle aziende autorizzate di integrare i propri servizi bancari direttamente nelle offerte dei propri clienti (altre aziende), facendo sì che possano proporre conti corrente mobili, carte di debito, prestiti e servizi di pagamento anche senza disporre di una specifica licenza. I server della banca e quelli delle aziende comunicano tramite Api e il player che propone una soluzione BaaS opera solo come intermediario, senza lavorare direttamente con il denaro del proprio cliente. Di fatto,
si tratta di un servizio white label, nel quale il servizio bancario viene erogato da brand appartenenti ad altri settori. Il “World Retail Banking Report 2021” di Efma, realizzato con Capgemini, parla di “Banking 4.X”, evidenziando come in un decennio banche digitali e challenger abbiano conquistato oltre 39 milioni di clienti nei Paesi oggetto dello studio. Attualmente il 66% delle banche già si avvale di una piattaforma BaaS per “prestare” i propri servizi ad attori terzi, e un ulteriore 25% è intenzionato ad adottarla. La giungla collegata ai servizi bancari, nonostante queste evoluzioni, è ancora fitta e irta di insidie. Da un lato, le banche faticano a disegnare modelli di customer experience completi, anche a causa di una certa carenza di competenze interne (fatto confermato anche dal report di Efma: il 61% delle banche non dispone ancora di un team dedicato alla customer experience). Per questo ancora si tende ad andare in direzione del Platform Banking, modello in cui sono i classici istituti di credito a integrare servizi di Fintech o altri soggetti, conservando però la relazione diretta con la clientela, in una logica di strategia difensiva. Ancora diverso è il modello dell’Open Banking, in cui i soggetti non strettamente bancari utilizzano i dati delle banche per gestire e proporre i propri prodotti, fungendo da third party provider, come succede nell’ormai diffusa offerta di aggregatori per la gestione di diversi conti da un unico punto di partenza. Oggi il mercato appare in forte evoluzione e solo il tempo potrà chiarire quali saranno le tendenze destinate a prevalere, verosimilmente sotto l’influenza sempre più diretta dei gusti e delle attitudini dei clienti. Roberto Bonino
7
STORIA DI COPERTINA | Banking
UNA “CLOUDIFICAZIONE” SOSTENIBILE Un approccio ibrido dal punto di vista delle architetture IT e privo di vincoli nella scelta del fornitore: così le banche possono trasformarsi gradualmente. L’opinione di Oracle.
È
ormai chiaro che l’adozione di modelli cloud è uno tra i principali veicoli per garantire alle banche la risposta alle loro più importanti esigenze. La resilienza e sicurezza, perché le componenti digitali delle catene del valore reagiscono meglio a carichi anomali, cambiamenti di paradigma e a riconfigurazioni repentine; proteggono maggiormente dalle frodi e sono meno soggette all’errore umano. L’innovazione e la transizione digitale, grazie a modalità nuove e moderne di interagire con clienti, prospect e partner e al focus sul lancio di nuovi servizi, più incentrati sul cliente. E infine l’efficienza, attraverso l’automazione delle attività a basso valore aggiunto e costose. Queste sono anche le caratteristiche che un partner tecnologico deve avere per accompagnare le banche nel percorso di trasformazione. Ma è importante tenere conto di quanto è stato creato come asset all’interno dei data center dei nostri clienti bancari negli anni. In alcuni casi sono possibili approcci disruptive, in molti altri serve accompagnare – sì in maniera accelerata, ma graduale e sostenibile – questi percorsi di modernizzazione e “cloudificazione”. Ecco quindi che l’approccio hybrid trova un suo valore. Le banche non abbandoneranno tutti i loro data center, anche se sicuramente ci sarà una razionalizzazione: la nostra idea è di avere capillarità, con più cloud region vicine ai nostri clienti ovvero un cloud di prossimità, per favorire l’approccio
8
| OTTOBRE 2021
Andrea Sinopoli
ibrido, interconnessione e latenze basse, elementi importanti soprattutto quando parliamo di IT altamente transazionale e di applicazione mission critical e di andare incontro a requisiti regolatori relativi ai dati. Per questo motivo abbiamo sviluppato una soluzione chiamata “dedicated region cloud@customer”, con cui siamo già in grado di offrire servizi identici a quelli del cloud pubblico all’interno dei data center dei nostri clienti. Estendendo il concetto di hybrid cloud, crediamo nel paradigma del multicloud, che aiuta i nostri clienti a scegliere il fornitore migliore a seconda della specializzazione sui carichi di lavoro, evitando fenomeni di lock-in. Come Oracle, riteniamo di avere, soprattutto nel banking e nella Pubblica Amministrazione, un ruolo primario su tutta la parte legata al data management e ai carichi mission critical. La valorizzazione del dato è infatti un secondo aspetto chiave, nel mondo ban-
cario ancora più che in altri. Per arrivare a questa valorizzazione serve agire su due fronti che caratterizzano il concetto del cosiddetto “IT bimodale”: da una parte aiutare le banche a ridurre il modello di costo e a modernizzare tutto il mondo core/tradizionale, il cosidetto “legacy”; dall’altra, supportare tutta l’innovazione e gli sviluppi applicativi che si traducono in nuovi servizi per i clienti. In Oracle abbiamo fatto esperienze importanti su entrambi i fronti. Sul primo, per quanto riguarda l’offloading dei dati dai sistemi legacy: un esempio è il caso del Banco Santander, progetto interessante sia per dimensioni sia per caratteristiche. Questo è il primo passo per iniziare ad “aprire” il patrimonio informativo che risiede dentro sistemi legacy sfruttando la flessibilità dei modelli cloud e tecnologie database convergenti. Anche Gartner ha recentemente riconosciuto un ritorno entro i prossimi quattro anni a questo tipo di paradigma. Una tecnologia di gestione del dato avanzata, come il database convergente, aiuta infatti a incamerare grosse moli di dati e a gestire diverse semantiche in maniera naturale, supportate da un’automazione spinta e da motori esperti di AI/ML per la pulizia del dato. Il secondo aspetto è legato al new digital e all’evoluzione delle architetture data-driven che passeranno dall’essere code-centric a data centric event-driven: diventa cioè importante avere tecnologie che aiutino ad applicare il valore dei dati in tempo reale. Anche qui, la flessibilità del cloud e le tecnologie convergenti vengono in aiuto per far parlare in maniera trasparente i due mondi, il core e new digital, con l’obiettivo appunto di estrarre valore dai dati in modo coerente e consistente. Andrea Sinopoli, tech cloud country leader di Oracle Italia
TECNOLOGIA E FIDUCIA, I DUE PILASTRI DEL FUTURO La sfera digitale deve combinarsi con l’elemento umano all’interno di esperienze omnicanale che rinsaldano la relazione con il cliente. Le testimonianze degli operatori al “Banking Summit 2021”.
P
er le banche italiane molte sfide si stagliano all’orizzonte, ma è un orizzonte vicino, che richiede azioni e strategie fin da subito. Le opportunità offerte dal Pnrr vanno colte senza indugio, così come bisogna affrontare la transizione ecologica, il tema della resilienza e quello (che è sempre stato centrale, ma mai quanto lo è oggi) della relazione con il cliente. Se ne è parlato lo scorso settembre, insieme a vendor tecnologici e rappresentanti del settore bancario, durante l’evento “Banking Summit 2021” di The Innovation Group. Dopo lo “stress test” della pandemia di covid, che ha messo alla prova la resilienza delle banche, a detta di Azzurra Guelfi, equity research analyst di Citi, ora gli operatori devono lavorare sul recupero dell’efficienza e della produttività, puntando alla crescita dei ricavi. Perché ciò accada, come sottolineato da Massimo Doria, senior manager di Banca d’Italia, le banche dovranno svolgere nei confronti delle imprese un ruolo di supporto e consulenza per la trasformazione. Un banco di prova in tal senso sarà il Pnrr, tra i cui obiettivi spiccano la transizione ecologica e la diffusione del digitale. Come ricordato da Giovanni Sandri, country head di Blackrock, abbiamo di fronte la sfida della transizione “net zero”, che nel lungo periodo avrà importanti impatti sull’economia e sul mondo bancario.
Nazzareno Gregori, direttore generale di Gruppo Credem, ha rimarcato il fatto che il modello operativo delle banche sta cambiando e cambierà, e in questo contesto è fondamentale il livello di fiducia creato all’interno del rapporto con i clienti. Ma come si costruisce la fiducia? Bisogna senz’altro valorizzare tutto ciò che riguarda la tecnologia e l’innovazione e allo stesso tempo, come affermato da Claudia Vassena, head di buddybank – UniCredit, è importante non trascurare il contatto umano diretto. Sul punto è intervenuta anche Paola Angeletti, Coo & HR di Intesa Sanpaolo, secondo cui bisogna intervenire sia sulla formazione del consulente sia su quella dei clienti, nella consapevolezza che il digitale abilita moltissime attività e facilita i processi, ma senza poter sostituire del tutto il “faccia a faccia”. A detta di Vittorio Calvanico, Coo di Banca Monte dei Paschi di Siena, non è necessario digitalizzare il processo quanto piuttosto piuttosto costruire un sistema che risponda alle esigenze del cliente, una sfida di estrema rilevanza per il settore bancario. Resta valido il modello dell’omnicanalità, su cui è intervenuta anche Claudia Motta, responsabile direzione organizzazione di Intesa Sanpaolo: oggi è necessario proporre un’offerta sempre più integrata nei diversi canali e che permetta ai clienti di svolgere operazioni
bancarie in modo ubiquo, indipendentemente dal canale d’interazione usato. Anche a detta di Elena Lavezzi, general manager Italy and Southern Europe di Revolut, è fondamentale seguire il paradigma dell’omnicanalità e dell’always on, servendo i clienti senza vincoli di luogo o tempo. Ed è fondamentale, altresì, che i prodotti e i servizi offerti siano semplici e trasparenti. In questo contesto assume rilievo il concetto di banca territoriale, che rappresenta un’importante opportunità soprattutto per gli istituti di credito di medie e piccole dimensioni. Accanto al rapporto umano e alla qualità della user experience, un altro modo per costruire fiducia è quello di imparare a conoscere l’utente, e a tal fine il bene più prezioso sono i dati. ll Crm resta lo strumento fondamentale e dev’essere in grado di garantire controllo e semplicità di accesso ai dati, così come il rispetto della privacy dei clienti. Carmen Camarca
9
IN EVIDENZA
l’analisi
IN EVIDENZA
RESILIENZA DEL DIGITALE: UN OSSIMORO?
In realtà quando parliamo di resilienza del digitale non parliamo di un ossimoro, ma di un profondo cambio di paradigma: perché la crisi pandemica ha evidenziato, a fianco dell’immagine di una tecnologia digitale frenetica, transitoria, a rapida obsolescenza, fonte di continua innovazione, una notevole capacità di permettere al sistema una grande resistenza all’impatto di eventi imprevedibili, o addirittura impensabili. Il digitale ha quindi rivelato una doppia dimensione di resilienza: una dimensione interna, perché ha evitato il collasso della nostra economia e della nostra società di fronte alla “crisi unica” determinata dall’emergenza pandemica; e una dimensione esterna, perché fondamentale fattore di flessibilità che consentirà alle imprese, alla PA e alla società civile di reagire a futuri shock esterni, agendo anzi da essenziale driver dello sviluppo futuro. Ci troviamo di fronte diversi temi, da noi sviluppati nel “Rapporto Annuale” che abbiamo presentato nel corso del “Digital Italy Summit” del 18-20 ottobre scorsi. Come assecondare una trasformazione digitale che sia insieme profondamente innovativa, sostenibile e resistente alle improvvise emergenze? Come, in particolare, il Pnrr potrà abilitare politiche digitali a sostegno di questa trasformazione? E in che modo, in conclusione, potremo cogliere questa opportunità unica per costruire un Paese non semplicemente “modernizzato” ma moderno, efficiente, innovativo e resiliente?
10 |
OTTOBRE 2021
Dopo una “crisi unica” stiamo assistendo a una “ripresa speciale”, che è tale perché è arrivata prima delle attese ed è globalmente robusta e diffusa, anche se con diverse intensità. È speciale perché caratterizzata da un rimbalzo nel 2021 del 5,7%, superiore alla media dell’Eurozona, e da una crescita oltre il potenziale anche nel 2022 (4%) e nel 2023 (2,3%), sostenuta anche dai trasferimenti europei connessi al piano Next Generation EU. Ed essa ha riguarda non solo industria e costruzioni, ma anche i servizi. In sintesi, il sentiment è molto positivo, i dati attuali sono molto buoni e a livello internazionale c’è una gigantesca attenzione sul nostro Paese. Dall’altra parte, la ripresa è speciale perché sta provocando una inflazione non da domanda (i salari non crescono e i consumi recuperano limitatamente) ma da costi. Sono fortemente saliti i costi dell’energia e dei metalli industriali. Vi è una clamorosa carenza di materie prime, che spesso si Roberto Masiero
pagano cash, per cui le nostre imprese hanno bisogno di una adeguato sostegno bancario. Si verificano serie strozzature nelle catene globali del valore. Le imprese industriali segnalano così la volontà di trasferire i maggiori costi di produzione ai consumatori finali, mentre pressioni al rialzo potrebbero venire anche dai servizi per effetto delle riaperture nei settori soggetti a restrizioni. E quindi la ripresa potrebbe portare in seno anche fattori strutturali che ne potrebbero limitare l’impeto, almeno nel medio periodo. Rimane comunque il fatto che i grandi investimenti previsti dal Pnrr in infrastrutture e in rigenerazione urbana sono grandi acceleratori di sviluppo dei territori e in prospettiva di posti di lavoro. L’andamento del mercato digitale
La caratteristica del digitale non soltanto come fattore di efficienza e di innovatività ma anche di resilienza di fronte agli shock esterni era stata colta rapidamente dalle imprese, facendo sì che già nel corso del 2020 il mercato digitale in Italia non registrasse alcuna significativa flessione ( -0,1% a fronte di un calo del PIL pari all’8,9%). Mentre negli ultimi anni l’investimento in tecnologie digitali aveva tradizionalmente un carattere ciclico (sovraperformando l’indice del PIL quando questo aumentava e sottoperformandolo quando il PIL fletteva), nel corso del 2020 esso ha assunto decisamente un ruolo anticiclico, di stabilizzazione e sostegno dell’economia e delle imprese, molte delle quali solo grazie a ciò hanno evitato il collasso. Ciò è stato dovuto soprattutto alle piattaforme digitali, alla diffusione delle tecnologie e delle architetture di collaboration e del cloud, e al fatto che le reti hanno sostenuto i picchi di traffico. Non possiamo ignorare, tuttavia, che l’impatto delle
tecnologie digitali nella fase dell’emergenza è stato assai disuguale a seconda del livello di preparazione delle organizzazioni: mentre alcune, particolarmente nel terziario avanzato, erano già pronte e sono riuscite a passare allo smart working in una notte, molte altre hanno dovuto rivoluzionare rapidamente i loro sistemi operativi e introdurre, spesso in modo traumatico, modi di lavorare completamente diversi. Il trauma peggiore è stato probabilmente quello subito dalla Pubblica Amministrazione, dove (a fianco di una minoranza di situazioni in cui erano già presenti forme di lavoro agile) in molti casi ci si è trovati di fronte a seri problemi di infrastrutture e mancanza di adeguate competenze. Nel corso di questi primi dieci mesi del 2021 l’investimento in digitale si sta ampiamente dispiegando, perché molti cambiamenti introdotti dal lockdown stanno diventando strutturali, anche grazie alle profonde trasformazioni dell’organizzazione delle imprese, del lavoro e delle vite private. Si sta infatti affermando con forza il tema del lavoro ibrido: molte imprese non torneranno indietro: il tema non è smart working o lavoro in ufficio, ma quale mix dei due. Il “ritorno al lavoro” diventa una ulteriore sfida di grande complessità. Pure nel settore privato tuttavia non tutti hanno capito che l’innovazione digitale deve procedere di pari passo col ripensamento profondo dei processi di business, e in molte situazioni si rischia di voler tornare a modelli organizzativi novecenteschi. Assistiamo quindi a due modi diversi per interpretare la trasformazione digitale: una differenza che è all’origine dell’attuale tendenza alla fuga del personale dalle aziende tradizionali verso quelle che adottano diffusamente lo smart working. Infine, anche per la
Pubblica Amministrazione il tema del ritorno al lavoro richiede una visione resiliente e inclusiva, che in prospettiva sia in grado di integrare al meglio il lavoro da remoto e in presenza. Per quanto riguarda quindi il 2021, partendo da una base molto più alta e potendo contare solo in maniera molto limitata sugli impatti del Pnrr sugli investimenti del settore, possiamo prevedere che il tasso di crescita del mercato digitale non si allineerà a quello del PIL, ma raggiungerà comunque un ottimo livello, secondo le nostre previsioni in una forchetta compresa tra il 4,3% e il 5%. Molto più che una singola “missione”
Il Pnrr, presentato dal Governo alla Commissione Europea lo scorso 30 aprile, costituisce la base dei lavori e delle politiche di investimento italiane per i prossimi cinque anni. Come noto, i progetti di investimenti sono raggruppati in sei “missioni”, la prima delle quali è focalizzata sui temi della digitalizzazione e dell’innovazione della PA, del sistema produttivo e del turismo. Tuttavia la
presenza degli investimenti in digitale è pervasiva all’interno delle disposizioni del Piano, e va ben oltre la “Mission 1”, per proiettarsi diffusamente nelle altre missioni. Ad esempio, Il tema dell’interoperabilità viene ripreso in molti altri contesti e progetti, in quanto rappresenta uno degli elementi cardine per integrare (in maniera sia orizzontale sia verticale) i sistemi e l’organizzazione della PA sia centrale sia locale. E si potrebbero fare altri esempi. Sulla base delle informazioni disponibili all’interno del Piano, si può realisticamente valutare che il potenziale (diretto e indiretto) della componente digitale sia stimabile in circa 60-62 miliardi di euro nell’arco dei cinque anni considerati. Si tratta di un impatto potenziale notevole sulla crescita del mercato digitale italiano. Il Pnrr è dunque un ottimo piano, un’occasione irripetibile per favorire la crescita e ovviare ad alcuni problemi strutturali del nostro Paese. Roberto Masiero, presidente di The Innovation Group
11
IN EVIDENZA
NOTEBOOK E TABLET, CONTINUA LA SCALATA IN EUROPA È ancora forte la domanda di tecnologie a supporto del telelavoro. I dati di Canalys e di Context prefigurano le tendenze future, dopo gli scossoni del 2020. Le vendite di notebook e tablet continuano a crescere in Europa a discapito dei computer desktop fissi, dando conferma di come il modello del lavoro ibrido stia prendendo piede nelle aziende. Secondo i monitoraggi effettuati da Context sulle principali catene di distribuzione tecnologiche dell’Europa occidentale, i livelli di vendita di Pc portatili e tablet nell’estate 2021 hanno superato quelli dell’estate 2019 (il più vicino termine di paragone “neutro”, scevro dagli effetti dei lockdown dell’anno seguente). Il metodo di analisi di Context si basa sulla definizione di punteggi di performance in relazione all’indice 100, che fa riferimento ai livelli di vendita medi del 2019. Ebbene, i Pc portatili si rivelano la categoria più performante, con un indice di circa 120 fra la 25esima e la 36esima settimana del 2021, mentre i tablet sono intorno a un punteggio di 105. Ben lontani stanno i Pc desktop, con un punteggio di 75. Va detto, comunque, che rispetto alle dinamiche del 2020 i computer da scrivania hanno recuperato un po’ del terreno perso, con un incremento di vendite del 10% nel mese di agosto, anno su anno. Per i notebook si è registrato invece un calo del 2%, per i tablet una flessione del 17%. Potremmo forse dire che il confronto con il 2020 fa emergere le dinamiche
12 |
OTTOBRE 2021
delle prime ondate di pandemia e dei successivi assestamenti, mentre ragionando su tempi più dilatati si può intravedere la vera tendenza. Nel frattempo i retailer sono ancora alle prese con alcune incognite che determinano difficoltà e ritardi di approvvigionamento. D’altra parte, nei pronostici di protagonisti del settore come Intel e Ibm, la ormai famigerata crisi dei semiconduttori è destinata a protrarsi ancora fino al 2022, e inciderà dunque sulle tempistiche e sui costi di produzione di numerosi mercati tecnologici (nonché del settore automobilistico). Altra interessante dinamica riguarda le tipologie di prodotto in ascesa: aumentano, nelle catene dei distributori, le vendite di computer con specifiche tecniche più elevate. Sul totale delle vendite a valore dei Pc professionali, il protocollo di connettività Wi-Fi 6, il più recente e veloce, a maggio del 2020 rappresentava appena il 16%; a settembre del 2021 la quota era salita al 70%. Nell’ambito del Pc consumer l’adozione del Wi-Fi 6 è stata più lenta, ma è comunque cresciuta nell’ultimo anno fino a raggiungere il 57% di quota a valore. I monitoraggi di Context trovano rispecchiamento nei più ampi dati di Canalys, che considerano tutti i canali di vendita degli Oem. La somma di Pc desktop, workstation e notebook
ha segnato nel secondo trimestre del 2021 in Europa Occidentale un incremento del 3% anno su anno: parrebbe modesta, ma non lo è tenendo conto che il secondo trimestre del 2020 era stato un periodo di eccezionale e improvvisa crescita della domanda, trainata dai ben noti lockdown. “La domanda è ancora forte”, ha commentato Trang Pham, research analyst di Canalys. “L’Europa Occidentale si è ritrovata in una nuova normalità post Covid, un mondo sottoposto a rapida digitalizzazione, come mostrano i solidi numeri delle consegne. Se i problemi di approvvigionamento fossero stati risolti, avremmo osservato una crescita ancora maggiore”. Per numero di dispositivi commercializzati al primo posto c’è Lenovo, con 4,1 milioni di unità sui 15 milioni totali del trimestre, e una quota mercato del 27% a volume. Seguono Hp (24% di market share), Dell, Acer ed Apple. Nello stesso periodo le vendite di tablet in Europa Occidentale sono cresciute del 18% anno su anno, con 7,9 milioni di unità commercializzate nel trimestre. “I tablet”, ha aggiunto Pham, “non sono più soltanto dispositivi per l'intrattenimento ma sono emersi in quanto alternativa più economica ai Pc per il lavoro e la didattica a distanza”. Valentina Bernocco
ISTAT RILANCIA SULLA VIRTUALIZZAZIONE DEI DATI L’istituto ha modernizzato i processi statistici e standardizzato oltre duecento fonti di dati grazie a una nuova architettura di riferimento. Istat è il principale produttore di statistica ufficiale a supporto dei cittadini e dei decisori pubblici italiani. Tradizionalmente, l’istituto si trova a dover gestire più di duecento fonti amministrative, oltre ai dati provenienti dalle sue indagini e censimenti. Inoltre svolge la funzione di orientare dal punto di vista metodologico e qualitativo tutti i produttori di statistica ufficiale e pubblica. L’utilizzo di nuove fonti Ucome Web, social media e i cosiddetti Big Data) ha reso evidente la necessità di sistematizzare questa importante mole di informazioni. Per questo, Istat ha fatto partire già nel 2016 un programma che offrisse un linguaggio comune ai diversi dipartimenti, per evitare incomprensioni nell’analisi e favorire nuove modalità di integrazione dei dati. Inoltre, è stato necessario riaggregare le informa-
zioni per tematiche, associando i dati a fonti esterne per migliorare l’integrazione e l’estrazione di nuovi insight. L’aggiornamento dei processi di produzione dell’informazione statistica si è così inserito nel più ampio progetto di ridefinizione del framework tecnologico e organizzativo, esito del processo di modernizzazione della statistica ufficiale avviato a livello europeo da tutti gli istituti. Il percorso intrapreso da Istat ha quindi costituito un ulteriore passo verso lo sviluppo di un Register-based Analytics Framework (Raf ), orientato a valorizzare il contenuto informativo per poi metterlo a disposizione della collettività. Il rinnovamento dell’architettura di riferimento nell’intero ciclo di vita dei dati (raccolta, validazione, manipolazione e diffusione) si è concretizzato in un fra-
mework composto da uno “strato” di virtualizzazione dei dati, introdotto per creare un unico punto di accesso alle informazioni e per risolvere alcuni limiti esistenti. “In questo modo”, ha spiegato Massimo Fedeli, Cio di Istat, “siamo riusciti a superare le rigidità nella diffusione e nel trattamento dei dati, concentrando inoltre tutte le azioni di data governance e monitoraggio della qualità dei dati nell’unico punto d’accesso disponibile. Dopo aver impostato l’infrastruttura, il primo servizio è risultato operativo in un solo mese”. In questa fase, l’istituto si è avvalso della collaborazione di Denodo, riuscendo in modo particolare a disaccoppiare utenti e applicazioni da attività come la migrazione e il consolidamento dei dati, integrando allo stesso tempo la semantica e la governance necessarie nei moderni ambienti di dati. Questi elementi consentono di agire sul significato dei dati evitando costose operazioni di copia o spostamento. Il percorso di rinnovamento tecnologico ha permesso di implementare diversi casi d’uso, tra cui la rilevazione dei prezzi al consumo, determinante per la misura dell’andamento dell’inflazione in Italia attraverso i diversi indici. Si tratta di un’attività tradizionalmente effettuata da operatori che visitavano i punti fisici della grande distribuzione per rilevare i prezzi dei prodotti. Oggi, invece, i dati vengono inviati direttamente all’istituto dai sistemi presenti nei distributori, migliorando la tempestività e la qualità dei dati a disposizione: “Il progetto ci ha permesso di investire sulle competenze, erogando percorsi di formazione grazie ai quali molte risorse interne sono diventate autonome rispetto all’utilizzo delle nuove piattaforme e all’elaborazione dei dati”, ha concluso Fedeli. Roberto Bonino
13
IN EVIDENZA
l’intervista
UN PUNTO DI VISTA INDIPENDENTE SULLA TRASFORMAZIONE Il Ceo di Tibco, Dan Streetman, spiega quali strumenti consentono alle aziende di trarre valore dai dati e velocizzare i processi decisionali.
Nel mercato dei software per l’integrazione, l’analisi e la gestione dei dati sono rimasti pochi vendor specializzati indipendenti, in uno scenario che è cambiato dapprima con l’ingresso (a suon di acquisizioni) di molti big player e poi con la seconda ondata di new entry nate e cresciute con il cloud, come Aws, Google e Salesforce. Uno di essi è Tibco. Fino a qualche tempo fa non era troppo semplice orientarsi nel portfolio della multinazionale californiana ed è per questo che, da alcuni anni, lo stesso vendor si è preoccupato di razionalizzare l’offerta seguendo le tre direzioni denominate Connect, Unify e Predict. Questa traccia è stata utilizzata anche per presentare le ultime novità nel corso dell’annuale evento “TibcoNow”. Dal punto di vista dei prodotti, uno dei principali aggiornamenti riguarda Mashery, soluzione di gestione delle Api (le interfacce di programmazione applicativa) che ha modificato il suo nome in Cloud Api Management, a sottolineare la progressiva convergenza verso Dan Streetman
la piattaforma unificata Tibco Cloud. Rilevante, nel futuro dell’azienda, è anche la possibile acquisizione di Blue Prism, attraverso il fondo Vista Equity Partners. L’operazione aprirebbe un nuovo fronte per Tibco, in particolare in direzione del mercato dello sviluppo rapido del software. Per fare il punto sulle strategie della società e sull’evoluzione delle soluzioni di data management & integration, Technopolis ha intervistato il Ceo di Tibco, Dan Streetman. Nel mercato in cui operate siete fra i pochi specialisti indipendenti rimasti. Qual è oggi il vostro posizionamento?
Noi lavoriamo nell’area delle soluzioni unificate, per portare i dati ai clienti nel momento per loro più opportuno. La presenza di silos o di un unico cloud provider non aiuta a raggiungere questo genere di obiettivo. Ci occupiamo di connettere e movimentare i dati nel modo più rapido possibile, a prescindere da piattaforme o applicazioni. Diverse della realtà citate sono per noi dei partner e la nostra eccellenza riguarda la capacità di far sfruttare dai clienti, nel modo migliore, le piattaforme a cui si appoggiano. Tra le vostre acquisizioni di rilievo, negli anni, troviamo Jaspersoft e Information Builders, specialisti nella Business Intelligence e nel reporting. Non sono concetti oggi un po’ superati?
Sono d’accordo. Infatti stiamo puntando sulla Hyperconverged Analytics, in cui visualizzazioni, data science e funzionali-
14 |
OTTOBRE 2021
tà di streaming si fondono in un’esperienza senza soluzione di continuità per offrire insight aziendali coinvolgenti, smart e in tempo reale, semplici da fruire e su misura. Business Intelligence e reporting sono ormai solo elementi di una visione molto più ampia, mentre il vero obiettivo è rendere disponibile ciò che serve nel momento più opportuno. Quali saranno, nel vostro ambito, gli effetti di lungo termine della pandemia?
L’accelerazione della trasformazione digitale è un fatto acclarato. I dati oggi hanno bisogno di essere connessi fra loro il più rapidamente possibile. Abbiamo aiutato molti clienti a reagire nel modo in cui gestire i dati, per esempio, delle supply chain o della customer demand. Ormai i cambiamenti vanno recepiti e rielaborati in tempi molto rapidi e la pandemia non ha fatto altro che enfatizzare questo fenomeno. Come il Ceo di Tibco vede l'Italia dal suo punto di osservazione?
Gli italiani hanno la prerogativa di voler costruire soluzioni creative e l’innovazione va in questa direzione. Abbiamo constatato questi elementi nei rapporti con clienti come Autostrade per l’Italia e Brembo. Un altro esempio è Invitalia, che con noi lavora sul process mining. Abbiamo esperienze molto interessanti fatte in Italia, la quali ci possono servire anche per far capire ad altri potenziali clienti quello che siamo in grado di fare. Roberto Bonino
MULTICLOUD, EDGE, KUBERNETES: GLI ASSI DEL FUTURO Vmware punta su tre scommesse tecnologiche, strategiche nello scenario di lavoro ibrido che si sta affermando. Che piaccia o no, è il cloud a fungere da infrastruttura portante per le strategie di sviluppo delle aziende. Raffaele Gigantino, country manager di Vmware Italia, pone la questione in modo piuttosto diretto: “La pandemia ha portato all’accelerazione delle strategie di trasformazione digitale delle aziende e il cloud ha avuto un ruolo fondamentale in questa fase. Le applicazioni devono essere fruite da una workforce sempre più distribuita e un’azienda media oggi gestisce 500 applicazioni. In Italia oltre il 40% dei nuovi progetti parte in cloud e la maggior parte delle realtà utilizza tre o più fornitori, almeno per quanto fruito in modalità Software-as-a-service. Questo non aiuta a eliminare i silos e gli sviluppatori finiscono all’interno di qualcuno di essi. Quando però occorre implementare le applicazioni, sorgono ancora forti problemi di gestione e di governance”. La riflessione introduce uno dei temi portanti dell’evento “Vmworld 2021”. La nuova offerta di servizi Cross-Cloud nasce con l’intento di lasciare ai clienti la scelta delle prestazioni specifiche per le piattaforme utilizzate, che si tratti di Aws, Google Cloud, Microsoft Azure oppure Oracle. Vmware intende occuparsi delle componenti necessarie per costruire applicazioni cloud-native, modernizzare il patrimonio esistente e assicurare che l’infrastruttura sia interconnessa. Di fatto, nella proposta vengono integrate componenti d’offerta già esistenti, come Vmware Cloud, vRealize, Nsx, Carbon Black e Workspace One, ma anche una piattaforma Tanzu molto rinnovata e l’aggiunta della componente
di edge computing. Tanzu è la piattaforma proprietaria di Vmware per Kubernetes, popolare sistema open-source per l’orchestrazione dei container (ambienti software che permettono di isolare ed eseguire applicazioni). Su di essa l’azienda ha concentrato ultimamente molte attenzioni, al fine di integrare meglio la piattaforma all’interno dell’offerta di virtualizzazione esistente, in particolare in Vmware Cloud. Lo stesso Ceo della società, Raghu Raghuram, nel suo keynote ha specificato di voler presentare “il contrario di un portafoglio monolitico. Vogliamo apportare valore a tutte le tipologie di aziende, da quelle impegnate nella modernizzazione delle proprie applicazioni alle giovani realtà cloud-native”. Tanzu viene indirizzata alle attività di sviluppo e implementazione di applicazioni online, così come all’edge computing. Lungo la linea già tracciata di recente con la Tanzu Application Platform (già visibile la seconda beta release), sono
Raghu Raghuram
ora arrivate la versione Advanced di Service Mesh (il modulo che indirizza la logica di rete fra applicazioni in formato container) e la declinazione open source di Kubernetes Grid. Quest’ultima possiede una Community Edition disponibile gratuitamente, che contiene numerosi tool open source preinstallati: “È rivolta a studenti, appassionati e utenti e permette di installare e configurare soluzioni in pochi minuti su un dispositivo locale o sul cloud preferito: non è un trial, ma un prodotto vero e proprio, libero e senza limiti di utilizzo”, ha sottolineato Rodolfo Rotondo, business solution strategist director di Vmware Emea. Nel filone dell’integrazione si colloca anche l’annuncio del progetto Arctic, nuova architettura per il software di virtualizzazione vSphere: si punta a fare del cosiddetto “ibrido” il modello operativo per definizione, integrando nativamente la connettività al cloud e permettendo così ai clienti usare servizi cloud per tutti i carichi di lavoro funzionanti su vSphere, compresi quelli on-site. In parallelo, Vmware ha lanciato anche la nuova iniziativa Sovereign Cloud per aiutare i clienti a lavorare con fornitori “trusted”, allineati alle esigenze normative locali in materia di dati. Hanno già aderito al progetto provider come OvhCloud, Telefonica, Swisscom, Ionos, Datacom, Telmex, UkCloud e l’italiana Noovle (Gruppo Tim). A proposito di Italia, nel nostro Paese tra i clienti più prestigiosi spicca Pirelli, che sulla piattaforma di Vmware ha costruito un pezzo importante della propria strategia di trasformazione digitale. “Siamo oggi in grado di stimare la domanda di pneumatici che arriva dai produttori di auto, anche sul medio termine”, ha illustrato Pierpaolo Tamma, Cio della società. “Questo ci consente di pianificare la supply chain, con evidenti risultati di ottimizzazione dei processi, velocizzazione del time-to-market e pianificazione dei costi”. R.B.
15
IN EVIDENZA
INFRASTRUCTURE-AS-A-CODE, NUOVO PASSO IN AVANTI Prosegue per Pure Storage il percorso verso un’offerta sempre più software-defined, tesa a semplificare la gestione dell’archiviazione dati all’interno di ambienti IT "ibridi". Infrastructure-as-a-code, database as-a-service con provisioning end-toend in ambienti Kubernetes (motore per l'orchestrazione dei container): gli ultimi sviluppi di Pure Storage rafforzano il percorso verso un’offerta sempre più software-defined, volta a semplificare la gestione dell’archiviazione dei dati nei cosiddetti ambienti “ibridi”, che mescolano risorse onpremise e cloud. D’altra parte, questa evoluzione corrisponde alle mutate esigenze delle aziende di tutto il mondo: molte hanno ormai spostato su diversi cloud pubblici (o privati in qualche caso) e spesso di vari fornitori buona parte dei propri workload, mantenendone alcuni on-premise, per motivi che spaziano dalla security alla compliance, dai costi alle latenze. Questo passaggio, abbinato all’emergere di tecnologie come container, intelligenza artificiale, Kubernetes e data analytics, ha fatto crescere la domanda di capacità “simil-cloud” all’interno dei data center, capacità che includono la possibilità di utilizzare risorse on-demand e modelli flessibili di consumo. Negli ultimi anni i grandi operatori nati nell’hardware hanno, così, dovuto riconvertire la propria natura verso la fornitura di software e servizi. Pure Storage non fa eccezione, almeno da quando (circa tre anni fa) ha iniziato a introdurre, accanto alla tradizionale offerta di sistemi di archiviazione all-flash,
16 |
OTTOBRE 2021
il consumo flessibile per lo storage a blocchi, i servizi Evergreen Storage e la proposta a sottoscrizione Pure-asa-Service. Il nuovo salto in avanti si chiama infrastructure-as-a-code e si concretizza con la nuova offerta Pure Fusion: “Vogliamo eliminare la complessità delle implementazioni e delle configurazioni dello storage flash nelle aziende che lavorano in differenti ambienti cloud o ibridi”, illustra Umberto Galtarossa, partner technical manager di Pure Storage. “Non occorre più essere specialisti per gestire le nostre soluzioni e ora diventa ancor più semplice avere il controllo sull’infrastruttura, automatizzando il bilanciamento e la mobilità dei workload”. L’idea alla base di Pure Fusion è di creare regole Yaml, capaci di implementare, fare provisioning, integrare classi di servizi di archiviazione, definire priorità e così via. Per questo, è stato compiuto un certo sforzo verso l’automazione e l’integrazione di Api a complemento dell’intelligenza artificiale già compresa nel portale Pure-1. La soluzione però non funziona in ambienti storage misti, ma solo con i prodotti del vendor. Portworx Data Services, invece, è una novità dedicata soprattutto agli sviluppatori DevOps, ai quali viene offerta una soluzione di tipo databaseas-a-service per implementare con un solo click servizi in ambienti Kuber-
Uberto Galtarossa
netes. “La soluzione genera template per automatizzare diverse operazioni di gestione dello storage dei container, dal provisioning end-to-end al backup, dal disaster recovery alla sicurezza”, descrive Galtarossa. All’avvio della soluzione, i modelli disponibili supportano database come MongoDb, MySql, Spark e Kafka, ma è già prevista l’estensione ad altri ambienti Sql e NoSql (Datastax, Elatsicsearch, Cassandra, Reddis, Couchbase, Sql server e altri). Il servizio è attualmente in fase di test con i clienti prima del previsto lancio commerciale a livello globale. Pure Storage, infine, ha anche colto l'occasione per aggiornare il suo portale Pure-1, rafforzando la sicurezza (in particolare la protezione contro i ransomware) e migliorando la manutenzione degli array di storage. R.B.
TECHNOPOLIS PER BROTHER
LA STAMPA SPOSA LE ESIGENZE DEL LAVORO IBRIDO L’offerta di dispositivi multifunzione Brother coniuga produttività, sicurezza e risparmi per i contesti home office e per la “nuova normalità” delle aziende.
Nella “nuova normalità” del mondo del lavoro c’è ancora molto bisogno della stampa, ma anche di digitalizzazione. L’esperienza della pandemia ha trasformato molte cose ma non ha intaccato il valore del printing, come confermato da un sondaggio realizzato nel 2020 da Idc: per il 69% delle aziende il volume totale di pagine stampate non subirà delle riduzioni. Stampa e dematerializzazione sono le due anime di un’attività strategica come la gestione dell’informazione, che significa poter creare, condividere e archiviare documenti in varie forme e secondo tempistiche differenti. Per un utente potrebbe essere necessario, per esempio, ricevere un documento via email e poi stamparlo, o viceversa digitalizzare dei contenuti cartacei per esigenze di archiviazione a tempo indeterminato. Questo era vero già in passato, ma lo è ancor di più oggi in tempi di lavoro “ibrido”, in uno scenario di assestamento post-pandemia in cui si mescolano (anche all’interno della stessa azienda) la presenza in ufficio e lo smart working. Peraltro lo spostamento delle attività lavorative nei contesti domestici ha creato non solo nuove esigenze di gestione documentale ma anche
ulteriori problematiche di sicurezza, dovute all’uso di dispositivi personali e reti poco sicure. Come gestire tutte queste nuove complessità? La strategia di Brother è quella di destinare la stampante più adatta a ogni contesto, bilanciando le esigenze di costi, prestazioni e sicurezza. Per l’home office è ricca l’offerta di stampanti classiche e dispositivi multifunzione che racchiudono in un formato compatto elevate prestazioni, numerose opzioni di connettività (rete mobile, Wi-Fi, Bluetooth, Ethernet) e semplicità d’uso. I toner ad altissima capacità e l’alta risoluzione anche in modalità fronte/retro permettono di ridurre i consumi di energia e materiali, limitando così sia i costi sia l’impatto ambientale della stampa. Utilissima, per chi lavora da casa, è la funzione che permette di connettere uno smartphone alla stampante in poche mosse, attraverso un’app o tramite cloud. In caso di problemi tecnici, poi, è a disposizione un servizio di assistenza da remoto che garantisce affidabilità e qualità per ogni esigenza. Per le aziende che hanno riprogettato (o vogliono riprogettare) i propri spazi e i flussi del personale applicando le misure di sicurezza anti covid, la risposta ideale è invece il Balanced Deployment, una strategia che prevede l’impiego di più stampanti A4 anziché di una sola macchina A3, come tipicamente è avvenuto finora. Potendo collocare un maggior numero di stampanti vicino alle postazioni di lavoro, si limitano i tragitti degli utenti che devono ritirare, acquisire o fotocopiare un documento. Tramite questo approccio si evita il problema delle code (che tipicamente si formano quando troppe persone devono usare la stessa stampante A3) ma anche quello dei documenti che vengono “abbandonati” per dimenticanza e possono finire nelle mani sbagliate. Che si tratti di uffici o di contesti home office, c’è poi un altro aspetto a cui Brother presta particolare attenzione: la sicurezza. Buona parte dei modelli in gamma non necessita di dischi fissi per l’esecuzione delle operazioni di stampa e questo evita il rischio di violazioni di documenti memorizzati su hard disk interni alle stampanti. Le macchine laser di fascia alta proteggono i dati con crittografia TLS/SSL, è inoltre presente una funzione di filtro degli indirizzi IP in ingresso e di blocco dei protocolli selezionati. Con i Managed Print Services di Brother, inoltre, è possibile usare il software di gestione delle stampe che includono il pull printing, una funzione che archivia il lavoro di stampa e lo rilascia solo in presenza dell’utente autorizzato a ritirarlo.
17
IN EVIDENZA
l’intervista
I CAMBIAMENTI E LE SORPRESE DEL POST-PANDEMIA La crisi sanitaria si è tradotta in un cambio di tendenza negli investimenti tecnologici delle aziende, con qualche risvolto positivo. Il punto di vista di Dell Technologies.
Se guardiamo alla reazione delle aziende e al ruolo della tecnologia, un evento tragico e catastrofico come la pandemia di covid-19 ha avuto anche effetti insperati, quasi sorprendenti. Iperconvergenza e modello “as a service” fanno da traino all’innovazione, come ci ha raccontato Aongus Hegarty, presidente international markets di Dell Technologies, per scattare una fotografia del mercato Ict post-pandemia. Quali sono i trend prevalenti in Europa e in particolare in Italia?
Photo by Simon Abrams on Unsplash
L’Italia ha un trend molto simile agli altri Paesi: il focus è sulle aree chiave della workforce transformation, e ovviamente durante la pandemia è cresciuta la domanda di notebook e di soluzioni
18 |
Aongus Hegarty
complete di collaboration. La difficoltà, in questo ambito, è saper abbinare le diverse personas, cioè i profili utente, con le diverse soluzioni. Più in generale, abbiamo verificato che nell’hybrid working le soluzioni devono essere flessibili e sicure, da ufficio o da remoto.
Le aziende di tutto il mondo devono avere la possibilità di essere flessibili e di continuare ad attrarre le persone; questa rimane un’area molto importante. Il secondo grande trend è la modernizzazione delle infrastrutture, che devono essere efficienti dal punto di vista dei costi e resilienti. Come ad esempio il multicloud flessibile e il cloud ibrido. La terza esigenza è relativa alla cybersecurity: gli attacchi informatici sono aumentati, con un impatto significativo sul business. L’accelerazione della trasformazione digitale ha scoperto delle vulnerabilità dovute al dilagare dell’online, delle applicazioni, dell’accesso ai dati da remoto. Il 50% di questi episodi sono stati diretti alle Pmi, e anche i Governi sono stati sotto attacco. Per questo motivo il mercato della cybersecurity ha mosso miliardi di dollari. Tutto questo dinamismo libera molto potenziale, in Italia e nel mondo. Come vi posizionate nel mercato postpandemia?
Dell Technologies ha mostrato ottime performance nel primo trimestre del proprio anno fiscale, totalizzando 24,5 miliardi di dollari di fatturato con una crescita del 12%. Sono cresciute molto le infrastrutture, i device, i Pc e in generale tutte le categorie. Per quanto riguarda le prospettive, noto che il 5G sta prendendo molto spazio in Italia e l’edge computing è molto vicino a queste infrastrutture. Secondo i dati a nostra disposizione, il 75% delle aziende
OTTOBRE 2021
Photo by Steve Halama on Unsplash
si aspetta più tecnologia sull’edge e i destini sono legati proprio a quelli del 5G. Poi c’è tutto il business legato ai modelli “As a service”, che sta crescendo sempre di più. Noi abbiamo lanciato un modello “multi year journey as a service” anche per lo storage. Stiamo costruendo questa alternativa perché per i clienti significa avere a disposizione soluzioni più flessibili, con cui è più facile gestire i picchi. Più in generale, Dell Technologies ha investito 4,5 miliardi di dollari in ricerca e sviluppo quest’anno, proprio per sviluppare prodotti e soluzioni nei mercati in crescita. A proposito di edge computing, che prospettive ci sono per il segmento, sul quale avevate puntato molto prima della pandemia?
Non sarebbe esatto dire che l’edge abbia frenato. Ma le aziende hanno pensato come prima cosa a mettere le persone in condizioni di lavorare. C’è stata una pausa in generale, non solo per l’edge. Però, in una trasformazione che coinvolga anche la forza lavoro, pure le infrastrutture sono coinvolte. La riattivazione dei progetti accelererà nel corso dei prossimi mesi, gli analisti e il mercato sono concordi nel prevedere che gli investimenti in 5G ed edge computing ripartiranno. La pandemia sta ancora colpendo duro in alcune aree, mentre altri mercati guardano a una forte crescita. E per le architetture iperconvergenti?
Vediamo una continua crescita nell’iperconvergenza, soprattutto in abbinata al multicloud, con nuove possibilità di espansione e capacità sul mercato. Penso che i clienti chiedano sempre di più flessibilità nello spostare i workload, e queste infrastrutture sono molto adatte alle nuove esigenze. Noi con Vmware
abbiamo un’alleanza strategica e grandi prospettive in tema di go-to-market, e continueremo a percorrere la nostra roadmap con loro. Continueremo a innovare. Quali sono i settori più promettenti per il post pandemia?
Per prima cosa, dobbiamo dire che nessuno si aspettava una pandemia globale. E ovviamente non si poteva prevedere questo impatto. Io sono comunque sorpreso dalla resilienza delle aziende e dell’abilità dimostrata nell’implementare soluzioni tecnologiche. Noi, in particolare, prima della pandemia avevamo la maggior parte dei dipendenti che lavoravano già in modo flessibile. Ma dal punto di vista della tecnologia è sorprendente osservare quanta strada sia stata fatta. Le aziende hanno avuto pochi giorni per reagire e mettere in piedi il necessario per continuare a fare busi-
ness. Per non parlare delle organizzazioni che operano nei settori dell’healthcare, dei servizi essenziali, dell’education. È stata una piacevole sorpresa. Anche la Pubblica Amministrazione è stata molto rapida a reagire: prima della pandemia non avevamo nemmeno i portatili, ora parlano di flessibilità, connettività. Che cosa vi aspettate dal Pnrr?
Ora la sfida è sfruttare la potenza del Pnrr, generando creatività e innovazione grazie all’opportuno utilizzo dei fondi. È una grande opportunità di portare un numero ancor maggiore di persone a godere dei vantaggi della tecnologia. In Italia ed Europa un euro su cinque sarà allocato per investimenti in digitale. Associato allo sforzo per la sostenibilità, questo rappresenta un’opportunità fantastica. I prossimi anni saranno molto intensi. Emilio Mango
19
IN EVIDENZA
IL WELFARE AZIENDALE SI ARRICCHISCE CON LE POLIZZE BIOMETRICHE Per migliorare il rating Esg e cogliere opportunità legate al Pnrr, le imprese possono considerare la protezione vita, infortuni e malattie per i propri dipendenti. Il punto di vista di elipsLife. Il tema dell’assicurazione collettiva non è nuovo nel mondo del lavoro, ma in questi ultimi tempi sta assumendo un particolare rilievo con il crescere dell’attenzione delle aziende verso i criteri Esg, il rating che valuta gli aspetti Environmental, Social e Governance, sempre più presi in considerazione dal mercato e dagli investitori. Tra le variabili che afferiscono all’Esg, la esse di Social sta assumendo un peso crescente e sta portando le aziende ad attrezzarsi in modo da ottenere un rating appetibile, optando spesso verso soluzioni che prendano in considerazione la protezione dei propri dipendenti. Una protezione che ha forte attinenza con il welfare aziendale, un tema su cui l’Italia rimane ancora debole rispetto agli altri Paesi europei: nel caso di grandi organizzazioni, la protezione si limita ai soli vertici aziendali, mentre il resto della forza lavoro rimane protetto, quando lo è, solo da eventi di piccola portata (come i rimborsi per spese mediche) e poco più, senza quindi prendere in considerazione eventi luttuosi o menomanti. E il grado di sensibilità si abbassa ulteriormente tra le Pmi. Di eventi gravi, invece, l’elenco in cronaca è pressoché quotidiano e in continua crescita, con frequenti notizie sui media di infortuni o morti sul lavoro, senza tener conto del fenomeno (meno alla luce del giorno ma con numeri di gran lunga superiori) degli stessi effetti dovuti a malattie. Eventi,
20 |
OTTOBRE 2021
Pierluigi Verderosa
questi, che nel nostro Paese sono poco protetti e rischiano di mettere in difficoltà economica le famiglie interessate. “Un’impresa che oggi voglia coglie-re le opportunità legate al Pnrr o che intenda essere riconosciuta sui crite-ri Esg dovrà considerare questo tema strettamente legato alla sostenibilità, chiedendosi se stia proteggendo le famiglie dei propri lavoratori da eventi che possono minarne l’equilibrio economico”, afferma Pierluigi Verderosa, Ceo e managing director di elipsLife, compagnia assicurativa italiana fondata nel 2018, che conta oggi oltre 100.000 soggetti assicurati, ed è parte di Suiss Re, la maggiore realtà di riassicura-zioni (ossia società che assicurano le assicurazioni) a livello globale. “In Italia”, prosegue Verderosa, “la previdenza prevista da Inail o Inps eroga, in caso di incidente, una copertura di circa 17.000 euro netti all’anno, una somma
irrisoria per pensare a un futuro sostenibile per la famiglia di chi ha subito gravi eventi. Purtroppo, le aziende italiane sono culturalmente arretrate su come aumentare la protezione dei dipendenti di fronte a grandi eventi, con scarsa conoscenza dei benefici/ costi che possono derivare da assicurazioni collettive sui rischi biometrici, ossia vita, gravi infortuni e malattie”. Da qui la volontà di elipsLife di creare una rete di partner broker che sia in grado di proporsi in maniera consulenziale e proattiva nei confronti di aziende di piccole e medie dimensioni, puntando sulla formazione e sulla dotazione di tool informatici che li mettano in grado di calcolare i benefici a fronte degli investimenti. “Si tratta”, spiega il Ceo, “di un investimento che vogliamo fare sulla nostra rete di intermediazione, che tendiamo a raddoppiare entro il 2025, spostando l’obiettivo verso una proposizione a valore e non a volume, sollevando così i nostri partner dalle logiche meramente legate ai pacchetti e al fattore costo, sulle quali imperversa una battaglia sui margini, puntando a promuoverli a veri e propri consulenti sui piani assicurativi personalizzati destinati alle aziende. Una formazione che vogliamo trasferire anche sul fronte degli imprenditori, per fare in modo che riescano a valorizzare adeguatamente questa scelta nei confronti dei propri dipendenti”. Loris Frezzato
l’intervista
SCARICARE A TERRA LA POTENZA DEI DATI E VALORIZZARLI Tra le principali sfide di trasformazione del settore bancario c’è la data monetization, come spiega Franco Saracco, sales executive director banking market di Gft Italia.
Che cos'è la “data monetization”?
La data monetization è il processo attraverso il quale un’impresa decide di far fruttare la mole di dati che ha a disposizione (i dati dei propri clienti e quelli generati dalla relazione con essi, i dati dei propri partner commerciali e ancora, più in generale, tutti i dati provenienti dall’intero ecosistema all’interno del quale si sviluppa il business aziendale), rendendoli informazioni di valore e ricavandone guadagno in forma diretta e indiretta. Qual è la difficoltà nel realizzarla?
Fare data monetization implica avere il controllo sui dati. La sensazione è che le aziende e le persone lo abbiano ormai perso. Senza un controllo su di essi, come è possibile monetizzare i cosiddetti data rights? Sappiamo che le aziende che non hanno il controllo sui propri digital rights possono avere seri problemi. Si pensi alla violazione (i sempre più frequenti data breach, la manipolazione dei votanti, il timore della condivisione dei dati), alla mancanza di tracciatura (i proprietari dei dati non hanno né controllo né visibilità dei propri data rights), alla mancata mobilità dei dati (ovvero la mancanza di strumenti per il trasferimento dei data rights).
Franco Saracco
sterno, per cui spesso c’è un problema di sicurezza; e infine le attività B2C, che necessitano di tenere ben strette le informazioni dei consumatori e al tempo stesso rassicurarli sul loro utilizzo. Che cosa ha fatto Gft per favorire la data monetization?
Abbiamo partecipato allo sviluppo di una piattaforma specifica che consente di rispondere in maniera efficace a tali domande. La piattaforma in oggetto è quella di OneCreation, azienda partner di Gft, di cui un inciso che ci piace molto è “monetizzare attraverso il controllo”. Gft considera questo ambito come componente importante delle proprie strategie di sviluppo.
Quali soni i casi più delicati?
Che cosa consente di fare OneCreation?
Il problema si pone in almeno tre casistiche: le organizzazioni che devono gestire moli significative di dati interni, per cui spesso è difficile anche capire dove sono memorizzati e qual è la spesa per controllarli; le organizzazioni che necessitano di condividere le informazioni all’e-
La piattaforma utilizza in modo interessante gli Smart Contracts per creare una DREAM Fabric (l’acronimo sta per Digital Rights Enfor-cement and Management) che, atomicamente e ininterrottamente, fa rispettare i data digital rights attraverso ecosistemi multipli.
Gli Smart Contracts sono in pratica degli accordi digitali, basati su input e dati del mondo reale, che ven-gono automaticamente eseguiti e fatti rispettare. Sostanzialmente tutte le regole di consumo e pubblicazione dei dati sono orchestrate attraverso degli Smart Contract. I “contributori” dei dati definiscono le necessarie autorizzazioni per i loro data rights, così come specifiche regole di pricing. I dati vengono quindi automaticamente messi a disposizione e i digital rights fatti rispettare. La soluzione è stata realizzata su Aws ma è potenzialmente disponibile su ogni cloud. In quali casi è particolarmente efficace?
Per realtà di grandi dimensioni, con strutture dati complesse, che vogliono regolarizzare l’accesso al loro interno, la piattaforma si colloca tra i dati dell’organizzazione e i consumatori di essi, facendo rispettare e tracciando i digital rights in accordo con le policy stabilite. Per le aziende che vogliono condividere i propri dati all’esterno, la piattaforma assume le vesti di un digital rights marketplace, invitando i sottoscrittori ad accedere a un ambiente sicuro e degno di fiducia. Anche qui l’obiettivo è una piena tracciatura del dato, del suo ciclo di vita, di come viene usato e da chi. Infine, p er a ziende B 2C si può usare la componente mobile della piattaforma all’interno di applicazioni esistenti. Così i consumatori sono in grado di controllare e tracciare il ciclo di vita dei propri dati con la punta delle dita, mantenendo la fiducia nell’azienda grazie a una piena trasparenza.
21
IN EVIDENZA
l’opinione
I DATI RALLENTANO LE BANCHE, MA SI PUÒ ACCELERARE Per portare nel mercato innovazione, secondo il modello dell’Open Banking, bisogna superare gli attuali ostacoli dello sviluppo software.
Sessant’anni prima che Elon Musk lanciasse una Tesla Roadster nello spazio, Luna 1 fu la prima navicella spaziale a raggiungere la “velocità di fuga”. Fino ad allora, l’enorme quantità di carburante necessaria per staccarsi dall’attrazione gravitazionale terrestre era stata il più grande ostacolo ai viaggi nello spazio. I dati accumulati negli istituti bancari sono molto simili al carburante per missili. Le enormi quantità di dati sensibili relativi a clienti e transazioni sono essenziali per competere e innovare, ma appesantiscono le banche. Oggi i consumatori si aspettano maggiore comodità, scelta e flessibilità nei rapporti con gli istituti bancari. Nei primi sei mesi del 2020 il numero di utenti di app o prodotti abilitati per l’Open Banking nel Regno Unito è raddoppiato e nel febbraio 2021 era cresciuto fino a superare i tre milioni. Le banche devono inserire rapidamente delle Application Programming Interface (Api) “aperte” nei loro modelli di business e devono fornire software innovativo più rapidamente per massimizzare i vantaggi dell’Open Banking, ma stanno lottando per accelerare. Nel frattempo, un flusso costante di nuovi dati aggrava i rischi di privacy, produttività e latenza. Un cliente Delphix ha 30.000 applicazioni disperse in una vasta gamma multigenerazionale di app moderne, che coabitano con mainframe e clientserver. Questa è la misura e la complessità che le banche devono affrontare. Devono sfruttare tutti questi dati per competere nell’ecosistema dei servizi finanziari globali in rapida evoluzione. Nel frattempo
22 |
OTTOBRE 2021
Ugo Polli
tempo Amazon, Apple e Google hanno stabilito un nuovo ritmo d’innovazione e forniscono piattaforme tecnologiche per agili Fintech e startup. Uno studio di Pulse ha rilevato che ciò che impedisce alle banche di aprire i propri dati a terzi e soddisfare le nuove normative sono, innanzitutto, il tempo e gli sforzi necessari a preservare l’integrità dei dati. Dovrebbero essere messi a sicuro prima di andare “in produzione”, ma è difficile avere visibilità su dati dispersi in una vasta architettura multigenerazionale. La ricerca ha inoltre rilevato che il 29% degli sviluppatori e dei tester si affida ai team Ops per il provisioning e l’aggiornamento manuale degli ambienti di dati, operazione che richiede in media 4,5 giorni ma può estendersi fino a mesi. Per le banche, il risultato è un collo di bottiglia. Tutto ciò è aggravato dal fatto che il 42% dei team di sviluppo/test non ha altra scelta che utilizzare dati sintetici o sottoinsiemi per colmare le lacune nella disponibilità dei dati. Tali soluzioni
alternative introducono pericoli nascosti, inclusi rischi per la qualità e la stabilità dovuti a dati obsoleti, e il potenziale di limitare severamente la copertura dei test. Le Api “aperte” accentuano l’esigenza di avere interoperabilità tra applicazioni composite e microservizi e passaggi di consegne tra fornitori di servizi, quindi questi rischi specifici sono particolarmente problematici. Per poter accelerare lo sviluppo e il test delle Api, una moderna data platform dovrebbe avere sette funzionalità fondamentali. La prima: saper importare dati da tutte le app, eseguendone la sincronizzazione e una registrazione granulare e continua delle modifiche ai dati. La seconda: rendere automatiche le operazioni complesse sui dati, relative a modifiche, aggiornamento, ripristino di versioni e condivisione delle copie. La terza: garantire la conformità dei dati, per rispettare le leggi sulla privacy e proteggere i dati finanziari. La quarta: rendere quasi istantanei i tempi di aggiornamento dei dati, per ridurre i costi di elaborazione e velocizzare i test. La quinta: garantire l’immutabilità dei dati, attraverso applicazioni sorgenti e ambienti di dati virtuali. La sesta: permettere di creare più versioni e copie indipendenti dei dati. La settima: usare lo spazio di archiviazione in modo efficiente. Abbinare la conformità dei dati con la delivery on-demand può consentire alle banche di essere all’avanguardia e di accelerare l’innovazione. Ugo Polli, presales, customer success director Emea di Delphix
ORIENTARSI NELLA GIUNGLA DEL RETAIL CON LA VISIONE INTEGRATA
Alberto Bazzi
Secondo Minsait, le piattaforme di Unified Commerce possono aiutare i retalier a gestire la complessità crescente dell’intreccio “phygital” nei canali e nelle modalità d’interazione dei clienti. Nell’ultimo anno e mezzo, i canali di comunicazione ed i touch-point utilizzati per collegare retailer e clienti sono cresciuti notevolmente. La sfida per le aziende è orientarsi e creare valore sfruttando al meglio tutti gli strumenti a propria disposizione, digitali e fisici: CRM, e-commerce, social commerce, punti vendita, processi di crosschannel, sistemi di gestione della catena di approvvigionamento e dell’inventario, applicazioni mobili, e chi più ne ha più ne metta. Progettare e realizzare una strategia phygital , che permetta di migliorare l’esperienza dei clienti, ha lo scopo di rendere l’esperienza del consumatore più semplice, senza frizioni, meno frammentata, e più coerente. Per questo motivo l’approccio omnichannel, già adottato da molti retailer, è necessario ma non più sufficiente per venire incontro alle nuove esigenze dei consumatori, più digitali e informati che mai. “Per farsi trovare pronti nell’attuale contesto ultra competitivo”, dice Alberto Bazzi, responsabile advanced technologies di Minsait in Italia, “è fondamentale concentrarsi su due fattori, il primo organizzativo e il secondo strutturale. Innanzitutto le aziende devono adottare al proprio interno un concetto di visione integrata del cliente, per collegare aree, sistemi e strategie al fine di avere dei clienti più soddisfatti. In secondo luogo è importante che i retailer si affidino alle tecnologie di ultima generazione per affrontare nella maniera più efficiente il problema dell’ipersegmentazione dei canali e creare un’esperienza utente coerente e uniforme attraverso i canali e i dispositivi”.
Secondo dati forniti da Salesforce, il 76% dei clienti si aspetta interazioni coerenti tra i diversi reparti e il 54% ha la sensazione che le vendite, il marketing e il servizio non condividano informazioni tra di loro. Questa percezione non è molto distante dalla realtà, infatti vediamo che ancora molte aziende non hanno una visione integrata e a 360° dei propri clienti. “Le aziende che riusciranno a implementare al loro interno, attraverso un cambiamento culturale, un modello di visione integrata del cliente otterranno vantaggi indiscutibili”, prosegue Bazzi. “Agiranno in modo collaborativo creando strategie che coinvolgono tutti gli stakeholder, lavoreranno in modo agile sulla base dell’integrazione di processi e aree, su dati condivisi e coesivi, daranno la priorità all’organizzazione di team multidisciplinari al fine di migliorare la customer experience. Attraverso questi accorgimenti, i consumatori saranno più gratificati e fedeli, poiché riceveranno esperienze su misura più rilevanti ed empatiche”. Per orientarsi in questa giungla di canali e touch-point phygital, le aziende devono dotarsi di piattaforme che consentano la gestione unificata degli ambienti fisici e digitali, sfruttando tecnologie come il machine learning e l’intelligenza artificiale per ottenere, ad esempio, insight in tempo reale sull’ingaggio dei consumatori verso i prodotti esposti, sullo stato del magazzino e du altri dati fondamentali per venire incontro in modo personalizzato alle richieste dei clienti. Un esempio di soluzione “olistica” è BayRetail: un’app di Unified Com-
merce, nativa su Salesforce e sviluppata da BayBridge Digital, che riunisce al proprio interno sia le applicazioni back-end sia le esperienze front-end dei retailer, al fine di fornire una migliore e più attenta organizzazione insieme a un’accurata analisi dei dati. L’obiettivo finale di questa piattaforma è quella di ottimizzare il business per le aziende e rendere i clienti più soddisfatti della loro interazione con il brand. Questa soluzione software cloud & mobile first, portata in Italia in esclusiva da Minsait, aiuta le aziende a trasformare la propria customer experience sia online sia in-store attraverso diverse linee d’azione: l’aumento della conoscenza del cliente, la gestione unificata dei pagamenti e del processo di click-and-collect, l’accesso alle informazioni sulle giacenze e la gestione degli ordini multicanale, e non ultima la possibilità di realizzare politiche di upselling e crossselling per migliorare le vendite. “Combinando la visione olisitica con le più recenti soluzioni tecnologiche”, conclude Bazzi, “le aziende potranno conquistare la fiducia del cliente moderno attraverso una customer experience nuova, più attenta alle loro esigenze e senza frizioni. L’esperienza dei consumatori nei canali di vendita phygital sarà il fattore differenziante per il successo dei retailer, capaci di creare esperienze più soddisfacenti e di maggior valore”.
23
IN EVIDENZA
SALESFORCE METTE SLACK AL CENTRO DELLE RELAZIONI CON I CLIENTI La piattaforma per la collaborazione, acquisita per 27,7 miliardi di dollari, sarà integrata trasversalmente a tutta l’offerta. Lo scorso luglio Salesforce ha finalizzato l’acquisizione di Slack per 27,7 miliardi di dollari. L’ultima edizione dell’annuale evento “Dreamforce” è servita per concretizzare il significato di questa operazione e far capire come la piattaforma collaborativa sia di fatto il nuovo perno dell’intera offerta, essendo stata integrata in tutti i prodotti Salesforce (Crm, Commerce. Tableau, Mulesoft ed Experience, tra gli altri). Slack, dunque, funge da interfaccia centralizzata per rendere più fluide le interazioni con la clientela e fra i servizi, facilitando al contempo la collaborazione fra i team nell’universo lavorativo divenuto ormai ibrido. “In questa logica, anche la sede centrale
24 |
OTTOBRE 2021
delle aziende non è più situata in una posizione geografica, ma nel cloud. Tutte le relazioni possono così essere digitalizzate e liberate dai vincoli del lavoro a distanza”, ha preconizzato Noah Weiss, vicepresidente della linea Slack in Salesforce, durante il “Dreamforce 2021”. Per realizzare questa digitalizzazione a tutto tondo, i clienti che abbiano sottoscritto l’offerta di fascia alta di Slack (Enterprise Grid) ora hanno la possibilità, tramite la funzione Slack Connect, di invitare a integrarsi alla piattaforma qualsiasi utente, anche privo di abbonamento. Salesforce ha aggiunto la funzionalità Slack Clips, che consente di realizzare video-con-
versazioni anche in modo asincrono, senza la necessità di organizzarsi attraverso una piattaforma specializzata, come Zoom, Webex o Teams. La novità serve a semplificare la creazione e la condivisione di registrazioni audiovideo, con o senza cattura dello schermo, su tutti i canali di chat. “In questo modo, non sarà più necessario coordinare le agende per trovare un momento in cui tutti sono disponibili”, ha spiegato Weiss. “Basta registrare una clip e poi condividerla in un canale, consentendo ai colleghi di guardarla e rispondere quando vogliono. Inoltre, vengono automatizzati la trascrizione e l’indicizzazione del parlato, così come la sottotitolazione”. L’integrazione con altre componenti dell’offerta si concretizza innanzitutto con Commerce, per sincronizzare all’interno dello strumento qualunque modifica (lancio di una campagna, data di scadenza di una promozione, diminuzione o aumento degli indicatori di audience, vendite e così via), e allo stesso modo con Cms Experiences. Inoltre, la nuova componente Flow for Slack consente ad amministratori IT e sviluppatori di creare flussi di validazione end-to-end in modalità low-code (cioè senza la necessità di azioni di complessa programmazione), mentre App Builder for Slack permette di creare applicazioni che si sincronizzano con i dati di Salesforce. Al di fuori del mondo “Slack-centrico”, una novità è il servizio di streaming Salesforce+, che propone contenuti di formazione tramite il canale video, reportage, esperienze live, testimonianze di innovazione e altro. Il vendor, poi, ha annunciato di aver raggiunto le zero emissioni di CO2 e di utilizzare per le proprie operazioni il 100% di energie rinnovabili. R.B.
TECHNOPOLIS PER HP
HP+, UNA SOLUZIONE SMART PER IL “NEW NORMAL” In un periodo in cui l’elevata richiesta di stampa viene trainata da milioni di persone che lavorano e studiano da casa, la soluzione di HP modernizza l’esperienza d’uso e garantisce produttività e sostenibilità.
La crisi sanitaria del 2020-21 ha certamente trasformato le modalità di lavoro e di studio. Paradossalmente, nonostante la spinta alla digitalizzazione, molte attività richiedono ancora l’utilizzo di documenti stampati, spesso in ambiti lavorativi nel frattempo divenuti più remotizzati e destinati a restare tali, almeno in parte, anche in futuro. Per allineare al nuovo scenario anche le soluzioni di stampa, HP ha messo a punto HP+, soluzione che si propone di rendere più smart e flessibili i processi, in connessione diretta con il cloud. "HP+ rappresenta un passaggio fondamentale nell’esperienza del printing", ha dichiarato Rossella Campaniello, printing system business director di HP Italy. "Abbiamo riunito le nostre migliori innovazioni in ambito stampa in una soluzione smart dedicata ai professionisti e alle piccole imprese, che si compone di tre elementi chiave: un hardware leader di categoria rappresentato dalle nuove stampanti HP; HP Instant Ink, uno dei più diffusi servizi di approvvigionamento di materiali di consumo, che ora include il toner; e
infine l'app di stampa fra le migliori del settore, ora nel cloud. Ciascuna delle componenti di HP+ è stata progettata per una migliore esperienza e per rispondere alle crescenti esigenze di chi si affida sempre di più alle proprie stampanti”. HP+ consente di lanciare stampe ovunque e da ogni luogo tramite l’applicazione HP Smart, senza la necessità di essere collegati alla stessa rete Wi-Fi della stampante. Grazie alla funzione Private Pick-Up è anche possibile programmare il processo e renderlo esecutivo, via Bluetooth, solo quando gli utenti interessati si trovino in prossimità del dispositivo di output. HP+ inoltre permette di rimanere connessi e in sicurezza grazie a nuove funzionalità per individuare e risolvere automaticamente problemi di connettività e rilevare e prevenire attacchi malware. La soluzione HP+ funziona solo con le nuove stampanti dell'azienda: dalla nuova serie HP LaserJet M200, vincitrice del premio Red Dot per il design, alle serie HP OfficeJet Pro 8000e e 9000e, DeskJet 2700e e 4100e e alle serie ENVY 6000e e 6400e. Altri dispositivi saranno aggiunti alla lista in futuro. Condizione indispensabile per accedere al servizio è disporre di un account HP, avere una connessione Internet e utilizzare cartucce originali HP. HP offre anche un secondo anno di garanzia commerciale sui dispositivi e sei mesi di abbonamento incluso ad HP Instant Ink, il servizio di approvvigionamento automatico dell’inchiostro e dei toner. Oltre alla richiesta di soluzioni basate sul cloud e di abbonamenti convenienti, gli utenti professionali hanno imparato a fare affidamento sulla “mobile-experience”. Con HP Smart App, che conta più di 48 milioni di utenti attivi mensili, si ha la possibilità di stampare e scansionare praticamente da qualsiasi luogo. Con HP+ si può usufruire delle funzioni HP Smart Advance, come la scansione avanzata, il fax mobile e le funzioni di produttività per 24 mesi, oltre ad accedere facilmente a Google Drive, Dropbox e altro ancora. A conferma dell’impegno di HP a favore dell’ambiente, le stampanti HP+ utilizzano cartucce e toner progettati secondo criteri di sostenibilità. Infine, HP promuove, ove disponibile, il riciclo closed-loop delle cartucce e inoltre converte sempre le cartucce d'inchiostro usate per crearne di nuove.
25
ITALIA DIGITALE
Foto di StartupStockPhotos da Pixabay
REGIONI, GLI INTERMEDIARI DELLA DIGITALIZZAZIONE Gli enti locali non possono essere lasciati soli nel percorso di trasformazione digitale dei servizi al cittadino. Serve un mediatore, che li aiuti a restare al passo con la PA centrale.
N
egli ultimi anni c’è stato un importante cambiamento di approccio nell’attuazione della trasformazione digitale in Italia. Si è passati dal definire progettualità di sviluppo con finanziamenti assegnati ai territori su larga scala in assenza di un quadro univoco di indirizzo dal livello centrale (la prima fase e-gov, con i finanziamenti soprattutto orientati a progetti di portali Web e di servizi online), per arrivare poi alla definizione di linee guida e framework di riferimento entro cui le amministrazioni potevano muoversi (il Piano Triennale e le Linee Guida del Team Digitale e di AgID ne sono l’esempio più efficace) e infine a realizzare vere e proprie piattaforme uniche nazionali che erogano servizi dal livello centrale (come Anpr, Spid, pagoPA, app IO e Pdnd, la Piattaforma Digitale Nazionale Dati) e con cui i diversi sistemi informativi degli enti devono interfacciarsi. Si è così venuta a creare la prima vera discontinuità nel percorso di digitalizzazione del Paese, uniformando finalmente in modo netto e 26 |
OTTOBRE 2021
deciso per l’intero livello nazionale alcuni asset di base e i relativi servizi ai cittadini. Contemporaneamente, cercando di aggiungere al punto di vista di livello nazionale anche quello dei territori, occorre tenere in considerazione anche altri aspetti. I passi ancora da compiere
Il framework di servizi abilitati da Spid, pagoPA e app IO ancora non copre il 100% dei servizi pubblici digitali degli
Gianluca Vannuccini
enti locali. Ci sarà dunque ancora molto da lavorare, seguendo il percorso delineato dalle recenti linee guida per il Punto di Accesso Telematico, e molto da collaborare fra territori ed enti centrali per poter arrivare a una uniformazione dei frontend digitali della Pubblica Amministrazione che tenga conto dei sistemi esistenti e delle piattaforme uniche di livello nazionale. Il paradigma mobile-first aiuta sicuramente nel cambiare approccio e nel portare le semplificazioni estreme che i cittadini e le imprese giustamente esigono, ma ci sono ancora molte azioni da fare su procedimenti amministrativi, la modulistica nazionale, regionale e locale e sui relativi processi di digitalizzazione ed automazione, prima di poter inserire il 100% dei servizi digitali di un ente sulla app IO. Inoltre, dialogare con queste piattaforme nazionali richiede sviluppi negli applicativi gestionali degli enti: queste piattaforme evolvono con lo stato della tecnologia e con le trasformazioni normative nazionali ed europee, per cui occorre un lavoro di allineamento perio-
dico fra gli sviluppatori di queste piattaforme nazionali, gli enti dei territori e i relativi fornitori. È quindi sempre più importante entrare in una logica di collaborazione e comunicazione bidirezionale fra pagoPA Spa e gli enti, sia nell’ordinario (per aprire canali sempre più rapidi di dialogo in caso di problematiche lato cittadini) sia nella pianificazione (per poter programmare per tempo gli sviluppi sui gestionali in modo da essere rispondenti alle nuove release delle piattaforme nazionali). Infine, last but not least, tutto questo scenario, dinamico, complesso, ma molto innovativo e orientato alla uniformazione dei front-end e dei servizi della PA si scontra con una situazione dei territori in cui, nella stragrande maggioranza dei casi, i piccoli Comuni sono soggetti a forti vendor lock-in con i fornitori di software. È chiaro che se sono questi medesimi fornitori a dialogare con le piattaforme nazionali, e se non c’è un presidio da parte degli enti nei processi di interconnessione con queste piattaforme, allora il vendor lock-in sarà sempre più vincolante per gli enti. È altrettanto vero che i Comuni e gli organismi territoriali, in costante carenza di organico, sono sommersi da una moltitudine di problematiche quotidiane su centinaia di servizi pubblici (digitali o meno) e che comprendere le loro esigenze e processi per una completa digitalizzazione è un’attività da svolgersi in modo costante e permanente. Un’attività che richiede conoscenza dei contesti dei territori e che idealmente sarebbe bene fosse presidiata da colleghi che lavorano in Pubbliche Amministrazioni, piuttosto che da fornitori o consulenti di fornitori. Il ruolo delle Regioni
Ecco dunque definirsi, anche in vista della programmazione per il 2021-2027, del Prnn e delle nuove sfide che ci aspettano, per le Regioni un ruolo di intermediari consolidati verso i territori, fondamen-
talmente su tre ambiti. In primo luogo, a supporto dell’attuazione delle politiche di digitalizzazione del Paese, con presidio costante delle esigenze anche del più piccolo dei Comuni. In secondo luogo, nella realizzazione di piattaforme di intermediazione che traghettino gli enti locali verso le piattaforme nazionali, senza renderli dipendenti totalmente dal prodotto del vendor di turno, il cui cambio verso un altro fornitore richiederebbe uno sforzo che il singolo Comune non è attrezzato per gestire. Infine, come propulsori di progettualità allo stato dell’arte che portino nei territori e anche nei Comuni più piccoli le innovazioni introdotte dal livello europeo e nazionale, innovazioni che senza una intermediazione pubblica “vicina” al territorio il piccolo Comune avrebbe ben poche chance di conoscere. Ma come si può concretizzare il ruolo di intermediari delle Regioni sui diversi ambiti del Pnrr? Per quanto riguarda la banda ultralarga, come intermediari fra i Comuni, il Ministero dello Sviluppo Economico e Infratel nell’assicurare che ogni territorio sia coperto e previsto nelle mappature in corso di definizione da parte degli enti centrali. Sugli sviluppi legati al 5G e alle nuove tecnologie wireless, nel fare da stimolo con i territori per produrre progettualità, applicazioni, e sinergie con Internet of Things e altre reti wireless. Sulla migrazione al cloud, nel valorizzare i data center presenti sulle varie Regioni come satelliti interconnessi al Polo Strategico Nazionale, costituendo una rete nazionale federata di data center pubblici di alta qualità e massima sicurezza, secondo indicazioni e standard europei e nazionali. Sui servizi online come piattaforme condivise e multi-ente, in sinergia costante con app IO, valorizzando le piattaforme promosse finora, sviluppandone di nuove, implementando semplificazioni sempre più efficaci e usando nuove metodologie di snellimento procedurale. Quest’ultimo sarà uno
dei prossimi fronti su cui sarà indispensabile attuare un’innovazione significativa, trasformando il concetto di modulistica orientata al cartaceo verso una interoperabilità sempre più automatizzata e basata su dati strutturati tra sistemi nazionali, regionali e locali di erogazione di servizi online. Sulla cybersecurity e la protezione dei dati personali, il ruolo di intermediario delle Regioni può essere quello di diffusori nei territori di indicazioni, buone pratiche e linee guida promosse dalle Agenzie nazionali, ma anche quello di erogatori di servizi di assessment, informazione e formazione a supporto di tutti i Comuni e gli enti regionali, creando comunità e reti di colleghi in costante aggiornamento. Sui dati, l’intermediazione può assumere la forma di piattaforme data lake regionali connesse al Pdnd in modo bidirezionale e inoltre le Regioni possono diffondere nuovi modelli di cooperazione applicativa per i piccoli Comuni. Infine, possono essere dei propulsori per le competenze digitali. La molteplicità degli ambiti di intervento fa comprendere la portata della sfida a cui la Pubblica Amministrazione, in tutti i suoi livelli, è chiamata. Le Regioni possono svolgere un ruolo baricentrico, di cerniera tra le esigenze dei territori più fragili e periferici e lo stato centrale. Mettere i territori, tutti, nelle condizioni di poter competere allo stesso livello con le sfide globali è un compito ambizioso, che dovrà guidare l’azione dei governi regionali. Gianluca Vannuccini, direttore, direzione Sistemi Informativi, Infrastrutture Tecnologiche e Innovazione della Regione Toscana (Intervento tratto da “Digital Italy 2021. La resilienza del digitale”, T h e Innovation Group, ed. Maggioli)
27
LA PA PUÒ RINASCERE CON L’INTELLIGENZA ARTIFICIALE
L
a pandemia ha fatto emergere con chiarezza l’importanza del tema della qualità del sistema PA e della sua efficacia. L’attenzione sui beni essenziali, come la salute, le relazioni sociali o gli spazi comuni, ha portato a una rivalutazione delle istituzioni pubbliche quali garanti e principali soggetti detentori della possibilità di miglioramento di tali beni. Dopo anni in cui la Pubblica Amministrazione era rimasta al margine dell’agenda politica e ignorata da parte dell’opinione pubblica, ora emerge in modo chiaro che è giunto un tempo in cui si può e, anzi, si deve tornare a investire nella PA. Le opportunità che gli strumenti digitali offrono non vanno sprecate, anzi rappresentano una risorsa fondamentale. Più ancora della tecnologia contano però le persone, le quali sono la principale leva del successo o insuccesso di questa impresa. L’impiegato che meccanicamente respinge il cittadino poiché “il modulo non è compilato a dovere”, perché “la situazione presentata non rientra tra i casi previsti dalla circolare”, perché “nel nostro procedimento questo imprevi28 |
OTTOBRE 2021
sto non è processabile” non dà forse il tipo di risposte che meno apprezziamo ma che rappresentano bene l’attuazione pratica di un modo di regole che escluda lo spazio discrezionale? E in fondo, non è la stessa deviazione “fanatica” di una digitalizzazione che prenda le decisioni al nostro posto? L’umanità della tecnologia
La segreta speranza che esista un “algoritmo”, una “procedura” che elimini la responsabilità, la professionalità e l’innovazione è però il preludio di una bu-
Michele Bertola
Un approccio “umano-centrico”, abbinato alla tecnologia, potrebbe trasformare i rapporti fra cittadini e Pubblica Amministrazione.
Foto di Tara Winstead da Pexels
ITALIA DIGITALE | Perpiciatis
rocrazia cieca e disumana, e lo raccontano bene film come Io, Daniel Blake di Ken Loach e Le invisibili di LouisJulien Petit. Questa narrazione della PA ha inoltre generato nella società civile una spasmodica ricerca di trovare la “falla” al sistema per poter avanzare ricorsi giuridico-formali a ogni livello. Nella mente di qualche esperto di Ict c’è tuttavia l’idea che si possa arrivare ad avere macchine che possano prendere tutte le decisioni possibili, relegando sempre in via residuale la grande ed esclusiva prerogativa della responsabilità personale della quale solo l’essere umano è dotato, ma che tanta fatica richiede per essere utilizzata. Anche se lo abbiamo pensato non è difficile immaginare come una applicazione incentrata esclusivamente su freddi algoritmi e rigide norme procedurali prefiguri scenari da incubo. Per dirla ancora con i film, pensiamo al lontano ma visionario 2001, odissea nello spazio di Stanley Kubrick o alla più recente serie dei film Matrix di Lana e Lilly Wachowski. Il rischio relativo alla Pubblica Amministrazione è che si generi un mix disa-
stroso tra i limiti potenziali di un’applicazione spinta della digitalizzazione e i limiti storico-culturali insiti nella PA stessa. Questo è proprio ciò che dobbiamo evitare! Il “mito” che tutto possa essere definito da norme, che possa esserci l’assenza assoluta di soggettività e che venga esclusa ogni forma di discrezionalità ci ha portato ad una ipertrofia delle norme, dei controlli, dei ricorsi. Questo assioma è probabilmente anche all’origine della prevalenza della professionalità “giuridica” presente tra i funzionari della PA a scapito di altre specializzazioni che forse aiuterebbero ad avere attenzione alle diverse dimensioni alla persona, all’originalità e specificità delle singole situazioni. È innegabile che sia necessario l’innesto di robuste e numerose professionalità tecniche nel campo della digitalizzazione, ma occorre evitare che tale operazione generi un mostro peggiore dell’attuale. Le enormi opportunità che la tecnologia mette a disposizione non devono escludere ma anzi devono incentivare la ricerca della personalizzazione, della responsabilità, della relazione, della prossimità e della fiducia. Le potenzialità della digitalizzazione devono essere viste in quest’ottica perché solo così la “sfida etica” che sottostà alla introduzione della Intelligenza Artificiale nella PA può essere vinta. Valutare gli impatti con l’AI
Un primo grande limite intrinseco nella PA è quello di non valutare gli “impatti” del proprio agire, né in fase di progettazione né in fase di verifica o rendicontazione. Il limite non è tecnico ma culturale. Quando viene attuato un intervento, un’opera pubblica, un servizio, tutta l’attenzione si concentra sulla fase di progettazione, poi sul rispetto delle procedure amministrative. A volte, addirittura, il successo o il risultato raggiunto lo si identifica con l’appro-
vazione dell’atto amministrativo. Nel migliore dei casi si arriva a verificare se costi e tempi preventivati siano stati rispettati, mai invece si prova a misurare gli impatti dell’azione intrapresa. Anche il percorso del Pnrr mostra gli stessi limiti: diversi osservatori (ad esempio Asvis) hanno fatto notare che nell’attuale formulazione è trascurato il tema della individuazione e misurazione degli impatti del piano, contrariamente alle indicazioni dell’Europa. Lo stesso libro bianco dell’Agenzia per l’Italia Digitale richiama la necessità di misurare l’impatto della tecnologia nell’esistenza degli individui e delle organizzazioni, nelle sue “diverse sfaccettature, economiche e tecniche, ma anche sociali, culturali, psicologiche e antropologiche”. Con le opportunità derivanti dalla digitalizzazione, dall’interoperabilità dei dati e dalle applicazioni di intelligenza artificiale si possono ipotizzare alcune opportunità. In fase di progettazione di un’opera pubblica quanto potrebbero essere utili infatti, simulazioni attivabili con un’implementazione della AI finalizzata a prefigurare gli impatti. Il parco pubblico, la strada, il campo sportivo, la scuola, la pubblica illuminazione sono spesso progettati solo riferendosi in maniera precisa agli aspetti di tipo architettonico o ingegneristico senza mettere altrettanta attenzione all’impatto che questa opera genererà sulle relazioni, sull’ambiente, sulle interazioni con quanto già esistente nel territorio. Nei casi più innovativi viene messa in campo almeno un’interazione di tipo partecipativo con i cittadini e i portatori di interesse, ma anche qui senza un vero utilizzo di tutti i dati esistenti e rinvenibili per guidare un confronto reale sugli impatti. In questo modo, anche la partecipazione diventa un confronto ideologico o di misurazione del potere di influenza delle realtà locali. Al contrario, un confronto sulla simu-
lazione degli impatti sarebbe più proficuo. Questo approccio permetterebbe anche di fare tesoro delle esperienze per modificare la programmazione ed evitare di ripetere errori. L’attenzione agli impatti aiuterebbe, inoltre, a far comprendere meglio i disagi che alcuni interventi arrecano in fase di costruzione. Un digitale che crea “bellezza”
L’esperienza della PA locale in questa fase di emergenza è stata determinante per affrontare sfide nuove in uno scenario emergenziale. Nella fase di realizzazione del Next Generation EU potrà e dovrà far leva sulle grandi opportunità che la tecnologia mette a disposizione per riappropriarsi appieno di un ruolo che per troppo tempo è stato dimenticato. Ciò però avverrà se le persone saranno poste al centro. Relazioni, prossimità, fiducia dovranno necessariamente essere i criteri guida di questo processo. Credo che il connubio tra intelligenza artificiale e PA, se ben guidato, potrà dare vita a un sistema virtuoso in grado di creare non solo economie di scala ma anche e soprattutto una nuova società del benessere inteso nel senso più ampio. Tutto ciò che sapremo creare per semplificare la vita, per togliere adempimenti, per far risparmiare tempo inutile ai cittadini andrà reinvestito. Ma dovrà essere reinvestito in “bellezza”, ciò di cui abbiamo bisogno. Con le conoscenze fornite dalla digitalizzazione e con le persone che costituiscono la PA faremo, teatri, musei, parchi, piste ciclabili... Insomma, bellezza. Michele Bertola, direttore generale del Comune di Bergamo e presidente di Andigel (Intervento tratto da “Digital Italy 2021. La resilienza del digitale”, The Innovation Group, ed. Maggioli)
29
INFRASTRUTTURE
MISSIONE AUTONOMIA PER IL CLOUD NAZIONALE La “migrazione” dei servizi della Pubblica Amministrazione centrale e locale è inevitabile, ma dovrà avvenire senza mettere a repentaglio il controllo e la sicurezza dei dati.
P
er la Pubblica Amministrazione italiana il cloud è un passaggio obbligato, inevitabile. Nei prossimi anni le infrastrutture on-premises, cioè i data center interni, dovranno essere progressivamente abbandonate, con un tasso di rinnovamento che sarà monitorato e che dovrà sottostare a scadenze ben precise. La cosiddetta “migrazione” in cloud non dovrà però avvenire con una perdita di controllo su dati e servizi acquisiti, una perdita di sovranità sul mondo digitale (fatto che oggi, invece, si sta realizzando in altri ambiti). La nuvola italiana avrà bisogno innanzitutto di una cosa: la sicurezza, affiancata a garanzie di controllo sui dati. È questo il tema al centro del piano Strategia Cloud Italia presentato a inizio settembre dal ministro per l’innovazione tecnologica e la transizione digitale, Vittorio Colao. La strategia parte da un’analisi dei principali rischi che nell’attuale contesto l’impiego del cloud comporta e punta a individuare le soluzioni che minimizzano gli impatti negativi di questa scelta. La costituzione del Polo Strategico Nazionale avrà proprio 30 |
OTTOBRE 2021
lo scopo di garantire servizi e infrastrutture collocati sul territorio nazionale, sotto il diretto controllo delle agenzie deputate all’innovazione e alla sicurezza per il Paese. La scelta di garantire un monitoraggio costante non solo su infrastrutture gestite sul territorio, ma anche sui servizi erogati da cloud provider internazionali, va nella direzione di un’importante presa di controllo sulla situazione attuale. Il riferimento diretto a legislazioni di dati esteri che pregiudicano la sovranità sui dati strategici italiani (vengono citati direttamente la National Intelligence Law della Repubblica Popolare Cinese, il Clarifying Lawful Overseas Use of Data Act, meglio noto come Cloud Act, e il Foreign Intelligence Surveillance statunitensi) è la presa di coscienza nazionale sul rischio che corriamo come Paese di perdere il controllo su informazioni critiche. Autonomia, controllo e continuità
Oggi è acceso il dibattito su chi si aggiudicherà i lavori di realizzazione dei data center e l’erogazione dei servizi, considerate le risorse in gioco: 1,9 miliardi di euro messi a disposizione dal
Piano Nazionale di Ripresa e Resilienza (Pnrr), divisi tra infrastrutture e processi di migrazione. Ma a prescindere da questa questione, le indicazioni giunte da Colao indicano alcuni principi generali importanti. Il primo è l’autonomia tecnologica, indicata come un obiettivo non facile da raggiungere, considerando che i fornitori di servizi di cloud computing europei hanno attualmente una quota di mercato inferiore al 10%. Alla luce di questa situazione, i rischi che le PA italiane possano essere soggette a modifiche unilaterali delle condizioni dei contratti non possono essere trascurati. Così come sarà difficile governare lo sviluppo di questi servizi, la loro interoperabilità con un intero ecosistema alternativo di tecnologie, se la produzione dei servizi stessi è affidata a terzi, addirittura ad aziende non europee. Il secondo elemento da prendere in considerazione è il controllo dei dati: il documento ministeriale riporta che bisogna “assicurare che i dati gestiti dalla PA non siano esposti a rischi sistemici da parte di fornitori extra Ue, ad esempio l’accesso da parte di governi di Paesi terzi”. Il terzo rischio
è quello delle garanzie di continuità offerte dal cloud: è necessario quindi prevedere soluzioni procedurali e tecniche per incrementare sicurezza, ridondanza, interoperabilità. Si afferma che bisogna “innalzare il livello di resilienza nei confronti di incidenti, ad esempio cyber, e/o guasti tecnici, attraverso controlli di sicurezza e requisiti che garantiscano la continuità di servizio”. I pilastri della strategia italiana
Come progettare, quindi, un cloud nazionale accessibile e sicuro? Gli indirizzi strategici indicati da Colao sono volti a favorire un uso del cloud il più possibile conforme alle norme europee, svincolato da interferenze esterne, disegnato per proteggere dati critici da malfunzionamenti e incidenti di cybersecurity. La soluzione individuata si basa su tre pilastri. Il primo è la classificazione dei dati e servizi, che saranno suddivisi fra “strategici” (cioè di impatto diretto sulla sicurezza nazionale, come il bilancio dello Stato), “critici” (rilevanti per la società, per esempio quelli relativi a salute dei cittadini e al benessere economico e sociale) e “ordinari” (se vengono a mancare, non causano l’interruzione di servizi essenziali). Questa classificazione è un passaggio importante perché da essa dipende la scelta dello specifico servizio cloud da utilizzare. A seconda dell necessità di proteggere più o meno specifici dati, essi saranno posizionati su cloud
IDENTIKIT DEL POLO STRATEGICO NAZIONALE Per portare in cloud i dati e i servizi critici e strategici delle circa duecenti amministrazioni centrali italiane, delle Aziende Sanitarie Locali e delle principali amministrazioni locali (Regioni, città metropolitane e comuni con più di 250 mila abitanti) servirà innanzitutto una cosa: un’infrastruttura pronta a ospitarli. Non un unico data center ma un insieme di data center, che dovranno essere distribuiti sul territorio nazionale “presso siti opportunamente identificati, per garantire adeguati livelli di continuità operativa e tolleranza ai guasti”, ha spiegato il ministero per l’Innovazione tecnologica e la transizione digitale, Vittorio Colao, sottolineando che il Polo Strategico Nazionale (Psn) dovrà innanzitutto “garantire la sicurezza e l’autonomia tecnologica sugli con livelli di sicurezza diversi. Il secondo pilastro è la realizzazione di un processo sistematico di scrutinio e qualificazione dei servizi cloud utilizzabili dalla Pubblica Amministrazione. Tale procedura avrà lo scopo di individuare il livello di sicurezza e compliance, dettagli operativi che permettano di verificarne a priori (prima ancora dell’acquisizione del servizio da parte delle PA) la rispondenza ai bisogni effettivi. La strategia colloca già alcuni
I PUNTI CHIAVE DEL PIANO • Classificazione dei dati e dei servizi: definizione di un processo di classificazione dei dati per guidare e supportare la migrazione dei dati e servizi della PA sul cloud. • Qualificazione dei servizi cloud: realizzazione di un processo sistematico di scrutinio e qualificazione dei servizi utilizzabili dalla PA. • Polo Strategico Nazionale: creazione di un’infrastruttura nazionale per l’erogazione di servizi, gestita e controllata senza l’interferenza di soggetti extra Ue.
asset strategici per il Paese”. La sua creazione avverrà sotto la guida del Dipartimento per la trasformazione digitale, mentre la gestione dell’infrastruttura sarà affidata a “un operatore economico selezionato attraverso l’avvio di un partenariato pubblico-privato”. Non sarà questa, tuttavia, l’unica futura “casa” dei dati della PA italiana. La strategia annunciata da Colao prevede che le sotto la gestione diretta del Psn finiscano le infrastrutture che attualmente assicurano l’erogazione dei servizi strategici delle PA centrali. Quelle che, invece, veicolano i servizi ordinari degli enti pubblici dovranno essere razionalizzate e modernizzate: bisognerà dismettere i data center obsoleti e spostare i servizi su differenti infrastrutture, più sicure ed efficienti. V.B. attori del mercato come “non qualificati”: sono i cloud provider, europei e non, che non rispondono alle norme Ue sulla privacy (il Gdpr) e sulla sicurezza delle infrastrutture e delle reti (la direttiva Nis) e quelli che non si adeguano a criteri tecnici e organizzativi ritenuti essenziali. Per esempio, operatori che non consentono una localizzazione dei dati critici (come quelli sanitari) all’interno dell’Unione Europea, o quelli che non permettono alla Pubblica Amministrazione di adottare meccanismi di sicurezza minimi (come la cifratura dei dati gestita on-premise e integrata su cloud pubblico). Il terzo, fondamentale, pilastro della strategia è la creazione del Polo Strategico Nazionale (Psn), cioè dei data center da cui i servizi saranno erogati: la loro gestione e controllo dovranno essere autonomi dalle ingerenze di soggetti non europei. Elena Vaciago 31
INFRASTRUTTURE
PROMESSE AMBIZIOSE NEL FUTURO DELLA PA
Marcello Fausti
La Strategia Cloud Italia avrà successo? Con Marcello Fausti, head of cybersecurity di Italiaonline, abbiamo discusso dei punti di forza e di debolezza del progetto.
P
er rendere più moderna ed efficiente la Pubblica Amministrazione, secondo molti osseratori il cloud computing è l’unica strada percorribile: la cosiddetta “nuvola informatica” permette di semplificare e ottimizzare la gestione delle risorse informatiche nonché di facilitare l’adozione di nuove tecnologie digitali, ed è quindi un building block fondamentale nei processi di trasformazione in corso. Ma come poter garantire la sicurezza ai dati e ai servizi che la PA italiana porterà in cloud? La strategia scelta dal governo ha buone probabilità di successo? E quali sono i punti critici? Ne abbiamo discusso con Marcello Fausti, head of cybersecurity di Italiaonline.
Su quali principi si basa la strategia lanciata dal ministro Colao?
L’idea di base della Strategia Cloud Italia è quella di disegnare e realizzare alcuni “contenitori cloud”, caratterizzati da diversa collocazione e livelli di sicurezza, verso cui trasferire i dati della Pubblica Amministrazione in base alla loro importanza, sensibilità, criticità o strategicità. Più il dato è importante e più blindato sarà il contenitore destinato ad accoglierlo. A questa logica sono asserviti i tre pilastri della Strategia: la classificazione dei dati da migrare in cloud; la scelta di quattro diverse tipologie di configurazione cloud, ciascuna asservita a uno specifico cluster di dati;
32 |
OTTOBRE 2021
la scelta di una governance forte incarnata dal Polo Strategico Nazionale, che vede la compresenza del Ministero per l’Innovazione Tecnologica e dell’Agenzia Nazionale per la Cybersicurezza nella definizione delle linee guida e nella validazione degli interventi. Questo approccio sarà facile da gestire oppure no?
Tutto sommato è un’idea relativamente semplice, in cui l’adozione di controlli di sicurezza è guidata principalmente dall’impatto potenziale della perdita o compromissione dei dati della PA in luogo di un ragionamento basato sul rischio, che chiama immediatamente in causa anche riflessioni sulla probabilità che si verifichi un evento avverso, sugli agenti di minaccia e sulle vulnerabilità.
È sostanzialmente come acquistare un armadio con serratura in cui riporre i giocattoli dei bimbi e tre casseforti con livello di robustezza crescente in cui riporre le nostre cose in ordine di valore. Ovviamente, nell’ultima custodiremo i gioielli di famiglia. A che cosa dovranno fare attenzione il ministero e l’Agenzia per la Cybersicurezza Nazionale per garantire sicurezza e resilienza?
Sposando l’idea della semplicità (perché è probabilmente l’unica applicabile a un contesto così complesso) dal
UNA “CASA” PIÙ MODERNA E SICURA
punto di vista della sicurezza credo che il Polo Strategico Nazionale e l’Acn debbano porre estrema attenzione nella definizione delle regole di ingaggio con i soggetti, qualificati e no, che faranno parte della strategia cloud. Mi riferisco, in particolare ai temi dello shared responsibility model (modello di responsabilità condivisa, n.d.r.), della trasparenza e della tempestività delle comunicazioni in caso di problemi. Oggi nel cloud pubblico queste garanzie non sono sempre semplici da ottenere. Dal punto di vista della sicurezza sarà altrettanto importante che un sistema così articolato sia supportato da un’organizzazione centrale collocata all'interno del Polo Strategico Nazionale, incaricata di effettuare i monitoraggi real-time dei file di log, di presidiare la gestione delle identità e dell’accesso, di eseguire le attività di threat intelligence, di configurare e monitorare i sistemi di protezione volumetrici e applicativi (L3 e L7) e di supportare la gestione delle vulnerabilità. Insomma, tutte quelle attività
che di solito sono svolte dalle strutture di cybersecurity ma che, data l’importanza della sfida, vedrei concentrate in un punto diverso dai singoli soggetti qualificati e affidatari di una porzione (piccola o grande che sia) del Cloud Nazionale. C’è qualche criticità a livello di realizzazione?
Il progetto delineato nella strategia nazionale è molto ambizioso. È un progetto di infrastrutturazione di elevata complessità tecnologica che si pone degli obiettivi temporali molto sfidanti. Dominare la complessità tecnologica nel rispetto dei requisiti di sicurezza obbligatori non sarà sufficiente a garantire il successo del progetto. Parallelamente alla realizzazione dell’infrastruttura e alla messa a punto dei suoi meccanismi di gestione, sarà necessario investire tempo e risorse per garantire che i piani di migrazione vadano a buon fine nei tempi previsti e senza impatti o con il minor impatto possibile. Questa mi sembra la sfida più rilevante. E.V.
I lockdown del 2020 non hanno fatto che accentuare la tendenza globale alla migrazione in cloud già in atto, specialmente nel settore privato ma anche in quello pubblico. E in effetti anche nella Pubblica Amministrazione italiana ci sono stati esempi virtuosi di adozione rapida dello smart working di massa, come quelli dell Ministero del Lavoro e di Istat. Ma c’è stato anche l’episodio non edificante del collasso del portale dell’Inps, che nel "click day" 1° del aprile 2020 non ha retto il peso di un traffico in entrata superiore alle previsioni. Questo squarcio sulle magagne dell’IT della Pubblica Amministrazione, d’altra parte, è un po’ il segreto di Pulcinella. Il censimento 2018-2019 di AgID, l’Agenzia per l’Italia digitale, già aveva evidenziato carenze nei requisiti minimi di sicurezza per il 95% dei data center della Pubblica Amministrazione sui 1.252 analizzati. Per uscire da questa situazione ora le risorse non ci mancano: per il piano Strategia Cloud Italia ci saranno a disposizione 6,7 miliardi di euro del Pnrr, che dovranno servire a realizzare “una casa moderna per i dati degli italiani”, per citare le parole di Colao, “una casa flessibile, con stanze diverse, ma tutte con lo stesso livello di sicurezza”. V.B.
33
LA VIA ITALIANA ALLA MOBILITÀ CONNESSA
Photo by JESHOOTS.COM on Unsplash
ITALIA DIGITALE SMART MOBILITY| Perpiciatis
Nuove tecnologie, ma anche una ripartenza dei servizi di car sharing (e affini): lo scenario dipinto da una ricerca di Octo Telematics e The European House – Ambrosetti.
N
uovi modelli di consumo e nuovi stili di vita, l’emergere di una sensibilità ambientale, una diversa concezione d’uso dei trasporti: negli ultimi anni tutte queste trasformazioni hanno travolto il settore della mobility. Ciononostante, l’Italia rimane il secondo Paese europeo per numero di veicoli di proprietà per abitante: sono 663 ogni mille persone, valore che supera di molto quello di altri Paesi europei come Germania (574), Spagna (519), Francia (482) e Regno Unito (473). Continuiamo quindi a dipendere dall’automobile, che da sola si fa carico di circa l’80% del traffico totale dei passeggeri. In seguito alla pandemia, però, sono avvenuti mutamenti che non si misurano soltanto in questi numeri: sono cambiate le aspettative delle persone legate all’esperienza di viaggio. Come riporta il rapporto “Connected Mobility 2025. La via italiana alla mobilità connessa”, presentato da Octo Telematics e The European House – Ambrosetti, sem34 |
OTTOBRE 2021
pre più gli italiani desiderano un’esperienza di mobilità piacevole, arricchita da intrattenimento. Cerchiamo di mantenere un’elevata produttività durante gli spostamenti ma siamo anche attenti ad aspetti di benessere durante il viaggio, così come alle connessioni sociali, alla riduzione dell’impatto ambientale e alla riservatezza sui dati personali. La trasformazione delle abitudini di viaggio inoltre ha subìto un’accelerazione durante la pandemia: nel giro di un anno, il 33% degli italiani ha cambiato le proprie preferenze di mobilità in termini di frequenza, orari e tipo di mezzo; l’utilizzo dell’autovettura privata e lo spostamento a piedi sono diventate le modalità più frequenti nel post covid e attualmente il 51% dei cittadini sta ancora limitando i propri spostamenti nel tempo libero e per attività di svago. Veicoli sempre più digitali
Nei prossimi anni, è stato sottolineato, otto tecnologie giocheranno un ruolo chiave nella creazione di un vero e
proprio ecosistema della Connected Mobility: la connettività dei mezzi di trasporto, i dati dei veicoli e degli utenti, le piattaforme digitali, l’interfaccia uomo-macchina, i servizi di condivisione, la guida autonoma, i marketplace, i servizi connessi innovativi. Lo spazio digitale creato su sistemi Internet of Things (IoT) sempre più diventerà parte integrante della progettazione delle auto: si prevede che al 2030 oltre il 60% dei veicoli circolanti sarà dotato nativamente di sistemi avanzati di connessione. A guidare la crescita dei veicoli connessi sarà la diffusione della tecnologia 5G, che renderà possibile velocizzare lo scambio di dati, ridurre la latenza e supportare un maggior numero di connessioni, abilitando nuovi modelli di gestione della mobilità e di governo delle smart city. La crescente diffusione dei modelli di utilizzo basati sulla condivisione dei veicoli (come car sharing, bike sharing e via dicendo), inoltre, implica il passaggio da una logica di proprietà a una logica di utilizzo del mezzo. A livel-
lo mondiale, in cinque anni (dal 2020 al 2025) si prevede un aumento degli utilizzatori dei servizi di vehicle sharing del 33,4%. L’Italia è il secondo Paese in Europa per i servizi di car sharing, dopo la Germania: nel 2020 il mercato era rappresentato da 15mila veicoli, per un giro d’affari di 357 milioni di
euro, mentre per il 2025 si prevedono un parco circolante di 44mila automobili e un giro d’affari di 725 milioni di euro. Inoltre, nei prossimi dieci anni il numero di auto a guida autonoma di Livello 3 o superiore aumenterà di 90 volte rispetto al 2020, superando la quota di 18 milioni di vetture immatricolate
PROGETTI PILOTA VELOCI DA REALIZZARE 11. Cruscotto della mobilità: consente ai gestori dei trasporti pubblici cittadini
di monitorare i flussi in ingresso e in uscita dai centri urbani, per migliorare la gestione del traffico, riducendo incidenti e inquinamento. 12. App unica per la mobilità urbana: permette agli utenti di gestire la fruizione di vari mezzi di spostamento e l’accesso a informazioni su aree di sosta, punti di ricarica per veicoli elettrici, stato delle strade, eccetera. 13. Gestione di permessi e green ticket: sistemi telematici pay per use o basati sul comportamento di guida per gestire i permessi di accesso nelle aree a traffico limitato e i green ticket per i mezzi poco inquinanti. 14. App per la sicurezza dei conducenti: monitoraggio del livello di stanchezza dei conducenti e altri fattori di potenziale rischio, come l’uso del telefono alla guida. 15. Monitoraggio dell’efficienza dei mezzi: raccolta di dati sul funzionamento dei veicoli per sviluppare modelli predittivi e intervenire prima dei guasti. 16. Distracted driving: monitoraggio di parametri (orientamento dello sguardo, presa sul volante, ecc.) e invio di allerte per ridurre incidenti. 17. Pricing per EcoDriving: soluzione che raccoglie dati sullo stile di guida e premia quelli più virtuosi dal punto di vista dei consumi di carburante. 18. Sanificazione del veicolo: servizio che potrebbe essere offerto sia dai gestori di veicoli a noleggio sia dai fornitori di servizi di car sharing, taxi, trasporto pubblico. 19. Monitoraggio e certificazione stato dell’usato: permette di certificare lo stato di usura di un mezzo nel momento della rivendita. 10. Corporate car sharing: soluzione che può promuovere il passaggio delle flotte aziendali a nuove motorizzazioni meno inquinanti. 11. Pianificazione della distribuzione di stazioni di ricarica per veicoli elettrici: individuazione delle aree più idonee, tramite l’uso dei dati raccolti dai veicoli in spostamento e in sosta. 12. Assicurazione usage-based per neopatentati: sistema di monitoraggio e premio per chi guida in modo prudente. 13. Monitoraggio degli incidenti e constatazione amichevole digitale: uso dei sensori per ricostruire le dinamiche e avvio automatizzato delle pratiche di apertura del sinistro. 14. Manutenzione in base all’utilizzo/stato del mezzo: uso di dispositivi telematici per raccogliere dati e proporre offerte di manutenzione ottimizzate.
per anno. All’interno di questo contesto, i dati sono centrali per abilitare nuovi modelli di gestione sincronizzata delle infrastrutture urbane e delle città. Solo nel 2020, a livello mondiale sono stati investiti oltre 100 miliardi di euro (valore in crescita del 18,9% su quello del 2019) in iniziative di sviluppo e potenziamento delle smart city, principalmente negli ambiti della sicurezza pubblica data-driven (18% della spesa totale) e dei trasporti intelligenti (14%). L’ecosistema della trasformazione
La presentazione della ricerca è stata anche occasione di lancio di un’iniziativa congiunta di di The European House – Ambrosetti e Octo Telematics, tesa a diversi obiettivi: analizzare come stiano evolvendo gli ecosistemi del valore legati alla mobilità connessa; identificare le priorità d’azione per gli operatori chiave degli ecosistemi che nascono dalla confluenza verso una “mobilità intelligente; contribuire alla realizzazione di una “via italiana” alla mobilità connessa. Nell’ambito della collaborazione sono state identificate otto classi di attori da coinvolgere nello sviluppo di progetti pilota, ovvero le amministrazioni cittadine, gli operatori trasporto pubblico urbano ed extraurbano, i fornitori di servizi di vehicle sharing, di short–term e long-term renting, le assicurazioni, utility e fornitori di servizi energetici, i fornitori di servizi di manutenzione e i concessionari di automobili. Rispetto a questi stakeholder sono stati identificati sei macro-temi progettuali: pianificazione urbana, sicurezza, monitoraggio dell’efficienza della flotta, modelli di pricing, monitoraggio delle emissioni; modelli di “mobility as a service”. Al momento sono già stati identificati oltre 35 progetti pilota, di cui 14 considerati come prioritari, ossia implementabili nel breve periodo (circa sei mesi). Elena Vaciago 35
Foto di Sean Foley su Unsplash
CYBERSECURITY
CITTÀ DIGITALI, DANNI MATERIALI
Semafori intelligenti, impianti di irrigazione, ospedali: gli attacchi diretti su questi bersagli possono avere effetti gravi. Bilanciare rischi e vantaggi è la strada da percorrere.
36 |
OTTOBRE 2021
L
a smart city è il regno dell’iperconnessione, un luogo in cui quasi tutto e tutti sono parte di una rete di scambio di dati in tempo reale: i mezzi di trasporto, le infrastrutture di distribuzione dell’energia, gli edifici tappezzati di sensori, i network Wi-Fi, 4G e 5G cittadini, e ancora scuole, ospedali, servizi degli enti pubblici connessi in cloud e accessibili in forma digitale. Secondo la definizione di Frost & Sullivan, può definirsi “smart” un centro urbano che sia connesso e intelligente in almeno cinque dimensioni sulle otto contemplabili (persone, trasporti, reti Internet, infrastrutture, edilizia, servizi sanitari, energia, scuola&Pubblica Amministrazione). In base a questo criterio, per gli analisti il mercato delle tecnologie di smart city crescerà dai 96 miliardi di
dollari spesi su scala globale nel 2019 ai previsti 327 miliardi di dollari del 2025. Stati Uniti, Cina e Paesi dell’Europa Occidentale faranno da traino al mercato. Ma alla cybersicurezza sarà dedicata una porzione sufficiente di questi investimenti? E soprattutto, dove dovrebbero concentrarsi gli sforzi e le risorse economiche? Luce rossa per i semafori smart
Nel 2020 da un team interdisciplinare dell’Università di Berkeley ha chiesto a 76 esperti di cybersicurezza di assegnare un punteggio di rischio a differenti tecnologie di smart city, valutando la loro attrattività per gli hacker, la presenza di vulnerabilità e la gravità dei danni di un potenziale attacco. Dallo studio in questione (“The Cybersecurity Risks of Smart City Technologies: What Do The
Experts Think?”) è risultato che i rischi maggiori provengono dai sistemi di allerta per le emergenze, dagli impianti di videosorveglianza stradale e dai sistemi di controllo dei semafori “intelligenti”, che impiegano sensori e calcoli di intelligenza artificiale per ottimizzare il funzionamento della segnaletica. Queste tre tecnologie Internet of Things sono state giudicate dal pool di esperti come “significativamente più vulnerabili ai cyberattacchi”, ma soprattutto in questi casi un eventuale attacco riuscito avrebbe effetti potenzialmente devastanti. “Gli amministratori locali”, si legge nel report, “dovrebbero dunque considerare caso per caso se i rischi informatici superino i potenziali benefici dell’adozione di una tecnologia, ed esercitare una particolare cautela laddove una tecnologia sia vulnerabile dal punto di vista tecnico e allo stesso tempo rappresenti un bersaglio attraente per abili, potenziali attaccanti, dato che l’impatto sarebbe probabilmente elevato”. Se questo suona familiare è perché l’idea di attacchi dagli effetti catastrofici su intere città, resi possibili dalla tecnologia, nasce da lontano. Già nel 1969 il film The Italian Job (Un colpo all’ italiana), diretto da Peter Collinson, mostrava all’opera una banda di criminali che riusciva a paralizzare il traffico di Torino e a compiere la sua rapina dopo aver manomesso il sistema computerizzato di controllo dei semafori. Nella pellicola il sabotaggio avveniva attraverso la manomissione fisica dell’impianto, mentre oggi sarebbe possibile realizzare qualcosa di simile senza nemmeno accedere fisicamente al sistema bersaglio. Minacce sui sistemi “cyber-fisici”
Spesso si discute dell’imprevedibilità degli effetti di un cyberattacco, di quanto sia difficile fare una precisa conta dei danni in casi di violazione di privacy, furto di segreti industriali
o interruzione dei servizi di un’azienda. Un aspetto peculiare del rapporto tra smart city e sicurezza informatica è che, rispetto ad altri ambiti, gli attacchi hanno una maggiore probabilità di creare danni materiali, anche seri, a cose e persone. Tragico è l’esempio del ransomware che lo scorso settembre ha colpito un ospedale di Duesseldorf: a causa del blocco dei sistemi informativi, la struttura ha dovuto trasferire altrove una paziente che necessitava di cure urgenti, poi deceduta a causa dei ritardi. Inquietante è anche il caso di Oldsmar, località della Florida, dove nel mese di gennaio un sabotatore ha tentato di alterare la concentrazione di idrossido di sodio all’interno di un sistema di irrigazione. Fatto che avrebbe potuto causare gravi danni alla salute delle persone, se non scoperto tempestivamente. L’episodio di Oldsmar dimostra quanto sia necessario tenere alta l’attenzione non solo sui ransomware, oggi tanto sotto ai riflettori, ma su qualsiasi possibile metodo di attacco a quelli che Gartner definisce “sistemi cyber-fisici”, cioè sistemi in cui sensori, piattaforme di calcolo, controlli, connettività e analisi dei dati interagiscono con l’ambiente fisico, esseri umani inclusi. Per esempio le infrastrutture critiche, le reti di erogazione dell’energia, gli acquedotti e anche alcuni sistemi del settore sanitario. Secondo la società di ricerca, entro il 2023 gli attacchi ai sistemi cyber-fisici potranno causare morti accidentali da cui deriverà un danno economico di 50 miliardi di dollari. Oltre naturalmente alla perdita di vite umane, per le aziende coinvolte questo significherà incappare in sanzioni, richieste di risarcimento, cause legali e danni alla reputazione. Un’altra realtà possibile
Lo scorso maggio Ian Levy, direttore tecnico del National Cyber Security Centre (Ncsc) del governo britannico,
in un intervento sul blog dell’ente sottolineava i rischi dell’interconnessione: “Pensate agli impatti di tutti i sensori e dei sistemi intelligenti che pian piano stiamo distribuendo nei nostri ambienti fisici affinché raccolgano dati e rendano i servizi più efficienti, più amici dell’ambiente od ottimizzati secondo altre caratteristiche”, scriveva Levy. “Un guasto all’interno di sistemi individuali può avere impatti terribili, ma poiché essi sono sempre più connessi e interdipendenti, gli effetti combinati sono amplificati. Aggiungete a questo la potenziale violazione di privacy, e avrete molto di cui preoccuparvi. Ma la realtà non dev’essere questa per forza”. Potrebbe non esserlo, secondo l’agenzia di cybersicurezza, a patto di esercitare la massima prudenza e di seguire una serie di linee guida (pubblicate dall’Ncsc la scorsa primavera) per la corretta progettazione, costruzione e gestione dei “luoghi connessi” cittadini, come per esempio i sistemi che controllano l’illuminazione pubblica, la rete dei semafori, le videocamere delle Cctv (televisioni a circuito chiuso, già molto diffuse in Regno Unito da ben prima che si parlasse di Internet of Things), la raccolta e lo smaltimento dei rifiuti, i parcheggi, i servizi di trasporto pubblico e altro ancora. Le raccomandazioni dell’Ncsc includono un invito a considerare i rischi interni alla supply chain: la tecnologia di alcuni fornitori stranieri (e il pensiero va alla Cina, sebbene non venga nominata) potrebbe diventare strumento operazioni di cyberspionaggio, raccogliendo dati dai sistemi IoT cittadini e trasferendoli al governo estero committente. “Alcune nazioni cercano di ottenere dati sensibili aziendali e personali da Paesi stranieri”, si legge nelle linee guida. “I fornitori potrebbero anche essere usati come vettori nel tentativo di bloccare servizi essenziali”. Valentina Bernocco 37
CYBERSECURITY
LA SMART CITY HA BISOGNO DI SICUREZZA
Photo by FLY:D on Unsplash
I pericoli dell’interconnessione
Numerosi incidenti informatici, in varie parti del mondo, hanno sollevato temi non trascurabili di protezione della vita dei cittadini nei nuovi contesti digitali. Le istituzioni si confrontano anche in Italia.
M
olti campanelli d’allarme sono risuonati negli ultimi mesi sul fronte della cybersecurity collegata alla crescente digitalizzazione delle città e dei servizi pubblici. In Italia, molta enfasi è stata data all’attacco ransomware che ha colpito in estate la Regione Lazio e ha, fra l’altro, bloccato temporaneamente il sistema di prenotazione dei vaccini. Ma nel mondo si sono verificati problemi anche più preoccupanti negli ultimi tempi. A Singapore sono stati colpiti l’entità sanitaria Eye & Retina Surgeons (con la compromissione dei dati personali di 73mila pazienti), l’operatore mobile MyRepublic (altri 38 |
OTTOBRE 2021
80mila utenti esposti) e l’assicurazione Tokio Marine Insurance. Molti gli attacchi ransomware negli Stati Uniti, fra cui quello clamoroso alla rete dell’oleodotto di Colonial Pipeline, che fornisce gas su tutta la Costa Orientale, mentre in Europa sono state colpite diverse realtà operanti nel mondo sanitario, come l’ospedale francese di Oloron-Sainte-Marie (vittima, lo scorso marzo da un malware crittografico che ha bloccato le cartelle cliniche e il sistema di monitoraggio delle scorte di medicinali) e il servizio sanitario nazionale irlandese (che ha dovuto sospendere le prenotazioni, riuscendo però a garantire i servizi essenziali).
Il legame fra questa insorgenza di attacchi e le smart city non è certo da considerarsi casuale. Nelle realtà urbane più avanzate sono ormai installate e attive numerose componenti interconnesse, che si scambiano costantemente dati, spesso senza alcun intervento umano. Per questo sono state implementate le smart grid, che lavorano per utility, edifici connessi o trasporti pubblici e funzionano con il massiccio utilizzo di sensori, dispositivi IoT e piattaforme cloud sottostanti. Del rapporto fra smart city e cybersecurity si è discusso anche in Italia, in modo particolare in uno degli appuntamenti del ciclo #TMCyberTalks, organizzati da Trend Micro. Vi hanno partecipato diversi esponenti delle istituzioni, per ribadire come l’attenzione dei governanti sul tema sia alta. Lo ha sottolineato, per esempio, Stefano Corti, senatore che lavora nell’ottava Commissione, dedicata ai Lavori Pubblici e alle Comunicazioni: “Gli investimenti del Governo ci sono e il Pnrr ci aiuterà. Occorre però accrescere lo sforzo sul fronte dell’education, per diffondere la cultura digitale su tutta la popolazione e procedere verso il superamento di un digital divide ancora ben presente, visto che il 25% della popolazione vive in piccoli luoghi, poco serviti e presidiati. L’obiettivo è creare vere e proprie smart community”. Francesco Andriani ha, invece, portato il contributo in quanto segretario generale dell’Associazione Nazionale dei Responsabili per la transizione al digitale (AssoRtd), una figura istituita con normative risalenti a oltre dieci anni fa, ma che hanno richiesto molto tempo per divenire attuabili: “Il ruolo, oggi abbastanza diffuso nella Pubblica Amministrazione Centrale e nelle università, non si è ancora radicato nelle realtà più locali”, ha testimoniato. “Fornire linee di indirizzo, sorvegliare e fungere da catalizzatore fra l’ufficio IT e quello della privacy sono i suoi compiti essenziali. Nella pratica, tuttavia, si riscon-
I RANSOMWARE NON SONO L’UNICA ARMA Un tempo colpivano soprattutto l’utente finale, poi hanno cominciato a interessarsi alle aziende. E nel biennio 2020-21 sempre più hanno focalizzato l’attenzione su alcuni tipi di organizzazione, come le aziende sanitarie e gli enti pubblici, specie le amministrazioni comunali. Parliamo dei ransomware, indiscussi protagonisti del panorama cybercriminale nel post pandemia. Analizzando 71 grandi incidenti rantrano ancora molti problemi di formazione, per ragioni di età o pertinenza nel ruolo. Così, troppo spesso partono progetti di trasformazione digitale carenti dal punto di vista della compliance ai dettami del Gdpr”. Un esempio di concretizzazione dell’impegno istituzionale sul fronte della cybersercurity è rappresentato dal varo dell’Agenzia nazionale dedicata proprio a questo tema, che però dovrebbe preludere a un lavoro sul campo indirizzato ad aumentare la consapevolezza non solo nei giovani, ma anche fra i dirigenti pubblici, come ha sottolineato Federico Mollicone, deputato della settima Commissione, dedicata a cultura, scienze e istruzione. Sullo stesso versante si colloca il recente avvio del programma Smarter Italy, nato per sperimentare servizi innovativi su alcune aree d’intervento strategiche come smart mobility, beni culturali e benessere dei cittadini: “Non bisogna cadere nella
Alessandra Todde
somware avvenuti nel corso di un anno (tra luglio 2019 e luglio 2020), Barracuda Networks ha rilevato che il 44% di questi episodi coinvolgeva un’amministrazione cittadina. Obiettivo può essere la monetizzazione immediata, tramite riscossione del “riscatto”, oppure il furto di dati o ancora il sabotaggio di un servizio. I ransomware non solo però l’unica minaccia pendente sulla testa delle smart city. Contatori smart, valvole intelligenti trappola di utilizzare i vecchi modelli di città”, ha ammonito Alessandra Todde, viceministra allo Sviluppo Economico. “Vogliamo coinvolgere i cittadini nelle opportunità connesse al digitale, per migliorare i servizi e la loro fruibilità. Le tecnologie, a cominciare dal 5G, supportano modelli inclusivi anche verso i piccoli borghi, per per trasformare le città in smart city senza trascurare la sicurezza e la sostenibilità”. Una strategia di difesa
In questo quadro in movimento si collocano, come abbiamo visto, le minacce continue portate dai cyberattaccanti alle infrastrutture pubbliche. Come i citati esempi hanno insegnato, non esistono soluzioni facili per la protezione delle reti su cui si basano e si baseranno le smart city. La collaborazione pubblico-privato appare la via più fruttuosa per migliorare
Francesco Andriani
Gastone Nencini
all’interno dei sistemi di riciclo idrico o apparati Energy Management Systems, per fare qualche esempio, potrebbero essere danneggiati attraverso hijacking di dispositivi fisici o attacchi di tipo man-in-the-middle, nei quali l’intervento umano blocca o manomette le comunicazioni tra due sistemi. Un altro classico metodo di assalto è il Distributed Denial of Service (DDoS), che consiste nel creare grandi volumi di traffico in entrata per mandare in tilt un sistema host connesso a Internet. V. B. la postura delle organizzazioni pubbliche e imparare anche dagli errori. La pensa così Gastone Nencini, country manager di Trend Micro Italia, anch’egli allineato alla convinzione che vada innanzitutto aumentata la consapevolezza fra i dipendenti pubblici e i ragazzi: “Nelle scuole, sarebbe bello se l’educazione civica fosse arricchita con la cittadinanza digitale, con l’obiettivo di limitare rischi e incidenti informatici ora e in futuro, rafforzando l’anello debole della catena della sicurezza, che rimane sempre l’essere umano”. A ciò, naturalmente, si lega l’adozione di soluzioni tecnologiche adeguate ai tempi e destinate a presidiare il più possibile una superficie di esposizione vasta, dove anche un punto apparentemente secondario può essere sfruttato per raggiungere un obiettivo più strategico. “Per questo”, ha concluso Nencini, “è importante monitorare, denunciare e gestire ogni incidente informatico, inserendo sempre la sicurezza come parte integrante dei processi. Da un punto di vista tecnologico, le soluzioni di tipo Extended Detection and Response (Xdr) di monitoraggio e risposta diventano cruciali per comprendere che cosa accade realmente, che cosa i cybercriminali vogliono attaccare, quali sono i punti deboli di accesso e come proteggersi”. Roberto Bonino 39
EXECUTIVE ANALYSIS | Green IT
IL PERCORSO SOSTENIBILE DELL’INNOVAZIONE Green data center, migrazione al cloud e digitalizzazione dei processi sono le scelte prioritarie per ridurre l’impatto ambientale dell’Information Technology.
L
no oggi orientando le strategie produttive e commerciali delle aziende. La “Digital Business Transformation Survey 2021” di The Innovation Group (Tig) ha messo in evidenza come circa la metà delle imprese italiane analizzate preveda per quest’anno, rispetto al 2020, un aumento del budget aziendale dedicato Foto di Angie Warren da Unsplash
a sostenibilità è finalmente un tema all’ordine del giorno, anche in un settore tradizionalmente energivoro come quello dell’Information Technology. Green Deal Europeo, Agenda 2030 dell’Onu o, più semplicemente, aumento della sensibilità comune sono fattori che stan-
40 | OTTOBRE 2021
ad attività e progetti sostenibili. Molte, il 58%, intendono sfruttare le risorse che saranno messe a disposizione con l’attuazione del Pnrr, il Piano Nazionale di Ripresa e Resilienza, ma sull’accelerazione in questa direzione concorrono anche l’evoluzione delle dinamiche di mercato e la necessità di differenziare i prodotti (46%). Gli effetti di questo cambiamento si traducono soprattutto nella revisione dei processi produttivi in chiave green e in un ampliamento dell’offerta volto a evidenziare la componente di sostenibilità. Tuttavia, almeno nel breve termine, prevale la sensazione di poter ottenere effetti più legati all’immagine che al business, tant’è vero che elementi come il vantaggio competitivo (16%), l’incremento della produttività e dell’efficienza della supply chain (13%) o la crescita del fatturato (5%) sono fra i benefici meno indicati da chi comunque sta imboccando questa direzione. Da queste basi ha preso le mosse un progetto Tig/Indigo che ha coinvolto una ventina di aziende italiane di dimensioni grandi e medio-grandi, e che si è tradotto in una ricerca qualitativa, volta a comprendere quanta sensibilità esista oggi in azienda sul tema della ecosostenibilità, chi ne sia responsabile, come sia valutato l’impatto sull’ambiente generato dall’IT, come si stia procedendo in direzione del cosiddetto green data center e quali siano le iniziative di breve e lungo periodo adottate o allo studio.
Lo spaccato ha evidenziato innanzitutto come persista una sostanziale differenziazione nel livello di maturità tanto sul versante digitale quanto su quello più legato alla sostenibilità. La cultura e la sensibilità sono in aumento un po’ ovunque, ma in molti casi la convivenza con infrastrutture legacy e scelte applicative vincolanti non rendono semplice l’attuazione di misure mirate a ridurre l’impatto ambientale della tecnologia utilizzata in azienda. Di comprensione più semplice è il percorso avviato dalle realtà opearanti in settori come l’energia, il farmaceutico o le utility, che sono chiamate in qualche modo a guidare la transizione verde del Paese. Anche nel settore finanziario, nei servizi e nell’high-tech, tuttavia, sono presenti piani green strutturati, talvolta correlati alla natura multinazionale delle società, talaltra a un’età relativamente giovane dell’azienda e a un Dna già fortemente orientato alla digitalizzazione. Soprattutto nelle realtà medio-grandi è presente almeno una figura di responsabilità nell’area delle Corporate Social Responsibility (Csr), ma non è infrequente la scelta di una condivisione della funzione fra i diversi dipartimenti, segno di una cultura sostenibile più diffusa e di obiettivi comuni da raggiungere. Le iniziative “verdi” fanno parte in buona misura di strategie definite dal management e l’IT viene chiamata ad adattare le componenti tecnologiche coinvolte, svolgendo quindi un ruolo abilitante in combinazione fra innovazione e sostenibilità. Più raro, invece, è il caso di un dipartimento IT motore di iniziative con una valenza strategica più ampia. Più che verso l’evoluzione green o il ripensamento in quest’ottica del data center tradizionale (che sono appannaggio solo di qualche grande azienda), prevale l’idea di ridurre lo spazio occupato dalle risorse tecnologiche, tramite operazioni
di consolidamento, virtualizzazione ed esternalizzazione, come elemento fondante dell’abbattimento dei consumi dell’IT. A questo si associa un’attenzione crescente verso la scelta di dispositivi a basso impatto anche per la dotazione dei dipendenti e collaboratori. In molti casi i processi virtuosi sono partiti dal basso, ovvero dalla riduzione del consumo di carta, combinando la digitalizzazione di diversi processi con l’eliminazione delle stampanti personali. Lo smart working, divenuto preponderante durante la pandemia, ha velocizzato questa evoluzione, producendo effetti già misurabili nel breve periodo. La sostituzione di componenti obsolete è ormai generalmente interpretata come un’opportunità per favorire una riduzione dell’impronta energetica e lo stesso si
può dire del software applicativo, evolutosi verso una logica Software as a Service (SaaS) che consente l’eliminazione di server in passato dedicati e, in casi più limitati, un miglior controllo sul rispetto di policy e parametri green anche da parte dei fornitori esterni prescelti. Il ruolo di tecnologia e cultura
Il cloud è uno degli elementi fondamentali di recupero di efficienza energetica in ambito IT. Non tutte le realtà lo interpretano in questa chiave, tuttavia molte hanno fatto scelte dettate non solo dalla ricerca di agilità e flessibilità infrastrutturale ma anche di maggior sostenibilità. Se parliamo di migrazioni strettamente applicative, spesso viene chiamato in causa lo stesso fornitore della precedente versione on-premise
Foto di Philipp Katzenberger da Unsplash
Strategie a confronto
41
EXECUTIVE ANALYSIS | Green IT
no però dubbi sulla sua totale affidabilità, per diversi motivi tecnici (capacità di valutare il riutilizzo del calore, per esempio) o geografici (la temperatura esterna è essenziale per l’efficienza energetica di un data center, che non avrà lo stesso Pue a seconda della sua posizione). Naturalmente, la situazione si complica in presenza di scenari ibridi (piuttosto comuni), dovendo mettere insieme elementi di misurazione non omogenei e non sempre facilmente verificabili. Un altro tema caldo per le aziende riguarda il miglioramento della cultura delle persone. Al di là della definizione di strategie, obiettivi di breve o lungo termine e policy da adottare, la misurazione di effetti positivi in termini di impatto ambientale deriva in larga parte dal comportamento dei singoli. Per questo, prevale in molte delle realtà analizzate la necessità di attivare strumenti di formazione o potenziamento della consapevolezza. Non va trascurato, poi, che
Foto di Christian Wiediger da Unsplash
e, soprattutto in questi casi, le aziende tendono a fidarsi di quanto il vendor contrattualizza anche in termini di rispetto dell’ambiente. Laddove, invece, il passaggio al cloud coinvolga una visione maggiormente infrastrutturale, sono più accentuate anche le verifiche di allineamento alle policy sul tema di norma già adottate al proprio interno. In linea generale, l’adozione di policy green è sempre più un requisito nella scelta dei partner tecnologici. Certificazioni ed esplicitazione di valori diventano ormai requisiti imposti a livello contrattuale in diverse aziende con strategie green ben definite. Tuttavia, nelle imprese che mantengono (e manterranno) una componente infrastrutturale interna non è ancora troppo diffusa la capacità di misurare l’impatto ambientale dell’IT. Il Power Usage Effectiveness (Pue) è ancora considerato l'indicatore primario per poter misurare l'efficienza energetica di un data center. Permango-
42 |
OTTOBRE 2021
l’attuazione di progetti green strutturati richiede investimenti che non tutte le aziende sono disposte a fare. Un ulteriore elemento di incertezza deriva dall’attuale congiuntura, che potremmo azzardarci a definire post-pandemica. Nel periodo dei vari lockdown, l’esplosione del lavoro da remoto ha favorito la diffusione di pratiche che certamente hanno avuto un’incidenza anche sul fronte della sostenibilità, ma si è trattato, in diversi casi, di effetti dettati dalla particolarità del periodo. Il progressivo ritorno a una normalità quasi certamente diversa da quella improvvisamente abbandonata nella prima parte del 2020 implicherà una maggior strutturazione di prassi e comportamenti ancora in parte difficili da prevedere. Il futuro appare orientato verso l’integrazione fra scelte di digitalizzazione dei processi e di abbattimento del footprint ambientale della tecnologia. All’adozione di soluzioni innovative (come le fonti rinnovabili) per il raffreddamento e i consumi delle infrastrutture interne si associano progetti sempre meglio definiti in direzione dello snellimento, del riutilizzo o della compensazione. In conclusione, l’IT ha in buona misura affrontato il tema della riduzione del proprio carbon footprint, adottando misure improntate al taglio nel breve termine e all’azzeramento nel medio-lungo. Prevale, in molte delle realtà analizzate, la consapevolezza che la tecnologia possa essere il perno per il raggiungimento di obiettivi codificati soprattutto nel Green Deal Europeo, a supporto di progetti più strettamente collegati alla natura del business delle aziende. Questo ha già portato in molti casi a una collaborazione stretta fra dipartimenti (IT, Csr, produzione, risorse umane e così via), ma occorrerà accentuare e consolidare un percorso che è solamente agli inizi. Roberto Bonino
AMBIENTE E IT, STRATEGIE CONGIUNTE
Vediamo con molto favore il mondo del cloud, che si sposa anche con i concetti green. Ci siamo imposti la regola di usare le risorse solo quando servono, non solo perché è una buona pratica ambientale ma perché genera un impatto positivo sul mercato. Così possiamo intervenire anche sul mindset delle nostre persone, sfida essenziale per crescere in modo sostenibile. Luca Magnoni, head of IT di Aviva Tutte le azioni portate avanti negli ultimi tempi vanno in direzione della sostenibilità. Lo scorso anno, per esempio, abbiamo rinnovato il data center con soluzioni iperconvergenti per ridurre i consumi energetici. Un discorso simile si può fare per le stampanti, rimpiazzate di recente con l’intento di ridurre l’uso della carta. Claudio Passoni, responsabile infrastrutture di Compagnia Generale Trattori Il vero punto di svolta sta non tanto nell’avere un green data center, quanto nella capacità di agire per cambiare la sensibilità degli individui e tradurre tutto
in soluzioni che rendono possibile il cambiamento. Se pensiamo a processi che richiedono la raccolta e gestione di dati attraverso filiere complesse, come nei casi di tracciabilità della plastica recuperata nei fiumi o negli oceani o nel calcolo delle emissioni di CO2, la blockchain rende la sostenibilità accessibile e condivisa da tutti gli stakeholder, abilitando un’economia circolare. Renato Grottola, global director growth and innovation, e Antonio Astone, global sustainability manager di Dnv Internamente esiste una strategia di migrazione al cloud, che definisce anche il modo di affrontare il tema della sostenibilità dell’IT. Il vero valore, ora, si misu-
rerà sui processi di digitalizzazione più complessivi dell’azienda e sul lavoro legato alle persone, allo sviluppo dei prodotti e alle decisioni che avranno un impatto diretto sulla salute del pianeta, a partire dalla dismissione dell’utilizzo della plastica. Roberta Regis, Cio di Edenred Siamo un’azienda leader nei servizi legati all'efficienza energetica e abbiamo la missione di sostenere un’economia carbon-neutral. Per questo, l’IT non ha il semplice obiettivo di ridurre il proprio footprint, ma abilita la strategia aziendale complessiva con un’ampia gamma di energy solutions per i nostri clienti: ad esempio le smart city, l’efficienza energe-
Foto di Min An da Pexels
Negli ultimi due anni in modo particolare abbiamo intrapreso un percorso complessivo che ci ha portati a ottenere la certificazione B-Corp e a trasformarci in società benefit. L’IT contribuisce a questo percorso, riducendo il proprio impatto sull’ambiente anche attraverso un approvvigionamento e un utilizzo responsabile delle risorse, supportando le pratiche sostenibili dell’azienda. Danilo Ughetto, direttore Ict operations di Gruppo Assimoco
43
EXECUTIVE ANALYSIS | Green IT
OCCORRE COSTRUIRE UN’ETICA DIGITALE La pandemia ci ha posti di fronte a un senso di urgenza ancora maggiore rispetto alle sfide globali e sociali e al bisogno di allineare la nostra vision per creare un mondo più sostenibile, equo e resiliente. Per molti versi, la trasformazione digitale è la base per costruire un mondo migliore, perché ci può aiutare a superare anche il divario digitale e a contribuire alla decarbonizzazione del pianeta. Il nostro impegno è quindi costruire la tecnologia su una base di etica digitale al servizio di tutti e lavorare con l’ecosistema di partner per ridefinire che cosa significhi rappresentare una forza del bene. Per quetica degli impianti di riscaldamento, cogenerazione e trigenerazione, i servizi di teleriscaldamento. Angelo Cofone, responsabile dell’area IT Governance di Engie Italia Le attività e i progetti IT sono fortemente collegati al business. Questo approccio sinergico rappresenta un grande valore in termini di ottimizzazione delle attività e di raggiungimento degli obiettivi. Lavorare insieme, inoltre, favorisce una maggiore sensibilizzazione sui temi della sostenibilità, al nostro interno, ma anche verso i partner, come avviene con Open-es. Questa nuova piattaforma digitale, realizzata da Eni in collaborazione con Google e Boston Consulting Group, consente alle aziende di misurarsi, confrontarsi e migliorare le proprie performance di sostenibilità, sfruttando un approccio collaborativo lungo tutta la filiera produttiva. Dario Pagani, executive vice president Global Digital & IT di Eni Più che un percorso di trasformazione, siamo entrati in una fase di maturazione 44 | OTTOBRE 2021
sto VMware si è posta obiettivi molto ambiziosi e ha creato un percorso, in linea con l’Agenda 2030 delle Nazioni Unite, che include, fra le altre cose, la collaborazione con i partner cloud come Aruba per raggiungere operations a zero emissioni di carbonio entro il 2030. D’altra parte, la sensibilità aziendale per un IT sostenibile è un perno del cambiamento che stiamo vivendo: dal lato tecnologico, si scelgono apparecchiature a basso impatto ambientale, più in generale, è necessario avviare dei processi dal basso, sensibilizzando i dipendenti a sprechi e consumi. Un caso concreto è Global
Cloud Data Center di Aruba, in cui si utilizzano energia rinnovabile da idroelettrico e fotovoltaico e un sistema geotermico. A ciò si aggiungono certificazioni come la Iso 50001 e la Go per la Garanzia di Origine rinnovabile dell’energia, l’impegno nel Green Deal e nel Climate Neutral Data Center Pact. La roadmap per una trasformazione digitale green è in fermento e la convergenza di tutti questi fattori aiuta la diffusione di servizi digitali sostenibili a vantaggio dell’ambiente. Sabino Trasente, senior business solution strategist di VMware, e Alessandro Bruschini, infrastructure manager di Aruba
di una realtà ancora relativamente giovane. Da poco abbiamo trasferito l’infrastruttura in un data center 100% green. Per il futuro stiamo studiando le opportunità del cloud, con partner che possano certificare una strategia sostenibile. Gianluca Morlacchi, head of IT di Eolo
footprint ambientale e comunichiamo all’esterno questi dati, per rafforzare l’immagine di un'azienda complessivamente orientata al green. Claudio Bielli, head of technology transformation and operations di Falck Renewables
A livello globale abbiamo una strategia, denominata Vision 2050, che prevede di arrivare a quella data essendo carbonnegative. Molti aspetti sono coinvolti e fra questi anche l’innovazione tecnologica e la strumentazione utilizzata all’interno dell’azienda. Oggi risultare sostenibili nei rapporti con i clienti è certamente un vantaggio competitivo, perché sempre più spesso veniamo valutati anche in base a questi criteri. Luca Cassani, corporate sustainability manager di Epson Italia
Stiamo affrontando in questa fase anche le tipiche problematiche di evoluzione dell’infrastruttura interna, in una logica di contenimento dei consumi energetici e di innovazione in termini di impatto ambientale. All’interno dell’IT, stiamo gradualmente evolvendo da data center tradizionali a infrastrutture maggiormente ottimizzate, valutando anche l’implementazione di pannelli solari per rendere i data center più indipendenti attraverso l’impiego di fonti rinnovabili. Fabrizio Bracco, IT manager di Granarolo
Negli ultimi due anni tutti i progetti di rinnovamento digitale che abbiamo attuato hanno tenuto in alta considerazione il tema della sostenibilità. Tra le altre cose, siamo in grado di misurare il nostro
Riduzione della carta e progressiva migrazione verso il cloud sono passaggi che descrivono come l’IT stia evolvendo in un’ottica di maggior sostenibilità. Ma
Nel caso di Ikea, il concetto di green data center si esplicita innanzitutto nell’opera di virtualizzazione, che sta portando alla riduzione delle macchine e di tutti i consumi correlati. Inoltre, tutti i nostri data center sono alimentati al 100% da fonti di energia rinnovabili. Ora stiamo facendo dei test per ridurre anche il numero di device, aumentando il livello di condivisione per reparto. Alessandro Conti, country service operations manager di Ikea Italia Anche se siamo digitali e in cloud, disponiamo di iniziative che ci aiutano a capire e a controllare i consumi energetici collegabili all’IT. Per esempio, abbiamo impostato lo spegnimento automatico del computer in modo rapido se questi non vengono utilizzati. A medio termine, potremo impiegare una piattaforma che ci permetterà di avere un giudizio di sintesi sui partner da noi scelti, da molti punti di vista, per esempio la sicurezza, le certificazioni, i test di business continuity e la sostenibilità. Filipe Teixeira, Cio di Illimity Bank Persone, innovazione e conoscenza sono i nostri tre pilastri. La sostenibilità ambientale fa parte di questo disegno più ampio e ha un ruolo molto rilevante. Nel nostro settore si tende a fare ancora largo uso della carta, mentre la nostra innovazione digitale va in direzione opposta e ci sta portando a rivedere molti processi, tanto nelle assunzioni quanto nella rilevazione delle presenze. Alberto Storti, Cio di Manpower
Il grosso del nostro impatto ambientale si misura su quanto ha a che fare con la produzione e qui abbiamo lavorato su una filiera sempre più pulita per il reperimento delle materie prime. Ma siamo intervenuti anche sul nostro prodotto più venduto, il fermento lattico Lactoflorene, reingegnerizzandone il packaging primario con un brevetto che prevede una plastica riciclabile al 100%. Puntiamo poi sulla promozione di una cultura aziendale ecosostenibile e supportiamo in ambito IT la digitalizzazione di diversi processi, spostando risorse in cloud. Stefano Colombo, direttore generale di Montefarmaco Selex è una centrale associativa, quindi il grosso dei progetti viene gestito direttamente dalle realtà associate. Ciò che presidiamo direttamente è stato realizzato sfruttando la scelta del cloud, in contrasto con la sostanziale assenza di un’infrastruttura interna. In combinazione con i nostri partner, operiamo scelte di provider che garantiscano certificazioni e policy sostenibili. Andrea Angelo Nobili, IT e-commerce & digital manager di Selex La sostenibilità in Snam è centrale. Quest’anno è stato integrato nello statuto sociale il corporate purpose "Energia per ispirare il mondo", che riflette un impegno crescente nella transizione energetica, mentre nel 2019 è stato istituito un comitato Esg in seno al Cda. L’Ict e le tecnologie digitali fungono da abilitatori delle trasformazioni nei processi aziendali e per questo lavorano a stretto contatto con la funzione di sostenibilità su molti progetti, come il paperless e il riciclo e riuso di risorse. Claudio Farina, executive vice president digital transformation & technology di Snam Gli investimenti effettuati in direzione della digitalizzazione stanno già producendo effetti sul nostro footprint ambien-
Foto di Karolina Grabowska da Pexels
Guna ha sviluppato importanti iniziative strategiche in questa direzione e la divisione tecnologica lavora a stretto contatto con la funzione di corporate social responsibility per supportare i progetti di innovazione nella produzione e della compensazione dei consumi. Bruno Sartori, Ict director di Guna
tale. Nel rapporto con il business, l’IT può fornire un contributo rilevante in questo senso, lavorando per supportare iniziative e servizi mirati alla riduzione delle emissioni di CO2 da parte dei nostri clienti. Alessandro Bertoli, direttore Ict di Sorgenia In Unicredit la trasformazione digitale gioca un ruolo chiave per il conseguimento di un vantaggio competitivo sostenibile nel tempo. Per limitare la nostra impronta ambientale abbiamo intrapreso diverse iniziative, come ad esempio l’utilizzo di energia elettrica da fonti rinnovabili, il miglioramento dell’efficienza energetica delle nostre sedi e dei nostri data center, per cui i singoli server fisici sono stati per la maggior parte convertiti in macchine virtuali. Abbiamo inoltre migliorato la prestazione energetica dei nostri data center per rispondere alla spinta della digitalizzazione del gruppo. Daniele Tonella, group infrastructure & IT services e Ceo di Unicredit Services 45
ECCELLENZE.IT | Ministero Sit voluptate del Lavoro e delle Politiche Sociali
AGILITÀ E PRESTAZIONI CON L’IPERCONVERGENZA Il dicastero ha rinnovato i suoi due data center con le tecnologie di Nutanix, servite anche per supportare lo smart working.
I
n tempi di smart working, il Ministero del Lavoro e delle Politiche Sociali non può che essere agile e flessibile. Il cloud, le infrastrutture iperconvergenti, la virtualizzazione dei desktop, le applicazioni eseguite all’interno di container e strutturate in microservizi sono gli ingredienti del progetto di trasformazione intrapreso dal dicastero già a partire dal 2014 e portato avanti negli anni, così da poter stare al passo con l’incremento dei servizi erogati (come previsto dalle riforme del Jobs Act prima, e poi con il riconoscimento del Reddito di Cittadinanza e con le misure di sostegno del Decreto Ristori). Questo rinnovamento, incentrato sui due data center “gemelli” di Roma e Reggio Calabria, mirava ad abbandonare le infrastrutture legacy e a realizzare un’architettura resiliente, agile e scalabile. I principali strumenti usati sono stati l’iperconvergenza e le applicazioni cloudnative, associate all’adozione di procedure di disaster recovery. “Quando è nata l’idea di costruire una soluzione iperconvergente”, racconta Daniele Lunetta, dirigente del Ministero del Lavoro e delle Politiche Sociali, “ci siamo dovuti confrontare con il mondo del cloud e con le sue molteplici sfaccettature. Il nostro obiettivo era di snellire e rendere efficienti le nostre infrastrutture, per avvicinarci a una configurazione di private cloud, aperta anche al public, che avesse un impatto positivo sull’erogazione dei servizi ma anche sui costi di gestione”. 46 |
OTTOBRE 2021
Dopo un’analisi delle alternative disponibili e una serie di benchmark, la scelta è ricaduta su Nutanix. “Tra tutte le alternative”, prosegue Lunetta, “quella offerta da Nutanix ci garantiva i minori costi aggiuntivi, grazie alla presenza di un hypervisor già incluso nella soluzione e alla possibilità di continuare a utilizzare anche i sistemi precedenti. Più in generale, pur avendo scelto di acquistare nuove macchine NuLA SOLUZIONE I due data center del Ministero sono stati rinnovati con infrastrutture iperconvergenti. Su trenta nodi Nutanix vengono usati i software Nutanix Aos (sistema operativo), Nutanix Ahv (hypervisor per la virtualizzazione), Nutanix Karbon (per l’orchestrazione dei container), Nutanix Prism Pro (gestione centralizzata dell’infrastruttura), Nutanix Flow (gestione e sicurezza della rete) e Nutanix Era (gestione database).
tanix, abbiamo riconosciuto nel software il vero valore aggiunto della loro tecnologia, un software che garantisce una gestione ottimale di tutta l’infrastruttura e che ci permette di erogare i servizi con facilità e con le giuste performance”. A questi vantaggi si è aggiunta, allo scoppiare della pandemia, una importante conferma della flessibilità e della scalabilità dell’architettura informatica realizzata: durante il primo lockdown il telelavoro (fino ad allora adottato solo parzialmente) è stato esteso rapidamente a tutti i mille dipendenti del dicastero, senza che sorgessero intoppi o problemi di sicurezza. Il rinnovamento dei data center ha permesso di ricavare una riduzione del 25% dello spazio occupato dalle macchine e un taglio dei costi energetici del 35%, ma il principale vantaggio ottenuto è stata la possibilità di adottare lo smart working in tempi rapidi. “Il progetto nasce dall’esigenza di rinnovare le infrastrutture”, sottolinea Lunetta, “non tanto dalla necessità di tagliare i costi. Avevamo bisogno di un’architettura più moderna e flessibile, che alla prova dei fatti si è resa indispensabile anche durante la pandemia. Ad agosto 2020, infatti, già tutti i dirigenti del Ministero potevano accedere ai loro desktop da qualsiasi luogo e device, grazie alle Virtual Desktop Infrastructure implementate su tecnologia Nutanix”. Ora il Ministero continua a puntare sull’iperconvergenza, oltre che sulla tecnologia dei container, anche per il rinnovamento dello strato di middleware (in particolare gli ambienti open data) e delle architetture software per l’erogazione di servizi (Service Oriented Architecture). Entro la fine del 2021, inoltre, sarà completata la migrazione di tutte le attività di gestione e analisi dei dati, dal cloud pubblico al cloud privato basato architetture iperconvergenti.
ECCELLENZE.IT | Comune di Venezia
L’OCCHIO VIGILE DELLA LAGUNA È DIGITALE La tecnologia Avigilon di Motorola Solutions aiuta le forze dell’ordine a proteggere i residenti, i turisti e il patrimonio artistico veneziano.
C
he Venezia sia un luogo unico al mondo, nessuno può metterlo in discussione. Ma la città lagunare è anche unica in merito alle sue necessità di sicurezza, sia per la sua conformazione territoriale (che comprende la terraferma e 118 piccole isole) sia per l’altissimo afflusso turistico, con una media di 50mila visitatori al giorno. Il Comune di Venezia aveva la necessità di un nuovo sistema di videosorveglianza a supporto delle forze dell’ordine, un sistema efficace per garantire la sicurezza di residenti e turisti tra la laguna e il territorio di Mestre, ma anche per proteggere un immenso patrimonio artistico e culturale fatto di edifici storici, rilevando infrazioni e atti di vandalismo. L’apparato di videosorveglianza analogico in uso da diversi anni era ormai diventato obsoleto e del tutto inadatto in un contesto complesso come quello veneziano. L’amministrazione comunale ha quindi selezionato la tecnologia Avigilon di Motorola Solutions per realizzare un nuovo sistema più al passo con i tempi, digitale e connesso in rete. In particolare, le telecamere di Avigilon sono state scelte in virtù della qualità e del grado di dettaglio delle immagini catturate (con un massimo di 8K di risoluzione), per le efficienti funzionalità di archiviazione del software che gestisce le registrazioni e, ancora, per gli strumenti di analisi e di intelligenza artificiale applicati ai dati video. Usare telecamere di elevata
qualità per le forze dell’ordine non significa soltanto “vederci meglio”, ma permette anche di ingrandire e analizzare nel dettaglio le immagini per cogliere elementi utili nelle attività di vigilanza e di indagine: basti pensare che la risoluzione 8K consente di riconoscere volti da persone inquadrate anche LA SOLUZIONE Il sistema comprende videocamere, encoder, registratori di rete (Network Video Recorder, che archiviano un minimo di sette giorni consecutivi di riprese) e software Avigilon Control Center. I feed video vengono osservati su 12 monitor dal centro operativo di telecomunicazioni e videosorveglianza della polizia locale, a cui si affiancano altri centri di controllo di polizia di Stato e Carabinieri. Il sistema è connesso tramite rete in fibra ottica MPLS (Multiprotocol Label Switching) di proprietà del Comune di Venezia.
a centinaia di metri di distanza. Inoltre gli algoritmi di intelligenza artificiale incorporati nel software di Avigilon aiutano nella ricerca a posteriori di eventi e permettono di identificare attività inconsuete, oggetti abbandonati, flussi di movimento e altro ancora. Al contempo, la tecnologia precedentemente in uso non è stata smantellata: gli encoder di Avigilon convertono in alta definizione le immagini catturate dalle vecchie videocamere analogiche. Il Comune utilizza, inoltre, i registratori video in rete per archiviare le riprese, così da poter analizzare a posteriori questo materiale in caso di necessità come indagini su crimini, atti vandalici o persone scomparse. In seguito all’adozione del nuovo sistema è stato possibile ottenere prove inconfutabili, risolvere diversi casi e prevenire crimini in zone specifiche della città. La possibilità di individuare i colpevoli di reati o atti vandalici, proteggendo sia le persone sia il patrimonio artistico veneziano, è stata uno dei principali vantaggi ottenuti dal Comune, ma vanno citati anche il risparmio sui costi per il personale e il miglioramento delle relazioni con le forze dell'ordine. 47
ECCELLENZE.IT | Iperceramica Sit voluptate
IL CANALE ONLINE SPINGE LE VENDITE IN NEGOZIO Per la catena specializzata in pavimentazione e arredamento, i punti di forza sono il sito Web e il Crm. Il digitale è parte di una strategia di marketing omnicanale.
D
alle piastrelle al parquet, passando per l’arredo bagno: il nome Iperceramica è noto al grande pubblico, grazie alle decine di negozi che tappezzano tutte le regioni italiane ma anche grazie alle attività di comunicazione pubblicitaria portate avanti negli ultimi anni. Il marchio appartiene a BayKer Italia, azienda del distretto della ceramica di Sassuolo. Nel 2020 la chiusura forzata dei punti vendita, dettata dalla pandemia di covid-19, ha portato scompiglio nel modello di business, ma non necessariamente in senso negativo. “Siamo stati in grado di convertire in una relazione remota ciò che prima si svolgeva in modo fisico nei nostri negozi”, racconta Michele Neri, Ceo di Iperceramica. “Per questo, alla riapertura dei cantieri abbiamo constatato di non aver perso il nostro potenziale di vendita e, quindi, abbiamo accelerato in direzione di una strategia omnicanale di rapporto con la clientela”. Il digitale è importantissimo all’interno della strategia di marketing e di relazione con il cliente, benché le vendite in ecommerce siano meno del 5% del totale. Per Iperceramica l’acquisizione dei nuovi clienti tipicamente parte dall’online (utente che si reca sul sito Web per informarsi e consultare il catalogo) e termine nel punto vendita tradizionale. Dunque il sito Web funziona soprattutto come punto di contatto e di ingaggio, che poi porta clientela 48 |
OTTOBRE 2021
nei negozi fisici, e inoltre è un collettore di dati sui quali vengono costruite le campagne di marketing. Nel giro dell’ultimo anno il traffico del sito è raddoppiato, arrivando a una media di 120mila accessi al giorno. “I comportamenti sono cambiati e oggi tutti si informano su Internet prima di tutto”, conferma Neri. “Anche noi ci facciamo conoscere così e pertanto abbiamo investito su tutto ciò che può orientare e supportare le scelte di arredo e ristrutturazione”. Un punto di forza del sito Web è la presenza di un catalogo riccamente illustrato e interattivo e di un configuratore virtuale, che permette di partire dalla pianta dell’ambiente da arredare per ottenere un rendering dell’effetto finale. Se questa è la vetrina di Iperceramica, nel dietro le quinte c’è il sistema di Crm adottato dall’azienda, ovvero Salesforce .“È per noi importante accogliere il cliente in ogni fase della sua interazione con noi, sapendolo riconoscere e concentrando
l’attenzione sulle informazioni che ci ha già fornito. Elaboriamo milioni e milioni di record e per farlo ci vogliono risorse computazionali adeguate”, precisa il Ceo. Oggi Iperceramica può già definirsi come un’azienda cliente-centrica e omnicanale, che sa gestire le vendite e la relazione con l’utente sia nella dimensione digitale sia in quella fisica. Recentemente l’azienda ha iniziato ad analizzare a fini statistici i dati di navigazione del suo sito Web, per migliorare il modello dei consumi e fare previsioni sui materiali da acquistare. “Abbiamo anche in previsione una profilazione più spinta del cliente, partendo dalla sua registrazione”, anticipa Neri, “per arrivare a mettere a punto strumenti di dialogo e interazione più sofisticati. Lavoriamo anche su questo fronte con Salesforce, riconoscendo il suo ruolo di leader, in linea con le scelte da noi effettuate in altre aree aziendali, sempre orientate ai vendor di riferimento in ogni settore”.
ECCELLENZE.IT | Raleri
PERSONALIZZAZIONE E BELLEZZA CON LA STAMPA 3D Con la stampa 3D di HP, l’azienda bolognese può realizzare in tempi rapidi montanture per occhiali da vista altamente personalizzabili in base ai gusti del cliente.
I
l made in Italy nel settore manifatturiero significa tecnica, esperienza e anche un particolare gusto estetico che ci viene invidiato nel mondo. Grazie alla stampa 3D, tutto ciò può coniugarsi con nuove possibilità di sperimentazione creativa e di personalizzazione dell'offerta. Questi erano gli obiettivi di Raleri, impresa bolognese nata nel 2008. “Siamo un’azienda a guida tecnica, specializzata nel trovare soluzioni per proteggere la vista di chi fa sport e non solo”, spiega il fondatore, Francesco Rambaldi. Le competenze verticali e tecniche di Raleri vengono usate anche per progettare e fabbricare visori per i caschi antisommossa, maschere protettive per uso industriale e maschere da rugby. “La pandemia ha rappresentato per noi un momento di discontinuità”, racconta Rambaldi, “ma anche un’opportunità, perché ci ha consentito di mettere a disposizione degli operatori sanitari del Servizio Sanitario Nazionale visiere di protezione anti covid-19 particolarmente efficaci e leggere”. L’anno scorso le risorse ottenute con le grandi forniture agli ospedali della regione Emilia-Romagna sono state immediatamente investite nell’acquisto di nuove tecnologie, tra cui una macchina per la stampa 3D a colori di HP, modello Jet Fusion 580, destinata alla seconda sede produttiva dell’azienda (ubicata in Toscana). Raleri già impiegava stampanti 3D di HP per la fabbricazione di piccoli oggetti e per la realizzazione di prototipi, ma con il nuovo acquisto ha potuto entrare in un diverso territorio: quel-
lo degli occhiali da vista. In precedenza l’azienda aveva già operato in questo campo, producendo in modo artigianale modelli particolari (per esempio, con montature galleggianti in bambù destinate ai surfisti), ma non aveva ancora presidiato il mercato dell’occhialeria di fascia alta. Installata a fine 2020, la Jet Fusion 580 ha permesso in pochi mesi, dopo i necessari test di resistenza, di lanciare sul mercato la prima collezione di occhiali di design. “Il materiale usato dalla stampante”, illustra Rambaldi, “è il polimero PA12, che nel nostro caso viene poi trattato con un processo di smoothing a nuvola di vapore che, chiudendo i pori del materiale, lo rende più gradevole al tatto, elastico e resistente”. Gli occhiali arrivano a pesare meno di 20 grammi, un record inarrivabile con altre tecnologie. Inoltre la macchina può sfornare una sessantina di montature nel giro di una notte, fatto che “ci consentirà di aprire una nuova e importante linea di business ma anche di incrementare noteLA SOLUZIONE La stampante HP Jet Fusion 580 permette a Raleri di produrre montature leggerissime, colorate e personalizzate, senza la necessità di ricorrere al passaggio della verniciatura. La tecnologia a letto di polvere, tipica delle stampanti HP, consente di stampare forme complesse e molto precise anche nei dettagli.
volmente l’awareness del nostro brand”, sottolinea il fondatore dell’azienda. La stampante, inoltre, permette di realizzare componenti altrimenti non fabbricabili con i metodi tradizionali, come un nuovo tipo di innesto morbido per le montature che permette di evitare l’utilizzo di viti, brevettato da Raleri. Accanto questi vantaggi, c’è quello della possibilità di customizzazione: la macchina permette di creare montature con colori, texture e dimensioni diverse, che il cliente può personalizzare in fase di ordine. “Vedere il prodotto che esce dalla stampante già a colori”, dice Rambaldi, “ha provocato anche in noi addetti ai lavori il classico ‘effetto wow’. Siamo quindi molto ottimisti sul successo commerciale che questa nuova linea di occhiali potrà avere presto sul mercato”. Oltre a poter scegliere da campionario una prima collezione disegnata dall’azienda, ciascun cliente potrà creare le proprie combinazioni di colori, disegni e dimensioni. Anche gli ottici e i punti vendita che aderiranno all’iniziativa potranno ordinare occhiali progettati direttamente dal cliente. 49
APPUNTAMENTI 2021
GARTNER IT SYMPOSIUM/XPO 2021
Quando: 8-11 novembre Dove: https://www.gartner.com/en/conferences/emea/symposium-spain Perché partecipare: per comprendere come sfruttare le opportunità delle tecnologie più innovative e la trasformazione dei ruoli in azienda.
MECSPE
Quando: 23-25 novembre Dove: BolognaFiere Perché partecipare: giunta alla 19esima edizione, la fiera quest’anno propone 13 saloni tematici, alcuni dei quali dedicati al tema della “fabbrica 4.0” e a tecnologie di automazione, stampa 3D, cybersicurezza, 5G.
DELL TECHNOLOGIES FORUM
Quando: 11 novembre Dove: https://events.delltechnologies.com Perché partecipare: per scoprire le ultime novità tecnologiche di Dell e degli sponsor Intel e Microsoft, attraverso keynote strategici e sessioni interattive.
FORRESTER DATA STRATEGY & INSIGHTS
Quando: 18-19 novembre Dove: https://www.forrester.com/event/data-strategy-and-insights/ Perché partecipare: per ascoltare i consigli degli analisti e le testimonianza delle grandi aziende sulle best practices di utilizzo dei dati.
50 |
OTTOBRE 2021
ERP, CRM E BUSINESS APPLICATION NELLE IMPRESE DATA DRIVEN
Quando: 25 novembre Dove: https://www. theinnovationgroup.it/events Perché partecipare: per capire, in una Web conference di mezza giornata, come si stanno trasformando le applicazioni “core” e quali vantaggi possono offrire.
The Innovation Group Innovating business and organizations through ICT
in collaborazione con:
Il ruolo del digitale nei settori fashion, luxury & design 1 dicembre 2021
Iscriviti ora per seguire l’evento in LIVE STREAMING
www.theinnovationgroup.it carlotta.difalco@theinnovationgroup.it
#TIGlifestyle
Tutta la tecnologia che conosciamo
E QUELLA CHE IMMAGINIAMO PER IL FUTURO
DIGITAL POWERED ENTERPRISE MOBILE WEB SOCIAL MEDIA SMART CITY CLOUD SOFTWARE info@posytron.com • posytron.com
INTERNET OF THINGS