www.technopolismagazine.it
NUMERO 50 | DICEMBRE 2021
STORIE DI ECCELLENZA E INNOVAZIONE
PROMESSE E IMPEGNI DELL’ITALIA DIGITALE Pubblica Amministrazione, turismo, sanità, ma non solo: tutti i settori dell'economia e della società sono chiamati a trasformarsi. Dal cloud all'IoT, passando per le banche dati, la tecnologia è uno strumento trasversale alle diverse “missioni” del Pnrr.
INFRASTRUTTURE
24
Visibilità sull'intera filiera e capacità di pianificazione sono gli obiettivi raggiunti da Pirelli lungo il proprio percorso di evoluzione.
CYBERSICUREZZA
32
Ransomware "a servizio", attacchi di supply chain, compromissione delle identità nell'oroscopo del cybercrimine per il 2022.
EXECUTIVE ANALYSIS Difesa preventiva e reattiva, risorse interne e outsourcing: le aziende sfoderano le armi per contrastare minacce complesse.
The Innovation Group Innovating business and organizations through ICT
Events & Webinar Market Research Consulting & Advisory Digital Marketing Go to market services Content creation Storytelling ICT Magazines
www.theinnovationgroup.it segreteria.generale@theinnovationgroup.it 0287285500
SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE
N° 50 - DICEMBRE 2021 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012 Direttore responsabile: Emilio Mango Coordinamento: Valentina Bernocco Hanno collaborato: Roberto Bonino, Marco Di Dio Roccazzella, Stefano Maggioni, Roberto Masiero, Andrea Tarquilio, Elena Vaciago, Ezio Viola Foto e illustrazioni: iStockphoto, Adobe Stock Images, Shutterstock, Unsplash, Pixabay
Una rivoluzione ancora incompresa La ripartenza dell’Italia si gioca sul digitale Una spinta per il turismo
10 IN EVIDENZA
Lavori in corso per il metaverso Il chip crunch condiziona ancora l’industria Rsa in cerca di innovazione, oltre l’emergenza covid Telemedicina per una sanità più efficace Lenovo scende in campo a fianco dell’Inter Nella sicurezza, prevenire è meglio che curare Un virtual twin per liberare la creatività Omnicanalità e personalizzazione orientano il retail Migliore protezione con il doppio backup
24 INFRASTRUTTURE
Pirelli sfreccia sulla strada della trasformazione Digital divide, un percorso a ostacoli
28 INTELLIGENZA ARTIFICIALE
Un problema di immaturità L’obbligo morale di contenere il bias Virtualizzazione e intelligenza, la coppia vincente
32 CYBERSECURITY Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it
Pubblicità: The Innovation Group Srl tel: 02 87285500
38 EXECUTIVE ANALYSIS
Stampa: Ciscra SpA - Arcore (MB) © Copyright 2021 The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.
Nuove strategie per chi gioca in difesa Vecchi e nuovi pericoli all’orizzonte
36 STRATEGIE IT
Percorsi diversificati, obiettivi comuni
Prevenzione e reazione contro gli attacchi sofisticati Le parole chiave contro la complessità
42 SPECIALE CLUSTER REPLY Il coraggio di innovare dei “campioni digitali”
46 ECCELLENZE
Sport e Salute - Retelit Pinalli - Radicalbit Granarolo - Sap Conductix Wampfler - HP
50 APPUNTAMENTI
STORIA DI COPERTINA | Digital Italy
UNA RIVOLUZIONE ANCORA INCOMPRESA La trasformazione digitale nel post pandemia ha i tratti di un cambiamento epocale, ma la sua vera portata non è ancora stata capita del tutto.
4
| DICEMBRE 2021
”I
l digitale non è la ciliegina: il digitale è la torta!”. Così, durante la sua presentazione al Digitaly Italy Summit organizzato a Roma da The Innovation Group, Luciano Floridi alludeva all’importanza del digitale in tutte le dimensioni dell’economia e della società di oggi. Il filosofo ed esperto di etica dell’informazione (professore di Filosofia ed Etica dell’Infor-
mazione all’Università di Oxford e professore di Sociologia della Cultura e della Comunicazione all’Università di Bologna) sottolineava però anche che molti capi d’impresa oggi sono ancora convinti che il digitale sia la ciliegina. Così come molti ritengono di poter fare i conti con la transizione ecologica semplicemente con una spolverata di green washing. Insomma, non si è ancora capito completamente quale sia la
potenza della rivoluzione digitale e che è qui che sta il profitto. A tutti questi temi il Digital Italy Summit ha riservato un repentino risveglio. Da tanto tempo si parla di “cambio di paradigma”; ma i germi del cambiamento erano lì da parecchio, ed erano anni che i più avveduti avevano cominciato a introdurre cambiamenti profondi, a ridisegnare prodotti, processi, modi di produzione, modelli di business grazie al digitale. È stata la pandemia a far precipitare il cambiamento, a imprimervi un’accelerazione incredibile. E così, mentre prima si passavano mesi a litigare su come allocare qualche miliardo di euro, ora ci troviamo improvvisamente di fronte alla sfida di investire efficientemente, in tempi brevi, 230 miliardi: è questo il segno del cambio di paradigma. E non si possono utilizzare i metodi e i criteri derivati dall’esperienza del Novecento: affrontare una trasformazione radicale fingendo che nulla sia avvenuto è la ricetta per il disastro. Le opportunità della trasformazione digitale
Quali, dunque, alcune delle idee che sono emerse dalla tre giorni del Summit? Nel suo intervento, il professor Floridi ha innanzitutto chiarito che la nuova sfida non è l’innovazione digitale, ma la governance del digitale. Oggi un’azienda che abbia fondi sufficienti compra tecnologia per l’innovazione digitale, ma il problema vero è che cosa farci: in che direzione vogliamo andare come società, come azienda, come ambiente complessivo? Come governare l’integrazione di dati dai formati eterogenei, di database che non si parlano tra loro, di sistemi informativi frammentati e di centri di potere autoreferenziali? Una seconda verità da considerare è che la rivoluzione digitale è una rivoluzione am-
bientale, e non massmediatica. Non è una questione di comunicazione, ma investe nel profondo la natura dell’ambiente informazionale in cui viviamo. Ma questo ambiente quanto è fragile o robusto? Quanta ecologia di questo ambiente vogliamo mettere in campo? Dobbiamo metterci in testa che andiamo verso un mondo ibrido, in cui la dicotomia online/offline è ormai solo un vecchio reperto novecentesco. In terzo luogo, bisogna riflettere sul fatto che quella digitale è un’innovaione di design: non è né invenzione né scoperta. Il design significa mettere insieme vincoli e risorse per risolvere un problema, in vista di un fine. Il design teso all’innovazione investe le istituzioni, i modelli di business, i servizi e i prodotti, sfruttando quella proprietà unica del digitale di scollare e reincollare la realtà. Significa utilizzare il meglio che l’umanità abbia mai prodotto, nella sua capacità creativa, per risolvere problemi senza basarsi su soluzioni vecchie. E dunque il nostro Paese, culla del design industriale, ha davanti un’occasione per estendere la propria capacità creativa al mondo delle istituzioni, dei nuovi business model, delle necessarie innovazioni sociali nel campo del welfare.
Il “blu” amico del “verde”
Il blu (del digitale) è amico del verde (dell’ambiente), per tre motivi: perché facciamo di più con meno, perché possiamo fare cose diverse da quelle che facevamo prima, e perché possiamo fare cose che prima non potevamo proprio fare. E queste tre caratteristiche consentono al digitale di scavalcare problemi che l’analogico non era in grado di gestire. È il mondo delle “twin transformation”, in cui la rivoluzione digitale, più matura, può contribuire potentemente allo sviluppo della transizione ecologica. In un’altra efficace immagine, Floridi ha spiegato che dai “colletti bianchi” passeremo ai “colletti verdi”, cioè andremo da un concetto di consumismo a un concetto di cura. La prossima fase indotta dallo sviluppo del capitale vedrà il passaggio da un capitalismo del consumo a un capitalismo della cura, nel quale le risorse economiche coinvolte sono immense. Oggi alcuni di questi concetti sono già patrimonio consolidato delle aziende e delle organizzazioni più avanzate; altri hanno un sapore ancora pionieristico, ma siamo convinti che negli anni prossimi li vedremo affermarsi diffusamente. Roberto Masiero 5
STORIA DI COPERTINA | Digital Italy
LA RIPARTENZA DELL’ITALIA SI GIOCA SUL DIGITALE L’innovazione tecnologica è trasversale alle “missioni” del Pnrr, il Piano Nazionale di Ripresa e Resilienza, e avrà impatti su tutti i settori, dall’industria alla sanità.
6
| DICEMBRE 2021
S
ul Pnrr, il Piano Nazionale di Ripresa e Resilienza, presentato dal governo italiano alla Commissione Europea lo scorso aprile, si costruisce il futuro dell’Italia. Come noto, il governo punta a dare impulso decisivo al rilancio della competitività e della produttività nazionale rendendo più moderna e digitale la Pubblica Amministrazione, imprimendo un’innovazione strutturale nel sistema produttivo, proseguendo nella realizzazione della banda larga e, infine, investendo nel patrimonio
turistico e culturale del Paese. I soldi ci sono: il governo ha chiesto all’Europa il massimo delle risorse disponibili per il nostro Paese, pari a 191,5 miliardi di euro, di cui 68,9 a fondo perduto e 122,6 sotto forma di prestiti; a questo si aggiungono circa 13 miliardi di euro del programma React-Ee e circa 30,6 miliardi del Piano nazionale per investimenti complementari, per un totale, quindi, di 235,1 miliardi di euro. Il piano delinea anche un insieme di riforme necessarie per poter utilizzare le risorse finanziarie del Recovery and Re-
silience Facility dell’Unione Europea, su cui si basa la strategia di ripresa post-covid del programma Next Generation Eu. Il Pnrr punta a intervenire sulla riduzione della burocrazia e sulla rimozione di vincoli all’aumento della produttività, con un articolato e complesso insieme di riforme orizzontali, abilitanti e settoriali, oltre ad altre specifiche. A detta del Governo, l’impatto sull’economia italiana potrà essere pari a un ulteriore aumento dello 0,8%, che porterebbe il tasso di crescita nell’ultimo anno all’1,4%; l’impatto complessivo sul prodotto interno lordo viene stimato in +3,6% per l’anno 2026, con un effetto di contenimento sia sul rapporto debito pubblico/PIL sia sul tasso di disoccupazione. Le regole imposte dall’Unione Europea, i target e le rigorose scadenze indicate nel Piano saranno le scommesse principali che il Governo e la classe dirigente pubblica e privata dovranno affrontare. A detta di alcuni osservatori, l’eccessiva frammentazione delle singole aree progettuali rischia di rendere ulteriormente complesso, per il Governo, il monitoraggio degli stati di avanzamento specifici. Il peso del digitale e la “Missione 1”
Quanto pesa, all’interno del Pnrr, la componente digitale? Per rispondere bisogna considerare sia le risorse che, nelle varie “Missioni” del piano, vengono dedicate esplicitamente alla transizione digitale, sia le potenziali ricadute sui vari ambiti. La “Missione 1”, incentrata su digitalizzazione e innovazione del settore pubblico, del sistema produttivo e del turismo, convoglia il 21% circa dei fondi complessivi ovvero 49,85 miliardi di euro. Serviranno a migliorare la capacità e l’efficienza delle amministrazioni pubbliche centrali e locali, attraverso la semplificazione e la digitalizzazione di procedure e servizi. Nella gestione dei dati dovrà valere il principio once only, secondo cui gli enti della PA non dovranno più chiedere a cittadini e impre-
se i dati di cui siano già in possesso, ma potranno estrapolarli dalle proprie banche dati. Il tema dell’interoperabilità di flussi documentali e dati viene ripreso in diversi contesti e progetti, fra cui quelli riguardanti lo Sportello Unico delle Attività Produttive e lo Sportello Unico dell’Edilizia. Si punta poi a rafforzare i servizi digitali già attivi, come Spid, Cie, PagoPA e app IO, e notevole attenzione viene dedicata al cloud, a cui vengono destinati circa 1,9 miliardi di euro. L’obiettivo è quello di migrare in cloud, e in gran parte nella nuova infrastruttura del Polo Strategico Nazionale (Psn), le attività delle amministrazioni pubbliche oggi appoggiate on-premise on in data center poco sicuri. Da stime dell’AgID, il 95% dei data center a cui si appoggia la PA italiana non soddisfa criteri di sicurezza: questa infrastruttura dispersa dovrà essere consolidata. Duecento enti centrali, insieme a ottanta aziende sanitarie locali, dovranno trasferire i propri dati nei data center del Pns (quattro infrastrutture, cioè due coppie ridondate) mentre azioni differenti riguarderanno le pubbliche amministrazioni locali. In alternativa al Polo Strategico Nazionale, gli enti potranno migrare sul cloud di uno tra gli operatori di mercato che saranno stati precedentemente certificati oppure potranno appoggiarsi ad altre amministrazioni locali. All’interno del Piano sono esplicitati i progetti di digitalizzazione delle grandi di amministrazioni centrali (Inps, Inail, Ministero della Giustizia, Consiglio di Stato, Ministero della Difesa e Ministero dell’Interno), per investimenti pari a 611 milioni di euro, oltre che risorse per migliorare le competenze tecnologiche della PA e per promuovere anche un servizio civile digitale a supporto degli enti locali (195 milioni di euro). Altri stanziamenti sono previsti per il rafforzamento della cybersecurity a livello centrale (623 milioni di euro) e per la semplificazione del processo di acquisto di risorse Ict con la creazione di un
portale digitale per gli appalti. La seconda componente della “Missione 1” riguarda l’innovazione del sistema produttivo e consiste in diversi tipi di intervento volti a favorire la transizione digitale, il passaggio al modello Industria 4.0 e la formazione di competenze tecnologiche all’interno del settore, nonché lo sviluppo di nuove infrastrutture di rete a banda larga e ultralarga. La terza componente, relativa a cultura e turismo 4.0, prevede l’uso del digitale nella comunicazione e promozione, ma anche nello sviluppo di nuovi contenuti e servizi digitali. Tra le varie attività c’è il potenziamento del portale “Italia.it”, che dovrà ispirarsi alle best practice estere. Il digitale nella rivoluzione verde
Sui 59,47 miliardi di euro della “Missione 2”, dedicata alla transizione ecologica, circa 8,5 miliardi di euro potranno servire allo sviluppo di un trasporto locale più sostenibile. Si mira, per esempio, a realizzare una rete di 21mila punti di ricarica per veicoli elettrici, che dovrà funzionare come una smart grid moderna, impiegando in modo avanzato dati e intelligenza software. Anche nella già citata “Missione 1” si presta attenzione al miglioramento della mobilità destinando 40 milioni di euro alla creazione di servizi di “mobility as a service”, che copriranno le diverse fasi degli spostamenti, dalla pianificazione ai pagamenti. Altro progetto importante, cui sono riservati 500 milioni di euro, riguarda la tutela del territorio e delle acque e contempla la realizzazione di un sistema avanzato e integrato di monitoraggio e previsione, da remoto, di ampie fasce territoriali: l’analisi dei dati (raccolti anche da satelliti, droni, sensoristica e con l’integrazione di diversi sistemi informativi e reti di telecomunicazione) permetterà di contrastare fenomeni di smaltimento illecito di rifiuti, di studiare il cambiamento climatico e di elaborare piani di prevenzione dei rischi. Altri 100 milioni di euro saranno destinati alla “digitalizzazione” 7
STORIA DI COPERTINA | Digital Italy
dei 24 parchi nazionali e delle 31 aree marine protette, con la creazione di nuove procedure di gestione, attività di monitoraggio e lancio di nuovi servizi per i visitatori. Importanti sono anche l’obiettivo di ridurre le perdite nelle reti di distribuzione dell’acqua (attività a cui sono dedicati 900 milioni) e gli investimenti sulle reti e i sistemi irrigui per l’agricoltura (800 milioni, con l’installazione di contatori e sistemi di controllo a distanza. Sempre nella “Missione 2” sono riportate le risorse dedicate all’economia circolare (circa 2,47 miliadi) di cui circa 1,5 miliardi sono destinati all’ammodernamento degli impianti per la gestione dei rifiuti. Da segnalare, inoltre, i 600 milioni di euro dedicati ai progetti di potenziamento della la rete di raccolta differenziata attraverso monitoraggio con droni, satelliti e intelligenza artificiale. Sistemi di monitoraggio e misurazione sono centrali anche nelle iniziative volte a ottimizzare i consumi energetici, riducendo l’impatto ambientale. Per questo stesso fine sono previsti lo sviluppo di sistemi di teleriscaldamento (200 milioni di euro) e soprattutto la creazione e il rafforzamento di smart grid (3,6 miliardi di euro) che potranno favorire l’adozione di fonti rinnovabili.
8
| DICEMBRE 2021
Verso una mobilità sostenibile
Il ruolo del digitale e gli obiettivi di transizione ecologica tornano a incrociarsi anche nella “Missione 3”, dedicata alle infrastrutture per la mobilità sostenibile. Possiamo fare diversi esempi di come il digitale possa contribuire a rendere più ecologico, moderno e sicuro il sistema dei trasporti: il miglioramento della sicurezza di ponti, viadotti e gallerie con l’utilizzo di sistemi di monitoraggio e manutenzione predittiva; l’aggiornamento dei sistemi di segnalazione dei trasporti ferroviari; l’incremento della dotazione tecnologica e la definizione di standard di interoperabilità per le imprese di trasporto merci e logistica. È atteso anche lo sviluppo dei Port Community Systems per promuovere servizi standard di interfaccia con gli operatori marittimi, di terra e i gestori di infrastrutture nodali (interporti, retroporti, aeroporti, gestori della infrastruttura ferroviaria) e per l’interoperabilità con la piattaforma logistica nazionale (Reti Portuali). Circa 110 milioni di euro serviranno per rinnovare i sistemi aeroportuali, con potenziamento e creazione di strumenti di digitalizzazione dell’informazione aeronautica e con piattaforme e servizi per aerei senza pilota. Per questi e
altri progetti della “Missione 3”, incentrati sul digitale, possiamo stimare investimenti di valore compreso tra i 5 e i 6 miliardi di euro. Istruzione, ricerca e sanità
Anche le restanti sezioni del Pnrr sono attraversate dal digitale. Nella “Missione 4”, relativa a scuola, istruzione e ricerca, la tecnologia ha un ruolo sia come oggetto (lo sviluppo di competenze digitali tra il personale docente e amministrativo, oltre che tra gli studenti) sia come strumento (è abilitante per la didattica a distanza). Alla realizzazione di una “Scuola 4.0” sono dedicati 2,1 miliardi di euro, che serviranno tra le altre cose a realizzare aule e laboratori, nuove forme di didattica, l’aggiornamento di circa 100mila aule esistenti con connessioni di rete e dispositivi, e ancora il cablaggio di 40mila edifici scolastici. Anche nella “Missione 5”, dedicata a interventi per la coesione e inclusione, gli investimenti in digitale potrebbero avere ricadute (difficili da quantificare, allo stato attuale) su progetti di rigenerazione urbana, su programmi sulla qualità dell’abitare e sulla strategia nazionale per le aree interne. Nella “Missione 6”, centrata su salute e sanità, l’innovazione digitale assorbe circa 7,4 miliardi di euro, cioè poco meno di metà dello stanziamento complessivo della missione. Si punta a modernizzare il servizio sanitario nazionale migliorando l’accessibilità ai servizi e ampliando l’uso della telemedicina. Alla luce di questi numeri, possiamo realisticamente valutare che il potenziale diretto e indiretto della componente digitale sarà di circa 60-62 miliardi di euro nell’arco dei cinque anni: un impatto potenziale notevole sulla crescita dell’economia italiana. Continuare a monitorare l’evolvere dello scenario è importante, perciò The Innovation Group attiverà per il 2022 un servizio di “Pnrr tracking” per le aziende intenzionate a cogliere tutte le opportunità che si presenteranno. Ezio Viola
UNA SPINTA PER IL TURISMO Nuovi servizi digitali per una fruizione alternativa dei beni culturali, ma anche la creazione di un “hub nazionale” per la promozione dell’Italia.
I
l rapporto fra turismo, cultura e digitale dopo la crisi pandemica è diventato più stretto e ancor più strategico per il rilancio di un settore fondamentale dell’economia italiana. Il digitale è trasversale, in tutti i sensi. Perché può essere un trampolino per tutti gli operatori: enti del turismo, Regioni, borghi, tour operator, musei, istituzioni culturali. E perché funge da supporto in ogni genere di attività, dalla promozione delle località e delle attrazioni alla vendita dei servizi, dalla fruizione di servizi accessori (spostamenti, ricerca di informazioni, esplorazione del territorio, eccetera) fino al miglioramento del sistema di trasporti. “La pervasività del digitale nel turismo è evidente, come mostrano gli esempi di Giappone, Svizzera, Spagna, che sono più avanti dell’Italia. Abbiamo tanto lavoro da fare per recuperare posizioni rispetto ai Paesi più evoluti”, ha dichiarato in occasione del Digital Italy il ministro del Turismo, Massimo Garavaglia. “C’è anche la necessità di intercettare un diverso tipo di turisti: non solo i cosiddetti Millennials, ma anche nicchie che oggi non sono più così piccole, come quella dei nomadi digitali. Lo smart working può avere una base stagionale e questo richiede di usare diverse logiche per intercettare questo tipo di turisti”. Dunque lo shock della pandemia, nel 2020, ha evidenziato la grande necessità di prevedere il digitale in ogni elemento della filiera turistica, ma questa consapevolezza non basta:
servono anche le risorse per un’evoluzione tecnologica che consenta di trasformare l’intero settore. Una buona notizia è che il Pnrr ha previsto all’interno della sua “Missione 1” uno stanziamento per la creazione di un Hub nazionale del turismo, al cui lancio il Ministero del Turismo sta attualmente lavorando. Per il suo funzionamento sarà necessario disporre di dati completi e in tempo reale. Alcuni sono già disponibili (per esempio i dati dei trasporti, del Telepass e della telefonia), altri saranno forniti dall’osservatorio di Enit e Università Bocconi. Grazie al raggiunto accordo con le Regioni, inoltre, sarà possibile realizzare una banca dati delle strutture extralberghiere, sulle quali il Ministero progetta di fare azioni mirate per la regolarizzazione fiscale. Il Ministero del Turismo, inoltre, si interfaccerà con altri ministeri per la realizzazione di altre attività previste dal Pnrr. “L’Hub nazionale permette di operare in due modi”, ha spiegato Garavaglia, “cioè nella promozione del territorio e nella promozione dei temi, per esempio ‘le città della
lirica’ o ‘le città dei motori’. Dovranno anche essere sistemati i siti Web degli enti, che attualmente online non hanno la giusta rilevanza”. Sul tema della condivisione dei dati è intervenuto anche Francesco Tapinassi, direttore generale di Toscana Promozione Turistica, sottolineando come nei confronti di Regioni, Province, Comuni, enti territoriali, l’appello a “fare sistema” in passato è spesso rimasto inascoltato. Per favorire la condivisione e la circolazione dei dati nel settore turistico, una strategia efficace può essere quella di creare delle piattaforme che creano un’abitudine all’utilizzo, garantendo una ottimale user experience. A detta di Marina Lalli, presidente di Federturismo Confindustria, gli enti di promozione dovrebbero sfruttare il digitale per favorire lo sviluppo di un turismo più sostenibile, che attiri viaggiatori lontano dalle mete di massa, nei borghi e nei percorsi di ecoturismo. La raccolta e l’analisi dei dati degli spostamenti, inoltre, potrà servire a ottimizzare il sistema delle infrastrutture di trasporto. V.B.
9
IN EVIDENZA
IN EVIDENZA
l’analisi LAVORI IN CORSO PER IL METAVERSO Possiamo scommettere che una delle parole chiave del 2022 sarà metaverso. Non soltanto perché questo termine l’ha usato recentemente Mark Zuckerberg per descrivere la propria idea del futuro dei social network (per poi annunciare, a fine ottobre, il cambio di ragione sociale della sua azienda da Facebook a Meta). Ma anche perché altri colossi tecnologici, come Microsoft e Nvidia, stanno lavorando per costruire un’offerta di software e servizi di realtà aumentata e virtuale. Dove sta la novità, se queste tecnologie sono disponibili sul mercato da anni? In effetti la novità è soprattutto concettuale, sebbene nella costruzione del metaverso siano fondamentali anche tecnologie come i processori grafici, i visori, la computer vision, i sistemi di comprensione del linguaggio naturale e in generale il machine learning. Le società digitali oggi spingono per allargare i confini della realtà aumentata e virtuale, per farla uscire dalla nicchia dei videogiocatori altospendenti e delle applicazioni verticali (ingegneria, edilizia, logistica, chirurgia e altri settori che impiegano gli smart glasses). Nelle intenzioni di Zuckerberg, il metaverso toccherà ogni prodotto realizzato dalla sua azienda, dunque non solo di Facebook, e potrà essere fruito attraverso telefoni e Pc ma anche occhiali di realtà aumentata e visori di realtà virtuale. Il Ceo si dice convinto che in futuro potremo “trasportarci istantaneamente, in forma di ologrammi” in ufficio, a un concerto
10 |
DICEMBRE 2021
o a casa dei nostri genitori. All’interno di questa dimensione sarà possibile fare di tutto, incontrarsi con gli amici o lavorare, studiare o giocare, fare acquisti o realizzare progetti creativi. Sarà un modo diverso di fare cose già note (come guardare la Tv online, videogiocare o trovarsi con i colleghi in videoconferenza) ma anche per vivere esperienze totalmente nuove. A tal fine non basterà aggiungere la terza dimensione, creando scenari immersivi fruibili con la vista e con l’udito: servirà anche il tatto. I laboratori di ricerca e sviluppo di Facebook stanno mettendo a punto un prototipo di guanto robotico con tecnologia aptica, che associato a visori potrà consentirci di “manipolare” il mondo digitale. Con elevato realismo potremo giocare una partita a scacchi con un avversario che sta dall’altra parte del mondo, o semplicemente scrivere su una tastiera virtuale sentendo il peso e il “click” di pulsanti immateriali. Per Meta, queste e altre possibilità aprono infiniti scenari di monetizzazione tramite pubblicità. Per Microsoft, invece, il metaverso sarà “una nuova versione o una nuova visione di Internet, nella quale le persone si trovano per comunicare, collaborare e condividere attraverso una presenza personale virtuale su qualsiasi dispositivo”, ha spiegato John Roach, Cto Digital Advisory Services dell’azienda di Redmond. Il primo passo sarà l’esordio di nuove funzionalità all’interno di Microsoft Teams: sarà possibile, per esem-
pio, partecipare a una videoconferenza attraverso un avatar e si potranno creare degli spazi virtuali per gli incontri di lavoro. Microsoft è convinta che queste modalità possano servire a rendere più coinvolgente, empatica e produttiva la comunicazione. Altra declinazione del metaverso è quella di Nvidia, che sta portando nuove funzioni di realtà virtuale e simulazione in Omniverse, una piattaforma di digital twin per grafici, creativi, architetti, ingegneri, progettisti e sviluppatori software. Una delle nuove applicazioni introdotte permette di creare avatar tridimensionali interattivi, che oltre a muoversi nello spazio digitale possono anche vedere, ascoltare e parlare. Forse però non abbiamo ancora visto nulla e fra qualche mese o anno, quando anche Apple sarà scesa in campo con i suoi (chiacchierati e attesi) visori di realtà aumentata, le frontiere tecnologiche si sposteranno ancora. Le ultime indiscrezioni suggeriscono che arriveranno a fine 2022. Intanto resta un dubbio: abbiamo veramente bisogno del metaverso? Quanto è desiderabile rendere ancora più digitali le nostre vite, già provate dalle ripetute esperienze di isolamento dei lockdown? Forse la prospettiva di una dimensione digitale immersiva, parallela a quella tradizionale di Internet, è desiderabile se questo luogo sapremo frequentarlo a piccole dosi, per attività specifiche e circoscritte. Anche a costo di deludere Mark Zuckerberg. Valentina Bernocco
IL CHIP CRUNCH CONDIZIONA ANCORA L’INDUSTRIA Anche quest’anno lo squilibrio tra domanda e offerta di componenti ha rallentato i mercati tecnologici. Ma i produttori non restano a guardare. la corsa agli acquisti del 2020. Riflessi evidenti del chip crunch si osservano soprattutto sulla telefonia mobile: certifica Gartner che il numero di smartphone messi in commercio nel terzo trimestre, 342 milioni, segna un calo del 6,8% anno su anno. “Nonostante una forte domanda da parte dei consumatori, le vendite sono calate per via dei ritardi nei lanci dei prodotti, di consegne rallentate e di un inventario insufficiente nel canale”, ha commentato Anshul Gupta, direttore della ricerca senior di Gartner. “Le difficoltà di fornitura hanno impattato sui ritmi di produzione degli smartphone basilari e utility più che sui modelli premium”. Nemmeno Apple è immune dal problema: durante una earnings call con gli analisti recentemente Tim Cook ha ammesso che la penuria di componenti Foto di Michael Schwarzenberger da Pixabay
Per l’ecosistema della supply chain di semiconduttori sta per chiudersi un altro anno di difficoltà. Impegnativo per i fornitori, che hanno faticato e ancora faticano a star dietro alla domanda di componenti; e soprattutto per le aziende che vendono prodotti finiti, costrette a rivedere la tabella di marcia dei nuovi lanci o a ridurre le quantità inizialmente previste. Il fenomeno della penuria di semiconduttori, già ribattezzato chip crunch, affligge in modo particolare il settore automobilistico ma i suoi effetti sono evidenti anche nei mercati dell’informatica e della telefonia mobile. Sull’andamento delle vendite di Pc (che nel terzo trimestre del 2021 calano dell’1,9% a volume, anno su anno, stando ai dati di Canalys) pesano anche altre dinamiche, come la parziale saturazione della domanda dopo
“al momento sta condizionando sostanzialmente la maggior parte dei nostri prodotti”, con un impatto stimato di circa 6 miliardi di dollari sui ricavi trimestrali. Gli attori del mercato non se ne stanno certo con le mani in mano. Intel ha annunciato di voler spendere circa 80 miliardi di dollari nel corso di un decennio per realizzare in Europa nuovi impianti produttivi di chip, soprattutto destinati al mercato automobilistico. Altri due grandi proprietari di fonderie, cioè Tsmc (Taiwan Semiconductor Manufacturing Company) e Sony, hanno invece scelto di unire le forze e gli investimenti (7 miliardi di dollari) per realizzare in jointventure un nuovo impianto produttivo in Giappone. E Tsmc ha pianificato, da solo, un colossale investimento da 100 miliardi di dollari per potenziare la propria capacità produttiva da qui a tre anni. In base agli annunci fatti da Samsung, dalle sue fabbriche potrà uscire nel 2026 una quantità di componenti tripla rispetto alla capacità detenuta nel 2017. Rischieremo, dopo il chip crunch, un nuovo disequilibrio di segno opposto, dominato da un eccesso d’offerta? Difficile prevederlo, ma la continua e progressiva digitalizzazione di tutte le attività umane lascia facilmente immaginare che in futuro ci sarà sempre più bisogno di componenti elettronici. L’industria dei semiconduttori, scrive Idc, “continuerà a sforzarsi di trovare un nuovo equilibrio tra i diversi segmenti di mercato, mentre gli investimenti in capacità miglioreranno la resilienza del settore nel giro di qualche anno”. A fare da traino, nel futuro immediato, sarà una prolungata e solida crescita di domanda per componenti destinati a computer, server, automobili e piattaforme 5G. Anche i data center che erogano servizi cloud continueranno espandersi, contribuendo alla crescita del mercato. V.B.
11
IN EVIDENZA
RSA IN CERCA DI INNOVAZIONE, OLTRE L'EMERGENZA COVID Uno studio realizzato da Ipsos e Ascom Ums evidenzia le carenze (anche tecnologiche) delle strutture di assistenza e cura agli anziani italiane. I fondi del Pnrr potrebbero rappresentare un punto di svolta. Il covid-19, specie nella fase acuta della pandemia nel 2020, ha creato nelle Rsa difficoltà e pressioni fuori dalla norma. Ma ha anche scoperchiato carenze storiche ed elementi critici preesistenti, che limitano le potenzialità di trasformazione digitale delle strutture di assistenza e cura agli anziani. Oggi, però, i fondi del Pnrr (Piano Nazionale di Ripresa e Resilienza) potrebbero costituire la base per un’evoluzione che fa leva sul digitale. Da una ricerca realizzata da Ipsos con il supporto di Ascom Ums, specialista di soluzioni tecnologiche per il mondo sanitario, emerge un quadro variegato delle Rsa italiane, polarizzate fra grandi gruppi e piccole realtà e concentrate soprattutto al Nord. In assenza di un’anagrafe nazionale univoca su queste strutture, i ricercatori hanno realizzato una prima analisi desk per incrociare le fonti disponibili (Istat, ministero della Salute e Garante nazionale dei diritti delle persone private della libertà personale) e tracciare uno scenario di riferimento: ne è emerso che le strutture operanti in Italia sono circa 3.300, per un totale di circa 300mila posti letto. Il 54% degli ospiti ha un’età superiore a 65 anni e il 79% non è autosufficiente. Ipsos e Ascom Ums hanno poi analizzato un campione qualitativo di quattordici realtà, suddivise equamente tra soggetti di dimensione grande
12 |
DICEMBRE 2021
e piccola. I primi raccolgono dalle dieci alle 65 strutture, ciascuna della quali offre dai 30 ai 200 posti letto. Le seconde hanno numero e offerta di servizi più limitati (al massimo centri diurni e assistenza domiciliare). In uno scenario molto differenziato, è emerso che gli strumenti di comunicazione unificata e di analisi dei dati (chiamate di allarme, tempi di intervento) sono tra i più diffusi, mentre c’è forte carenza di soluzioni per la sicurezza del paziente e del personale, così come di sistemi di monitoraggio e integrazione della cartella clinica. “Abbiamo riscontrato la sostanziale assenza di soluzioni tecnologiche per il controllo delle funzioni vitali dei pazienti”, ha commentato Francesco Deventi, sales director di Ascom Ums. “Ciò deriva dal retaggio di un mandato considerato fondamentalmente assistenziale più che sanitario. Il covid-19, tuttavia, ha fatto crescere Francesco Deventi
il livello di attenzione, poiché i pazienti positivi necessitano di un monitoraggio costante dei parametri e al contempo è necessario un controllo più esteso per intercettare tempestivamente eventuali primi sintomi. L’integrazione con la cartella clinica elettronica solleverebbe gli operatori da parte del carico assistenziale”. Un’altra tecnologia di rilievo riguarda i sistemi di chiamata infermiere, resi obbligatori dalle norme di accreditamento. I grandi gruppi hanno messo in luce i vantaggi del software a livello gestionale, per monitorare la richiesta assistenziale dei vari nuclei, prevedere interventi mirati su ospiti con maggiore richiesta assistenziale e verificare l’operato in termini di tempi di intervento. Scarsamente presenti e ritenuti poco utili, invece, sono i sistemi di rilevazione dell’allontanamento dalla struttura. Ostacoli e opportunità Guardando avanti, anche nelle Rsa sarebbe auspicabile un processo di trasformazione digitale, che però oggi cozza contro diverse barriere, a partire dai costi e dalla necessità di rivedere i processi organizzativi. “La connessione a Internet è considerata il primo step del cambiamento”, ha osservato Deventi, “ma si tratta di un aspetto percepito come problematico per le caratteristiche strutturali o la localizzazione di alcune strutture,
Foto di JESHOOTS.COM di Unsplash
TELEMEDICINA PER UNA SANITÀ PIÙ EFFICACE
la frammentazione territoriale per i grandi gruppi e i tempi di intervento delle compagnie telefoniche”, Nel settore delle Rsa sono emerse, in ogni caso, alcune delle stesse dinamiche che hanno caratterizzato altri ambiti della società e realtà lavorative. Il covid-19 ha portato a un incremento nell’uso delle tecnologie da cui difficilmente si tornerà indietro. Anche qui si è stato sperimentato lo smart working per il personale amministrativo e le videochiamate (per lo più tramite tablet) hanno consentito una forma di contatto tra ospiti e familiari. Più raro l’effetto derivato da consulenze specialistiche e refertazioni offerte in remoto. Ora, nello scenario “next normal”, le Rsa si confrontano con necessità più stringenti. La carenza di personale soprattutto infermieristico richiede di poter ottimizzare i processi di assistenza e cura, mentre soprattutto per effetto della pandemia è cresciuta
la consapevolezza di dover garantire un intervento tempestivo in caso di bisogno e di dover offrire modalità nuove di relazione tra l’ospite e i suoi familiari. L’aumento delle spese dovuto al covid-19 e le mancate entrate derivanti dal calo degli accessi costituiscono un deterrente sulla strada della trasformazione digitale, ma i fondi del Pnrr potrebbero rappresentare una leva positiva, anche perché le linee guida del piano nazionale suggeriscono un ridisegno organizzativo e strutturale delle Rsa, che dovranno avvalersi della tecnologia per essere accompagnate in questo percorso. “Ci sono diversi ambiti nei quali la tecnologia può sostenere un percorso di innovazione”, ha concluso Deventi. “Dalla telemedicina alla gestione remotizzata di servizi e chiamate, si aprono opportunità per raggiungere la resilienza che purtroppo è mancata dinanzi alla crisi pandemica”. Roberto Bonino
All’interno della “Missione 5” del Pnrr, dedicata a “Coesione e inclusione”, circa 300 milioni di euro sono destinati a finanziare la riconversione delle Rsa e delle case di riposo per gli anziani in gruppi di appartamenti autonomi, dotati delle attrezzature necessarie e dei servizi attualmente presenti nel contesto istituzionalizzato. La digitalizzazione dei servizi rientra tra gli obiettivi citati nel testo del Pnrr, dove in particolare si sottolinea: “Elementi di domotica, telemedicina e monitoraggio a distanza permetteranno di aumentare l’efficacia dell’intervento, affiancato da servizi di presa in carico e rafforzamento della domiciliarità, nell’ottica multidisciplinare, in particolare con riferimento all’integrazione sociosanitaria e di attenzione alle esigenze della singola persona”. La telemedicina, come esplicitato nel testo del Pnrr, può intervenire in qualsiasi fase del percorso di prevenzione e cura (attraverso servizi di tele-assistenza, tele-consulto, tele-monitoraggio e tele-refertazione) e rappresenta un “formidabile mezzo” per contribuire a ridurre gli attuali divari geografici e territoriali nei servizi sanitari e assistenziali e nella promozione dell'assistenza domiciliare.
13
IN EVIDENZA
l’intervista
LENOVO SCENDE IN CAMPO A FIANCO DELL’INTER I vincitori dell’ultimo scudetto della Serie A fanno leva su un’infrastruttura avanzata di server e storage per analizzare le prestazioni dei giocatori e per gestire un grande volume di dati multimediali.
Non c’è dubbio che dietro ai successi dell’Inter ci sia il lavoro dell’allenatore e dei giocatori schierati in campo, ma c’è anche l’apporto dello staff tecnico, che in parte fa leva sull’utilizzo della tecnologia. La società nerazzurra non solo veste maglie sponsorizzate Lenovo, bensì con il vendor ha avviato una collaborazione che l’ha portata ad adottare alcune delle sue soluzioni più avanzate per supportare il lavoro di tutte le squadre impegnate nei vari campionati (la Serie A maschile, quella femminile e le varie competizioni giovanili) e per gestire in modo innovativo il rapporto con la tifoseria. L’archiviazione e l’elaborazione dei dati sono il punto di partenza per creare esperienze di fidelizzazione in cui la componente emotiva è centrale. Per conoscere meglio che cosa si muova dietro le quinte tecnologiche di una società di calcio, abbiamo incontrato l’head of information system dei campioni d’Italia, Lorenzo Antognoli, e Alessandro De Bartolo, amministratore delegato & country manager Infrastructure Solutions Group di Lenovo Italia. Che peculiarità ha l’IT in un contesto particolare come quello calcistico?
Antognoli: La nostra attività si declina in tre ambiti distinti. Accanto a quello amministrativo, tipico di ogni azienda, lavoriamo a stretto contatto con gli staff tecnici per l’attività stret-
14 |
DICEMBRE 2021
tamente sportiva e ci occupiamo anche della produzione e distribuzione di contenuti multimediali indirizzati ai nostri fan. Per quanto riguarda il contesto strettamente calcistico, l’IT fornisce strumenti a quella che viene definita football analysis, ovvero un insieme di processi di analisi delle prestazioni individuali e collettive dei giocatori, che produce actionable insight di supporto soprattutto alla definizione dei programmi di allenamento e di preparazione alle partite. Diverse fonti contribuiscono alla generazione delle analisi, spaziando dalle registrazioni video ai dispositivi IoT utilizzati soprattutto negli allenamenti. Tutto confluisce in un repository, dove appositi algoritmi ci aiutano a mantenere la qualità dei dati e ad arricchirli fino a comporre insiemi di Kpi, che vengono messi a disposizione degli staff tecnici sotto forma di report, ma anche con formulazioni in linguaggio naturale. A questo si aggiunge il fatto che Inter possieda una media house, la cui funzione essenziale è amplificare quello che avviene sul campo di calcio ed estendere così oltre i 90 minuti l’esperienza del tifoso, soprattutto al di fuori dello stadio. La produzione media è estremamente ricca sia di immagini sia di video, per cui occorre un lavoro di analisi e arricchimento basato su metadati che rendano ogni singolo item facile da ricercare o raggruppare.
Che tipo di infrastruttura serve per poter gestire al meglio dati così eterogenei?
De Bartolo: Dobbiamo necessariamente combinare alte capacità di calcolo e semplicità infrastrutturale, garantendo flessibilità tanto nella gestione quanto nell’evoluzione dell’infrastruttura. Per questo abbiamo implementato le soluzioni iperconvergenti ThinkAgile Hx, fra le più evolute della categoria. Per quanto riguarda la gestione dei dati, ci siamo orientati sui sistemi nel ThinkSystem Dm 7000 H, aperti al dialogo con componenti interne o esterne alla società, ma anche scalabili per sostenere il carico legato alla produzione media. Antognoli: Per le nostre attività di marketing di contenuto, oggi disponiamo di oltre 50mila ore di videoclip e di oltre un milione di immagini che risiedono sulle tecnologie Lenovo. L’esigenza di capacità cresce al ritmo di circa 1,5 terabyte alla settimana e prevediamo di raggiungere rapidamente un volume totale superiore al petabyte (un milione di gigabyte, ndr). Sul lato della produzione media dobbiamo necessariamente rimanere on-premise, perché le dimensioni dei singoli file non si prestano a trasferimenti in maniera nativa verso il cloud, mentre i sistemi devono risiedere in prossimità del luogo di produzione dei contenuti.
Quali tecnologie vi aiutano a elaborare grandi quantità di dati?
Antognoli: L’ingestione avviene da fonti eterogenee sia di tipo esterno sia interne, con granularità differenti. Questa massa confluisce verso lo storage, dove al momento è ospitato un data warehouse, ma in prospettiva pensiamo di evolvere verso un data lake. Qui, con il lavoro di un data scientist e il supporto del machine learning, i dati vengono arricchiti per dedurne dei Kpi, poi inseriti in sistemi di reportistica distribuiti sui tablet dello staff tecnico. Sul versante marketing, per la componente multimediale disponiamo di un sistema di media asset management, che raccoglie direttamente ciò che arriva dai dispositivi di cattura di immagini e video. L’interazione con l’intelligenza artificiale ci consente di realizzare un tagging automatico utile per far sì che ogni file sia facilmente ricercabile per situazioni di gioco, giocatore, elementi grafici di vario tipo. Come si declina per l’Inter il concetto di customer experience?
Antognoli: Noi lavoriamo per costruire un ecosistema digitale che esca dai canoni ordinari dei funnel di conversione. Da noi la componente emotiva è importante, per cui vogliamo creare le condizioni per erogare contenuti sempre più specifici e tailor-made in funzione dei segmenti di tifosi e appassionati, moltiplicando i touchpoint e caratterizzandone ognuno per esperienze verticali. Vogliamo offrire ai fan i contenuti che più stanno loro a cuore, sfruttando anche gli aspetti emotivi e capitalizzando sull’attualità e sull’urgenza di fruizione.
Qual è il ruolo del fornitore di infrastruttura e fino a che punto si estende anche alla consulenza sui progetti?
Che cosa avete in programma per il futuro? Quali altre tecnologie intendete adottare?
De Bartolo: Questo secondo aspetto è certamente importante e caratterizzante per noi, ma soprattutto ci preoccupiamo di guardare al futuro, individuando come applicare le nuove tecnologie che sviluppiamo su clienti come Inter. Un esempio potrebbe essere quello delle modalità di applicazione dell’intelligenza artificiale o come migliorare l’utilizzo dell’edge computing. Poter lavorare nella logica dell’everything-you-need-as-a-service consente di essere meno vincolati alla pura scelta tecnologica, per ragionare invece congiuntamente sul raggiungimento degli obiettivi applicativi e di business.
Antognoli: Sicuramente stiamo valutando l’ipotesi di utilizzare tecnologie edge per avvicinarci a un obiettivo di real time analytics nell'area sportiva, portando il più possibile la tecnologia in campo. Stiamo ragionando anche su una collaborazione sul fronte dell’intelligenza artificiale. Oggi siamo nelle condizioni in cui il machine learning ci aiuta a definire bene determinate situazioni e predirne altre, ma ci sono margini per poter acquisire conoscenze anche su aspetti fin qui meno considerati, per fornire informazioni più complete sulle dinamiche del campo. Roberto Bonino
15
IN EVIDENZA
NELLA SICUREZZA, PREVENIRE È MEGLIO CHE CURARE Nel 2021 Check Point ha assistito all’evoluzione quantitativa e qualitativa dei ransomware e del phishing. Nel mondo i cyberattacchi sono cresciuti del 40% rispetto ai numeri del 2020. In Italia in media, negli ultimi sei mesi, un’azienda è stata colpita 964 volte a settimana: un dato ben più alto della media europea di 717 attacchi settimanali pro capite. Protagonista dell’anno è stato, ancora una volta, il ransomware: il numero di casi è più che raddoppiato rispetto ai livelli di inizio 2020. Sono alcune delle statistiche diffuse da Check Point Software Technologies, uno tra i più grandi operatori sul mercato della cybersicurezza, oggi presente nel mondo con oltre seimila dipendenti, una rete di oltre 6.200 partner distribuita in 88 Paesi e oltre 100mila clienti. “Il ransomware è il tipo di attacco che fa più clamore, e mai come quest’anno se ne è parlato”, ha commentato il country manager italiano della società, Marco Urcioli. “Ci sono però anche altre tipologie di malware: per esempio, l’Italia non brilla sui cryptomalware”. In
media, sul totale degli attacchi settimanali rivolti verso un’azienda, in Italia i malware che estraggono criptovaluta hanno rappresentato il 4% nel 2021, dato superiore al 3,1% della media europea. Siamo sopra la media anche per quanto riguarda i programmi infostealer, che rubano credenziali, i malware bancari e le botnet (come mostrano i dati della tabella). In Italia 93% dei file malevoli inviati nel 2021 ha utilizzato come veicolo la posta elettronica, e anche questo dato è superiore di qualche punto percentuale alla media europea. Il 2021 è stato anche un anno di ascesa del phishing, attività veicolata soprattutto dalla posta elettronica e mirata al furto di informazioni monetizzabili e di credenziali. Nel terzo trimestre di quest’anno i nomi più abusati dai truffatori sono stati, nell’ordine, Microsoft, Amazon, Dhl, Bestbuy, Google, Whatsapp, Netflix, LinkedIn, PayPal e Facebook. “Per la prima volta, tre dei
Marco Urciuoli
16 |
DICEMBRE 2021
principali social network sono entrati nella classifica dei primi dieci marchi sfruttati dal phishing”, ha sottolineato Marco Fanuli, security engineer team leader, channel & territory di Check Point. “I siti Web linkati nei messaggi di phishing hanno un layout delle pagine praticamente identico a quelli dei siti orginari, quindi bisogna prestare attenzione alle piccolezze”. Di fronte ai vecchi e nuovi pericoli informatici, la strategia di Check Point è molto decisa: “Prevenire è meglio che curare, si diceva una volta”, ha spiegato Urcioli, “ed è un messaggio estremamente importante, che permea tutte le nostre soluzioni. Non significa che non si debba fare detection, ma fare prevenzione è più importante. Tutte le nostre soluzioni si preoccupano principalmente di fare prevenzione, cioè di tenere il malware al di fuori del perimetro da proteggere”. Il country manager ha ammesso che oggi parlare di perimetro è controverso, perché abbiamo assistito a un progressivo sgretolamento dei confini netti un tempo esistenti. Il cloud, la mobilità e la diffusione dello smart working hanno allargato i confini e allentato le separazioni fra “dentro” e “fuori”. Nella visione di Check Point, una strategia di protezione efficace deve quindi includere diversi elementi, tecnici e non tecnici: una prevenzione in tempo reale, la difesa di tutte le risorse aziendali (inclusi endpoint classici, dispositivi mobili, Internet of Things e ambienti cloud), l’agilità delle soluzioni (che devono agire in pochi click), il consolidamento e la visibilità, necessari per eliminare i “punti ciechi” della cybersicurezza. Non da ultimo, la formazione e l’educazione dei dipendenti affinché abbiano consapevolezza dei rischi. Ma anche i dirigenti aziendali e chi compie le scelte sugli acquisti tecnologici dovrebbero avere una adeguata consapevolezza. “Tra le aziende italiane gli investimenti in cybersicurezza stanno timidamente crescendo, ma ancora non abbastanza”, ha commentato Urcioli. V.B.
TECHNOPOLIS PER ELIPSLIFE
EMPLOYEE BENEFIT, UNA SCELTA DI VALORE PER LE AZIENDE Per spiegare a imprenditori e dipendenti i reali vantaggi delle polizze vita è importante il ruolo degli intermediari, che possono diventare consulenti di fiducia. C’è molta strada da compiere in Italia nell’ambito degli employee benefit, cioè i benefici e gli incentivi previsti dalle aziende per i propri dipendenti. Mentre sulle polizze sanitarie esiste un discreto grado di consapevolezza e di valore percepito, le polizze vita e infortuni non godono ancora della giusta considerazione né da parte di molti imprenditori né da parte degli stessi dipendenti. “Per farsi un’idea, basti pensare che il mercato delle sole polizze collettive di rimborso delle spese mediche in Italia nel 2020 valeva 2,2 miliardi di euro, mentre il valore delle polizze infortuni e delle polizze vita collettive, sommate tra loro, non arrivava Pierluigi Verderosa a due miliardi”, racconta Pierluigi Verderosa, Ceo e managing director di Elipslife, compagnia assicurativa fondata nel 2018 e che conta all’attivo oltre centomila soggetti assicurati. “Per di più”, prosegue Verderosa, “tali polizze nelle aziende italiane tendono a concentrarsi nella parte alta della piramide organizzativa, quindi sui dirigenti e sugli amministratori, lasciando scoperta la maggioranza dei dipendenti”. Lo scenario però sta cambiando, come confermato da Maurizio Primanni, Ceo di Excellence Consulting. “Finora il mercato dell’employee benefit in Italia si è sviluppato soprattutto sulle grandi aziende”, spiega Primanni, “ma i dati del Censis mostrano una crescita sulle aziende di fascia piccola e intermedia, cioè da dieci a cento dipendenti. In questa fascia attualmente il tasso di diffusione è del 20% ma a cinque anni si prevede di arrivare al 40%-50%”. Nel 2020 la pandemia di covid ha evidenziato a livello planetario la possibilità di eventi imprevisti e imprevedibili, che generano impatti drammatici sull’intera società ma anche sulle aziende. Inoltre si sta finalmente affermando una sensibilità ambientale che, associata agli incentivi economici per la transizione ecologica, potrà spingere le aziende a compiere investimenti sostenibili secondo i criteri Esg (Environmental, Social and corporate Governance). L’elemento ambientale è spesso quello sotto ai riflettori, ma la componente Social non va trascurata ed è chiaramente legata agli employee benefit, che possono garantire ai dipendenti una maggiore sicurezza economica e personale. C’è poi un terzo elemento da
considerare: per attrarre e trattenere in azienda i migliori talenti, bisognerà smuovere leve differenti dalla semplice remunerazione, offrendo dei programmi di welfare completi. Dunque esiste in Italia un grande potenziale di crescita per gli employee benefit, considerando che il mercato oggi è stato saturato solo in piccola parte e considerando i cambiamenti normativi e culturali in corso. Sarà però importante, per rimuovere gli ostacoli rappresentati da una percezione distorta e poco informata, il ruolo degli intermediari: a loro spetta il compito di portare alle aziende (cioè agli imprenditori innanzitutto e in secondo luogo ai dipendenti) delle informazioni facilmente comprensibili, corrette e trasparenti. “L’intermediario e la compagnia”, aggiunge Verderosa, “non hanno finito il lavoro quando ha fatto sottoscrivere un contratto, ma possono anche aiutare l’impresa a spiegare ai dipendenti il valore di quella polizza”. Gli intermediari del mercato assicurativo, in altre parole, possono diventare per le imprese dei consulenti di fiducia. Questo è anche l’approccio scelto da Elipslife: la compagnia si è impegnata a raddoppiare, da qui al 2025, la propria rete di partner e a trasformarli in consulenti capaci di proporre alle aziende dei piani assicurativi personalizzati.
your insurance
17
IN EVIDENZA
UN VIRTUAL TWIN PER LIBERARE LA CREATIVITÀ Il concetto di digital twin si evolve per favorire la collaborazione e le simulazioni. L'opinione di Guido Porro, direttore generale e vicepresidente Sud Europa di Dassault. In un recente studio, Accenture ha esposto numeri impressionanti collegati al concetto di virtual twin: se industrie, governi e società implementassero questa logica nello sviluppo dei progetti, si otterrebbero benefici pari a un valore economico di 1.300 miliardi di dollari e si eviterebbe l’emissione di 7,5 miliardi di tonnellate di CO2 da qui al 2030. L’idea di virtual twin è stata sviluppata da Dassault Systemes ed è per questo che abbiamo chiesto a Guido Porro, direttore generale e vicepresidente Sud Europa dell’azienda, di spiegare meglio che cosa significa e quali vantaggi può comportare. Come si è evoluto nel vostro contesto il concetto di virtual twin?
Com’è noto, il digital twin nasce con l’idea di replicare un ambiente per ragioni soprattutto di sperimentazione e simulazione in contesti industriali e urbani. La nostra idea è di andare oltre questo e introdurre il tema fondamentale della collaborazione in un contesto virtualizzato. Chi adotta questa logica, e la piattaforma 3d Experience che la supporta, vuole far lavorare a stretto contatto tutte le figure che concorrono alla realizzazione di un prodotto o servizio, tramite un linguaggio comune comprensibile da tutti ma declinato nelle specificità di ogni ambito professionale. Per fare un esempio, uno stesso sviluppo di prodotto sarà visualizzato da uno specialista di fluidodinamica per la verifica della reazione a particolari condizioni di stress e dal controller dei costi nella scomposizione di tutte le voci che stanno concorrendo alla realizzazione. Allo
18 |
DICEMBRE 2021
periori. Sbagliare qui è possibile, quasi consigliabile per imparare e lasciare spazio alla creatività, superando la logica punitiva tipica della sperimentazione tradizionale. Quali sono gli ambiti di applicazione più promettenti?
Guido Porro
stesso tempo, la collaborazione agisce sia in modo strutturato sia al suo opposto, seguendo in parallelo le logiche tipiche di un processo estremamente formalizzate derivanti dal Plm (Product Lifecycle Management, ndr) e quelle più casuali della conversazione alla macchinetta del caffè, che però aprono la via alla vera creatività. Qual è l’anello di congiunzione fra questi due mondi?
La chiave di volta è rappresentata dalla simulazione, che consente per esempio di capire come un prodotto potrà essere utilizzato, ricostruito, reingegnerizzato e magari anche riutilizzato in logica di circolarità. Dalla statica divisione dei prodotti passiamo a qualcosa di più dinamico, dove tutti lavorano sullo stesso manufatto. Fondamentale è pensare alla rivoluzione della prototipazione. Quella tradizionale, fisica, è costosa e non lascia troppo spazio agli errori, mentre in un contesto virtuale un progetto può essere modificato anche centinaia di volte nella stessa giornata e con velocità molto su-
Oltre al settore manifatturiero, soprattutto per prodotti di tipo complesso, possiamo pensare per esempio al farmaceutico, dove si può lavorare sulle molecole per l’ingegneria di nuovi materiali ma anche per la sperimentazione di nuovi vaccini, tant’è che il 60% di quelli anti covid in circolazione è stato sviluppato sulla nostra piattaforma. Dimensionalmente sul lato opposto si colloca l'applicazione nel contesto delle smart city, dove il virtual twin può essere utilizzato per progettare strade, reti fognarie, quartieri, edifici, servizi logistici, reti elettriche e di comunicazioni. Un caso concreto è rappresentato dalla città di Singapore. E in Italia quali sono le prospettive?
Noi abbiamo una tradizione molto significativa nell’ambito della gestione degli asset lineari, per cui ci sono ambiti di applicazione già avanzati, per esempio nel campo energy & material, in quello delle costruzioni e nell’architettura. Questa è una fase importante da sfruttare grazie alle opportunità fornite dal Pnrr. Elemento chiave è la possibilità di legare il controllo operativo alle grandi cabine di regia dei progetti, misurando costantemente gli stati di avanzamento, l’impatto sui Kpi e la declinazione di iniziative future secondo la logica del miglioramento continuo. R.B.
I DIPENDENTI PREFERISCONO IL LAVORO FLESSIBILE Una ricerca condotta da Jabra a livello mondiale rivela che la possibilità di operare da remoto è più apprezzata di un aumento di stipendio. Non è più il “vil denaro” la motivazione principale per lavorare. O quantomeno, questo è emerso dal “Jabra Hybrid Ways of Working 2021 Global Report”, ricerca condotta a livello mondiale su oltre cinquemila professionisti. Il lavoro flessibile è stato indicato dal 59% degli intervistati come il beneficio più ricercato, ancor prima dello stipendio. Non è un mistero che flessibilità e autonomia nella gestione della giornata lavorativa siano state due scoperte recenti, favorite dalla pandemia e dai conseguenti lockdown, ma che la dimensione del fenomeno fosse così importante forse non era così scontato. Il report di Jabra ha anche messo in luce che i tre quarti degli intervistati (73%) credono che in futuro avere uno spazio per l'ufficio sarà considerato un benefit per i dipendenti, piuttosto che una condizione obbligatoria per lavorare. I dipendenti sono maggiormente propensi a richiedere più giorni di presenza in ufficio (tre o più a settimana) soprattutto se la loro azienda non ha messo in atto le corrette pratiche per la transizione al lavoro da remoto durante la pandemia. Impiegati e manager hanno però visioni differenti. Tre dipendenti su quattro sono preoccupati per il lavoro ibrido, in gran parte a causa delle scarse pratiche di comunicazione sul tema, e solo il 20% pensa che l’azienda sia molto preparata per l’operatività da remoto. Più della metà (52%) ha anche ammesso che preferirebbe operare da casa ma teme la propria carriera ne possa risentire a lungo termine. C’è anche un chiaro divario tra la chi rap-
presenta il livello più elevato di responsabilità manageriale e gli altri dipendenti quando si tratta di preparazione al lavoro ibrido. I lavoratori sottoposti sono per l’11% più propensi, rispetto ai manager, ad affermare che le loro aziende non fossero per nulla preparate per il passaggio al modello ibrido. Solo il 53% dei dipendenti pensa che l’azienda oggi sia pronta, rispetto al 74% dei manager di più alto profilo. Inoltre la maggior parte, il 65%, vorrebbe avere la libertà di stabilire il proprio orario di lavoro (mentre solo il 35% è felice di mantenere il turno canonico). Il 61% dei dipendenti preferirebbe che il management permettesse loro di andare in ufficio quando necessario e di stare in telelavoro quando ne hanno bisogno. Guardando al futuro, il 75% dei professionisti vorrebbe poter essere attivo da qualsiasi luogo. Da tutto questo deriva che oggi, per le aziende, avere la giusta tecnologia è più importante di uffici in posizioni privilegiate quando si tratta di attrarre e trattenere i talenti. Più di otto intervistati su dieci (84%) pensano che la tecnologia possa aiutare tutti i dipendenti ad avere “uguale accesso alle opportunità sul lavoro", e l’80% preferirebbe lavorare per un’azienda che investe in tecnologia per collegare meglio le risorse professionali in un futuro ibrido. Gli strumenti di collaborazione hanno bisogno di adattarsi per permettere alle persone di trasformare qualsiasi spazio in un ambiente professionale, mentre la tecnologia precedente progettata per il vecchio telelavoro non è più adatta allo scopo.
Disponibili da qualche settimana in Italia, le cuffie Jabra Evolve2 75 tentano di rispondere proprio alle esigenze di flessibilità ed efficienza richieste da chi lavora e auspicabili ovviamente anche per le aziende. In questa versione l’ergonomia è stata migliorata grazie a padiglioni auricolari in similpelle e a un design a doppio cuscino per aumentare la ventilazione e ridurre la pressione sull’orecchio. La curvatura e l’imbottitura dell’archetto sono calibrate per garantire che la cuffia rimanga saldamente in posizione. La tecnologia a otto microfoni delle cuffie funziona con un algoritmo Jabra basato su triplo chipset, per distinguere la voce dal rumore circostante in modo ancora più cristallino. Ottimizzate per tutte le principali piattaforme di Unified Communications, le Evolve2 75 hanno anche capacità di cattura dei dati in modo che i reparti IT possano analizzare il funzionamento dei dispositivi per ottimizzarlo e operare una sorta di manutenzione preventiva.
19
IN EVIDENZA
TECHNOPOLIS PER PURE STORAGE
HEALTHCARE: LA RISPOSTA AI REQUISITI DEI SISTEMI RIS/PACS Un’efficiente gestione dei dati è essenziale per migliorare i servizi erogati dalle strutture sanitarie ai pazienti. Velocità e qualità dello storage fanno la differenza. Alla luce di quanto accaduto, in modo particolare, no essere accessibili velocemente e in qualsiasi in questi ultimi due anni, i progetti legati al monmomento. Per questo motivo, l’occupazione medo sanitario devono essere improntati all’innovadia di un sistema di gestione immagini medicazione, poiché impattano sulla vita quotidiana di li si misura in centinaia di terabyte di spazio e tutti. I temi dell’affidabilità infrastrutturale e del questo richiede oggi l’impiego di sistemi storage livello di servizio applicativo appaiono particofull flash, poiché più l’infrastruttura è veloce e larmente sentiti e critici per questa tipologia di più celermente i dati possono essere archiviati e soggetti. Non a caso, come riportato da alcuni richiamati in caso di analisi della cartella clinica siti governativi americani, le massime priorità IT del paziente. Finora ciò che ha bloccato l’introduin ambito medicale riguardano la qualità dei dati, zione di componenti tecnologicamente avanzate la loro sicurezza, la garanzia di accesso e lo sfrutè stato soprattutto l’elevato costo per terabyte. tamento al fine di garantire il miglior servizio per Oggi però Pure Storage, grazie alla piattaforma il paziente. Anche Idc spiega come i connotati di FlashArray//C, permette di abbattere drasticaUmberto Galtarossa efficienza, riduzione dei costi e sistemi di suppormente questo valore, offrendo agli ambienti Ris/ to alle decisioni siano diventati critici in ambito Pacs una soluzione basata su tecnologia Flash medicale. Nvme. Questo permette al personale medico di avere accesso ai dati in Fino a qualche anno fa la componente storage, in particolar modo in ammillesimi di secondo e agli specialisti IT di consolidare centinaia di TB in bito Ris/Pacs (ovvero dei sistemi informativi radiologici e della gestione poche unità rack, con un consumo di energia inferiore a 2 kilowattora. di immagini diagnostiche) era vista come un “male necessario” e votata Un altro problema che impatta sulla struttura IT è relativo alla gestione dei esclusivamente all’archiviazione. Tuttavia, nel corso degli anni i requisiti inrefresh infrastrutturali. È infatti impensabile gestire complesse migrazioni frastrutturali dei software più diffusi sono aumentati significativamente in di dati ogni quattro o cinque anni solo per aggiornare la tecnologia, perché ogni progressiva release e sono state aggiunte soprattutto caratteristiche ciò comporta downtime e tempi misurabili in settimane o mesi da dedicare di indicizzazione massiva e data analytics. A questo si aggiunga anche la a queste operazioni. Pure Storage risolve il problema grazie alla tecnologia superiore qualità delle immagini e dei dati storicizzati, che ormai devoinfrastrutturale e al programma Evergreen. In pratica, ora è possibile sostituire le componenti hardware senza creare disservizio, trasformando lo storage esistente in una soluzione di nuova generazione, ma evitando all’IT complesse migrazioni e garantendo al personale medico la disponibilità del servizio. L’infrastruttura in ambito medicale è a diretto supporto dell’ospedale e dei pazienti, per cui necessita del massimo livello di servizio e di sicurezza. Le richieste di performance applicative si fanno più pressanti e i dati crescono a doppia cifra anno su anno. Pure Storage possiede la risposta per offrire massima velocità applicativa, grazie alla tecnologia flash Nvme, evitando complesse migrazioni dati e abbattendo i costi di gestione e di alimentazione/raffreddamento all’interno del data center. Umberto Galtarossa, partner technical manager di Pure Storage Italy
20 |
DICEMBRE 2021
OMNICANALITÀ E PERSONALIZZAZIONE ORIENTANO IL RETAIL Gli analytics, l’intelligenza artificiale, l’automazione, ma anche l’attenzione alle relazioni: così si trasforma il settore del commercio in Italia. Nel retail probabilmente il principale pilastro della trasformazione digitale è la cosiddetta omnichannel customer experience. Riprendiamo una citazione della professoressa Stefania Saviolo, lecturer del Dipartimento di Management e Tecnologia dell’Università Bocconi, consigliere indipendente e advisor: “Mettere le firma significa progettare e gestire l’esperienza sia come arte sia come scienza. Le aziende dovrebbero creare il customer journey così come fanno con i prodotti, iniettando creatività e il loro tocco speciale in tutti i rilevanti punti di contatto”. Si sottolinea la necessità, per i brand, sia di firmare il contenuto creativo dell’esperienza, basato sui valori del marchio, sia di far leva sul valore dei dati che si possono raccogliere dai diversi touchpoint e quindi sugli Marco Di Dio Roccazzella
analytics. I brand dovrebbero innanzitutto semplificare l’esperienza dei consumatori per tutto ciò che è transazionale, come ricerca del prodotto, gestione del carrello fisico o virtuale, pagamenti, risposta celere a un customer service, eccetera. In secondo luogo, devono garantire esperienze differenziate per cluster/personas di cliente in funzione delle preferenze, degli acquisti, dei percorsi di navigazione, eccetera. Tali esperienze differenziate sono gestibili anche con architetture tecnologiche sofisticate ed automatizzate, come data lake, customer data platform, sistemi Crm o di marketing automation. Dovrebbero, d’altra parte, customizzare in logica one-to-one alcune esperienze “speciali”, mettendo a disposizione della risorsa che gestisce la relazione (il commesso in ne-
gozio, l’addetto al customer care) i dati delle preferenze del singolo consumatore: in questo modo l’esperienza può essere curata al massimo livello di dettaglio e iper-personalizzata. Un esempio è l’adozione degli strumenti di clienteling su smartphone o tablet, utilizzati nelle boutique di moda da cui il sales associate può verificare preferenze, profilo, taglia e acquisti precedenti di un cliente oppure mostrare la nuova collezione. Ma come si può, in un customer journey omnicanale, offrire un’esperienza di valutazione, acquisto e utilizzo del prodotto che sia trasparente e senza interruzioni? Dalle ricerche condotte da Jakala in Italia dal primo trimestre del 2020 fino al secondo trimestre del 2021 emerge che la totalità dei retailer italiani sta investendo in progetti di vista unica del cliente omnicanale, customer data platform, marketing automation, Crm, digital sales ed e-commerce, ma si ritiene ancora molto distante dal framework teorico precedentemente illustrato. Tecnologia e automazione, intese anche in termini di semplificazione dei processi, vengono indicate dal 93% dei retailer come indispensabili per la trasformazione (e il dato è cresciuto del 30% rispetto al 2019), mentre il 65% dei Ceo delle aziende retail italiane (+37% rispetto al 2019) crede che analytics, intelligenza artificiale e apprendimento automatico avranno un impatto sempre più rilevante nelle decisioni dei top manager da qui ai prossimi tre anni. Il 95% dei retailer intervistati indica l’automazione come un elemento di ottimizzazione molto efficace dei costi, da reinvestire in nuove professionalità e competenze (business analyst, data scientist, eccetera), necessarie a far evolvere il modo in cui si prendono decisioni. Marco Di Dio Roccazzella, general manager di Jakala
21
IN EVIDENZA
MIGLIORE PROTEZIONE CON IL DOPPIO BACKUP
rity information officer”, ha svelato Fanizzi. La tecnologia di Metallic può eseguire copie di sicurezza di dati originariamente ospitati on-premise oppure su infrastrutture di cloud pubblico (Amazon Web Services, Google Cloud, Microsoft Azure) senza vincoli di lock-in. “Le offerte dei cloud provider evolvono e noi pensiamo di poter garantire la flessibilità necessaria per star dietro a questi cambiamenti”, ha sottolineato Sergio Feliziani, country manager per l’Italia. Recentemente la piattaforma Metallic si è arricchita di una nuova console integrata, da cui poter monitorare lo stato di sicurezza degli ambienti IT in base a ciò che registrano le soluzioni di Commvault e ad analisi di intelligenza artificiale. Inoltre l’offerta Metallic è stata ampliata con il lancio di una soluzione rivolta ai service provider. “Siamo presenti nei marketplace di Aws e di Azure”, ha aggiunto Fausto Izzo, pre-sales systems engineer, “e questo fa parte del progetto di rendere sempre più appetibile e semplice il deployment delle nostre applicazioni”.
Quello italiano è, a detta dei manager di Commvault, un mercato che sta riservando buone soddisfazioni ed è allineato alla crescita degli altri Paesi della regione Emea, dove si registrano incrementi di ricavi dell’ordine del 20% (su base trimestrale, nel confronto anno su anno). In Italia l’azienda si sta focalizzando su clienti di fascia enterprise e in particolare sui settori dei servizi finanziari, commercio, utility, telecomunicazioni, senza comunque trascurare il mid-market. “Stiamo notando”, ha raccontato Feliziani, “che le tendenze di effetto pandemico sono finalmente un input importante nei processi decisionali delle aziende. Il dato sta diventando un ganglio vitale dei processi di cambiamento, declinati su tecnologie cloud e ibride”. Questa dinamica, ha spiegato il country manager, può agevolare nelle aziende differenti approcci agli investimenti, approcci non più reattivi ma propositivi. “Tra i primi indirizzi strategici dei nostri clienti”, ha proseguito i country manager, “c’è la volontà di disporre di dati sicuri e fruibili. L’altra tendenza è lo spostamento delle attenzioni sul cloud e sulle nuove frontiere tecnologiche”. Valentina Bernocco
Sergio Feliziani
Fausto Izzo
Commvault accelera sull’offerta “as-a-Service” a marchio Metallic ed espande la presenza sul mercato italiano. In tempi di ransomware, il backup non è più solo un gesto di prudenza, bensì è diventato un elemento fondamentale di qualsiasi strategia di cybersicurezza che si rispetti. Ma oggi prevedere un’unica copia di sicurezza dei dati potrebbe non bastare. “I nuovi hacker stanno crittografando anche i sistemi di backup, che rappresentano l’ultimo baluardo della sicurezza”, ha spiegato in un incontro con la stampa Marco Fanizzi, vice president Emea di Commvault. “Per questo abbiamo ampliato la nostra capacità di andare sul mercato affiancando alla nostra tecnologia tradizionale di protezione on-premise anche il backup in cloud”. Associando la tecnologia tradizionale di Commvault all’offerta as-a-service a marchio Metallic, per un’azienda è possibile creare una protezione “multi livello”, che mette al riparo dal rischio di perdita di dati nel caso un ransomware colpisca con la crittografia il backup primario. “La protezione del backup è uno dei principali motivi per cui oggi veniamo ingaggiati dai chief secu-
Marco Fanizzi
22 |
DICEMBRE 2021
L’espansione in Italia
TECHNOPOLIS PER BROTHER
UNA STAMPA SICURA PER IL CONTROLLO DEL BUSINESS Proteggere i documenti, rispettare la compliance e allo stesso tempo ridurre gli sprechi: diverse tecnologie e servizi permettono di farlo, assecondando le esigenze di ogni azienda. problema della sicurezza della stampa da varie angolazioni, tutelando la privacy, il rispetto della compliance, la proprietà intellettuale, la reputazione e dunque gli interessi economici delle aziende. Fondamentale, per la difesa dagli attacchi, è la crittografia dei dati durante la loro trasmissione in rete in fase di stampa o scansione, tramite protocolli TLS (Transport Layer Security) e linguaggi criptati SSL (Secure Sockets Layer). Ma bisogna anche proteggersi dal pericolo interno di fughe di informazioni, intenzionali oppure no: qui interviene il pull printing, tecnologia che mette “in coda” i documenti da stampare e li trattiene finché colui che ha lanciato l’operazione non si autentica direttamente sul dispositivo. Il pull printing non solo azzera il rischio che i fogli vengano ritirati e letti da personale non autorizzato, ma evita sprechi di energia e di consumabili.
Le stampanti sono indispensabili alleate per la produttività e la collaborazione, che si tratti di lavorare gomito a gomito tra colleghi in ufficio o di interagire a distanza. Purtroppo, se gestite scorrettamente, possono diventare anche veicolo di attacchi informatici e di incidenti con fuga di dati. In quanto dispositivi connessi (a Internet, ad archivi locali, ad altri dispositivi, computer, smartphone, drive Usb, eccetera), le stampanti rientrano nel novero degli oggetti Internet of Things diventati sempre più un bersaglio dei cyberattacchi. Consideriamo, poi, che la stampa è solo una delle capacità incluse nei dispositivi multifunzione, accanto all’acquisizione digitale, alla copia e all’invio di fax. Il continuo passaggio tra formati digitali e analogici e il dialogo tra dispositivi e cloud comportano la necessità di una protezione estesa all’intera gestione documentale. Brother ha sviluppato una serie di soluzioni e servizi che affrontano il
Meccanismi ad hoc per ogni azienda A seconda delle necessità, Brother consente di scegliere tra diversi sistemi di sicurezza e gestione. Il Setting Lock limita l'accesso alle impostazioni del dispositivo tramite il pannello di controllo, ed è l’opzione più semplice ma efficace per evitare manomissioni (anche involontarie) del funzionamento della stampante. Il Secure Function Lock, invece, assegna a ciascun profilo aziendale determinate autorizzazioni nell’uso del dispositivo, anche stabilendo limiti sul numero mensile di pagine stampabili, di fotocopie e fax. Altra possibilità è l’autenticazione con Active Directory o Lightweight Directory Access Protocol: si richiede alle persone di accedere attraverso le loro credenziali già in uso sulla rete aziendale, e questa è un’opzione ideale per le stampanti collocate in open space o altri ambienti condivisi. Con il servizio Secure Print+ le aziende possono proteggere i propri dati e flussi di lavoro, soddisfacendo al contempo i requisiti del Gdpr. Diverse le opzioni previste: l’autenticazione per il ritiro dei documenti può avvenire tramite codice Pin o card Nfc, si può scegliere di impostare un tempo limite tra l’ordine di stampa e il ritiro ed è anche possibile aggiungere o eliminare utenti dalla lista. È rivolto agli amministratori IT, inoltre, BRAdmin Professional: un software gratuito per la gestione centralizzata delle stampanti Brother predisposte per la rete. Questa utility semplifica e velocizza il lavoro consentendo di configurare facilmente i dispositivi e di controllare il loro stato in qualsiasi momento.
23
INFRASTRUTTURE
PIRELLI SFRECCIA SULLA STRADA DELLA TRASFORMAZIONE Visibilità di lungo termine su supply chain, produzione, vendite e sviluppo dei prodotti: sono gli assi portanti dell’evoluzione dell’azienda, come racconta il senior vice-president & chief digital officer, Pier Paolo Tamma.
24 |
DICEMBRE 2021
L
a potenza è nulla senza controllo, recita un fortunato slogan pubblicitario di Pirelli, nato negli anni Novanta e ancora attuale. Molta acqua è passata sotto i ponti e oggi l’azienda è pronta ad affrontare le nuove sfide del mercato con il supporto di una visione strategica che fa leva in modo consistente sulla tecnologia. Dopo aver attraversato diverse fasi storiche ed esplorato altri settori, Pirelli è oggi una realtà focalizzata sul core business degli pneumatici, in particolare sui modelli di fascia alta del mercato Premium e Prestige. Nel tempo sono state definite partnership con le più importanti case automobilistiche, per la coprogettazione dei modelli specifici da montare su ogni vettura. In questo modo, la “gomma” diventa una componente originale del veicolo e come tale viene omologata e marcata. L’arco temporale del processo che parte con l’avvio della progettazione e si conclude con la disponibilità della vettura per il mercato è di circa tre anni. Considerando anche il successivo ciclo di
vita dello pneumatico, si arriva a dover avere una visibilità anche superiore ai cinque anni sulla domanda potenziale del costruttore, mentre i vari processi di ricambio (stagionali o per usura) portano questo elemento di controllo temporale fino a dodici anni. Sfruttare al meglio tale patrimonio informativo significa saper pianificare tutte le fasi del business dell’azienda. Da qui è nato ciò che è stato battezzato Integrated Operating Model, ovvero il disegno complessivo che dettaglia le fasi di un cambiamento finalizzato alla fidelizzazione totale del parco di costruttori presidiato (oggi più dell’80% ricompra pneumatici Pirelli) e all’ampliamento delle quote di mercato su ogni singola casa automobilistica. Il percorso di trasformazione digitale, iniziato circa tre anni fa, ha tratto spunto da questo modello e si è dipanato su quattro filoni di lavoro, destinati a ridisegnare le vendite, la pianificazione complessiva, lo sviluppo del prodotto e la produzione. “Le tecnologie supportano o abilitano le componenti del piano strate-
gico”, spiega Pier Paolo Tamma, senior vice president & chief digital officer di Pirelli. “Abbiamo ricevuto fin dall’inizio il convinto endorsement del nostro Ceo e anche le figure di business hanno presto compreso l’irrinunciabilità di un percorso che riguarda il futuro competitivo dell’azienda”. La prima componente ad aver subìto un processo di trasformazione digitale è stata quella commerciale. “Grazie all’evoluzione costruita sul Crm di Salesforce”, prosegue Tamma, “ogni venditore è oggi in grado di mostrare ai dealer di propria competenza quale sia il parco circolante del loro territorio, nel segmento che ci interessa, in quale misura esso sia presidiato dai prodotti Pirelli e quante vetture saranno toccate da un primo o secondo ciclo di ricambio nei successivi mesi. Da questo ricaviamo quale sarà la domanda potenziale che il dealer riceverà dal mercato, riuscendo a tarare la migliore proposta commerciale, dandogli visibilità sull’approvvigionamento del quale avrà bisogno”. Sul Crm vengono raccolte informazioni provenienti tanto dai dealer quanto dai clienti finali (consenzienti, ovviamente) e questo consente di fare campagne od offrire servizi anche ai consumatori, indirizzandoli al dealer Pirelli di zona e chiudendo così il cerchio del valore. Mentre gli sviluppi sulla parte commerciale sono Pier Paolo Tamma
in via di completamento (a livello globale il rilascio è previsto entro fine anno), ora Pirelli sta lavorando sulle componenti di pianificazione strategica. Una conoscenza della domanda a lungo termine è utile per bilanciare i carichi di lavoro sui 18 stabilimenti del gruppo o addirittura per progettare in anticipo la costruzione di un nuovo impianto. “Il sistema che stiamo mettendo a punto è basato sulla tecnologia di O9 Solutions e consente anche di fare simulazioni su tutta la nostra catena”, illustra Tamma. “Ogni volta che riceviamo da una casa costruttrice la richiesta di sviluppare un nuovo pneumatico, riusciamo a proiettare l’impatto sull’intero processo a monte, arrivando a capire quanto sarà profittevole il nuovo business anche grazie alla domanda che genererà nel mercato del ricambio. Questa pianificazione consentirà di controllare meglio tutta la filiera, dalla produzione alla logistica, fino al percorso delle materie prime, riuscendo a negoziare in anticipo le forniture e gestendo il tutto con un sistema di procurement figlio di questa capacità di visione”. In prospettiva, Pirelli ha messo in cantiere altre due aree di trasformazione a forte connotazione digitale. Un primo ambito riguarda lo sviluppo dei prodotti. L’azienda sviluppa circa trecento nuovi progetti all’anno ma ciascuno ha una durata indicativa di tre anni, quindi ne esistono circa mille attivi in parallelo. Poter ricavare efficienza da questa complessità è un elemento di comprensibile importanza. “Abbiamo pianificato di implementare la piattaforma Plm di Dassault”, prosegue il manager, “e stiamo realizzando algoritmi di intelligenza artificiale che consentano di riutilizzare il lavoro già fatto nel caso di sviluppi su vetture assimilabili, di stimare gli elementi necessari e di effettuare simulazioni senza dover creare prototipi fisici. L’esito finale sarà una piattaforma in grado di gestire un processo end-to-end fino al termine del ciclo di
vita dello pneumatico”. L’altra area di trasformazione di medio termine riguarda la produzione industriale, in cui l’esigenza di fondo è un’ottimizzazione destinata a coinvolgere un insieme di fabbriche impegnate, ognuna con complessità diverse, su un’ampia varietà di prodotti. L’evoluzione prevista si fonderà su una piattaforma di Industrial IoT (Internet of Things) che dovrà consentire di estrarre in tempo reale dati dalle macchine e di generare pattern utili per rendere più efficiente la produzione anche per singolo stabilimento, sulla base di informazioni relative a caratteristiche dell’impianto, del prodotto e dei dati storici già acquisiti. In questo percorso di rinnovamento non mancano certo le difficoltà da affrontare, a cominciare dalla presenza di una componente legacy ancora importante. “Le migrazioni vanno gestite in modo ordinato, anche facendo convivere vecchio e nuovo per un certo periodo”, spiega Tamma. “Il cammino appare comunque chiaro e al termine dovremmo aver spento circa cento sistemi legacy. Un’altra sfida importante riguarda la gestione del tempo, sia per rispettare la pianificazione definita sia per non perdere di vista l’operatività quotidiana. La possibilità di dimostrare i benefici dei cambiamenti è il miglior propellente per il prosieguo del lavoro di trasformazione”. Roberto Bonino 25
INFRASTRUTTURE
DIGITAL DIVIDE, UN PERCORSO A OSTACOLI Banda larga e ultralarga sono importanti per lo sviluppo del business, ma sul territorio italiano permangono notevoli lacune da colmare.
26 |
DICEMBRE 2021
stato raggiunto, e l’Italia registra un ritardo in particolare nelle aree bianche. Il digital divide segna profondamente il Paese: il 25% del territorio italiano non è coperto da banda larga. Lo studio dell’Istituto I-Com tratteggia uno scenario sconfortante nel quale il nostro Paese risulta indietro anche rispetto agli altri mercati europei nella classifica per il raggiungimento della massima velocità di connessione. Il digital divide che separa le aree periferiche da quelle metropolitane continua a segnare un problema che dovrebbe essere in cima all’agenda politica del nostro Paese per contribuire alla crescita tecnologica ed economica italiana. Per questo motivo, bisognerebbe prevedere meccanismi alternativi e incentivanti per accompagnare gli interventi e favoFoto di Compare Fibre su Unsplash
U
n recente studio condotto dall'Istituto per la Competitività I-Com fotografa uno scenario, relativo all’implementazione della banda larga sul territorio italiano entro il 2026, non in linea con quanto pronosticato dal Ministero per l’Innovazione. I-Com ha analizzato la mappatura effettuata dal Ministero dello Sviluppo Economico prendendo in esame i cantieri in corso e gli investimenti previsti dagli operatori di telecomunicazione di qui ai prossimi cinque anni nelle aree grigie e nere. I dati evidenziano che il Paese sarà connesso al 68% alla rete ultraveloce, con un traferimento dati superiore a 1 Gbps, entro il 2026, come previsto dal Pnrr, il Piano Nazionale di Ripresa e Resilienza. Inoltre, il progetto da 3,8 miliardi di euro “Italia a 1 Giga” punta a garantire la copertura nelle aree grigie e nere, cioè a parziale o più elevata concorrenzialità, e in quelle aree bianche, cioè a fallimento di mercato, che non hanno beneficiato di interventi pubblici già effettuati negli anni scorsi. Tuttavia, sul territorio nazionale ancora meno della metà delle famiglie residenti nei Comuni sotto i duemila abitanti hanno un accesso a Internet in banda larga e per la maggior parte utilizzano ancora l’Adsl. Nel 2010 l’Agenda digitale europea si era posta l’obiettivo di garantire l’accesso alla banda ultralarga all’85% della popolazione. Nel 2020 il risultato non era
Andrea Tarquilio
rire la condivisione delle opere tra i diversi operatori, così come valutare altre opportunità per l’implementazione di ulteriori soluzioni per garantire la migliore connettività a privati e aziende. La banda ultralarga porta numerosi benefici alle imprese, maggiore velocità in upload e download. Ma non risolve da sola alcuni aspetti, tra cui l’indipendenza dall’operatore e la continuità del servizio in caso di interruzione, e non elimina la necessità di avere una linea di backup. Sono numerose le aziende e la startup che hanno sviluppato soluzioni alternative per compensare la
Foto di Jason Richard su Unsplash
mancanza di una connessione veloce e supportare la crescita economica dei business sul territorio italiano. Tra queste, Uania è una startup innovativa nel campo dell’Information Technology e
telecomunicazioni, nata per soddisfare esigenze concrete degli utenti business sul territorio nazionale, i quali a causa della loro posizione geografica non sono sempre raggiunti da un servizio
GLI OBIETTIVI PER LA BANDA ULTRALARGA Il potenziamento della connettività su reti fisse in fibra ottica e su reti mobili 5G è una tra le priorità elencate nel Pnrr, il Piano Nazionale di Ripresa e Resilienza, che a questo obiettivo destina 6,7 miliardi di euro. Per quanto riguarda le infrastrutture di rete fissa, l’ultima revisione del Piano Nazionale Banda Ultralarga prevede di portare la connettività a 1 GB/s al 100% della popolazione (cioè al 100% delle famiglie) entro il 2026. Nel 2020, stando all’ultima edizione dell’annuale indice Desi (Digital Economy and Society Index) elaborato dalla Commissione Europea, la percentuale di famiglie italiane che già si
potevano connettere a 1 GB/s o velocità superiori era il 3,56%, un dato superiore alla media europea (1,3%) e soprattutto un dato che ha segnato un notevole progresso rispetto allo 0,01% del 2019. Per arrivare all’obiettivo del 100% in pochi anni, però, non basterà sperare negli investimenti degli operatori di telecomunicazione privati: attualmente esiste un divario infrastrutturale che lascia sfornite di banda ultralarga fissa circa 8,5 milioni di famiglie, residenti nelle cosiddette aree bianche, cioè a fallimento di mercato. Non è un mistero (ma anzi era già previsto nella Strategia per la Banda Ultralarga lanciata nel 2015) che per
a banda larga, in fibra ottica o altro, a costi accessibili. Il giovanissimo fondatore, Giuseppe Dipierro, ha sviluppato la soluzione Uania partendo dall’intuizione che è quanto mai necessario realizzare alternative che permettano di implementare una connettività veloce in modo facile per rispondere alle esigenze del mercato, di privati cittadini e Pmi, e salvaguardare la business continuity. Uania ha messo a punto una tecnologia plug&play in grado di aggregare le connessioni in un unico canale protetto che somma le singole velocità, senza alcuna perdita di prestazione. La soluzione consente di ottenere l’indipendenza dai provider di connettività, aggiungendo nuove linee a quelle esistente, e di mantenere allo stesso tempo l'indirizzo IP pubblico e statico sul quale esporre servizi. Andrea Tarquilio, customer service & marketing specialist di Uania realizzare nuove infrastrutture di rete in queste aree sarà necessario un intervento statale, poiché le telco qui non hanno interesse a investire. Allargando lo sguardo al più ampio ambito della banda larga Nga (Next Generation Access), cioè con velocità superiori ai 30 Mbps, la copertura del territorio italiano è stata già quasi completata: nel 2020, secondo l’indice Desi, il 93% delle famiglie poteva usufruire di questa tecnologia, e anche in questo caso il dato è superiore alla media dell’Unione Europea (87%). Nella copertura 5G (calcolata come percentuale di zone abitate raggiunte) eravamo invece solo all’8%, cioè diversi punti al di sotto della media europea (14%). V.B.
27
UN PROBLEMA DI IMMATURITÀ
Foto Pietro Jeng da Unsplash
INTELLIGENZA ARTIFICIALE
L’anno prossimo la spesa mondiale in software di AI e apprendimento automatico crescerà del 21% rispetto ai livelli del 2021. Ma i progetti aziendali sono spesso ancora acerbi.
L
a scalata continua, pur tra qualche difficoltà. “Il mercato del software di intelligenza artificiale sta guadagnando velocità, ma la sua traiettoria di lungo periodo dipenderà da quanto le aziende faranno progressi nella loro maturità in merito all’Artificial Intelligence”, ha commentato Alys Woodward, direttrice della ricerca senior di Gartner. Secondo le previsioni della società di ricerca, l’anno prossimo il
giro d’affari dei software di intelligenza artificiale e machine learning raggiungerà quota 62,5 miliardi di dollari, segnando un incremento del 21,3% sul valore del 2021. Nel conteggio sono incluse tutte le applicazioni con incorporate capacità di intelligenza artificiale o di apprendimento automatico, come per esempio i software di visione computerizzata e quelli di comprensione del linguaggio naturale; vi sono compresi, inoltre, i software usati per cre-
L’ITALIA SFODERA LA STRATEGIA NAZIONALE Sull’intelligenza artificiale, l’Italia ora ha una precisa strategia nazionale e un’agenda politica ben definita. Il Consiglio dei ministri ha infatti approvato il Programma Strategico per l’Intelligenza Artificiale 2022-2024, frutto del lavoro congiunto del Ministero dell’Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministro per l’innovazione tecnologica e la transizione digitale. Trasversalmente alle 24 politiche elencate nel documento, uno tra i principali obiettivi sarà quello di creare e potenziare le competenze, le attività di ricerca e le iniziative di sviluppo dell’AI. “La strategia è la base per lan-
28 | DICEMBRE 2021
ciare programmi e investimenti concreti per rendere l’Italia competitiva a livello internazionale e con un sistema pubblico più efficiente”, ha commentato il ministro per l’Innovazione tecnologica e la transizione digitale, Vittorio Colao. “Prevediamo programmi di accelerazione per le start-up che propongono soluzioni innovative per le PA e iniziative ad hoc per alzare notevolmente la qualità di processi e servizi pubblici e migliorare il rapporto cittadini-Stato. Su questo punto lavoreremo di concerto con il Ministro per la Pubblica Amministrazione utilizzando anche investimenti presenti nel Fondo Innovazione”.
are sistemi di AI. Il calcolo non è la pura somma di quanto le aziende del mondo spenderanno per acquistare, sviluppare e introdurre sistemi di intelligenza artificiale, bensì comprende una stima del valore di business potenzialmente generato e anche, per converso, dei rischi. A detta di Gartner, le cinque categorie di applicazioni su cui si riverseranno maggiori investimenti saranno la gestione della conoscenza (area che include i sistemi di analisi dei dati a scopo di insight, automazione, apprendimento automatico), gli assistenti virtuali (dai chatbot ai software vocali), i veicoli a guida autonoma, la digitalizzazione dei luoghi di lavoro e il data crowdsourcing (cioè la raccolta di dati su opinioni, azioni, preferenze degli utenti attraverso siti Web, app, social media e altre fonti). Ma a che punto sono le aziende oggi? Un’indagine condotta da Gartner su duemila chief information officer suggerisce che il 48% ha già adottato una qualche tecnologia di AI o machine learning oppure lo farà a breve (entro un anno). Oggi però il grado di interesse del mondo imprenditoriale riguardo all’intelligenza artificiale pare superiore al grado di maturità raggiunta. Nel portare “in produzione” le applicazioni, molte aziende faticano a renderle parte integrante delle normali operazioni, altre non si fidano dei risultati ottenibili e in molti casi, in effetti, non ottengono vantaggi. Solamente nel 2025, secondo le previsioni di Gartner, metà delle aziende avranno raggiunto un livello di maturità nell’AI che la società definisce come “fase di stabilizzazione”. Al momento, il successo e la monetizzazione delle iniziative dipendono molto dalla capacità di inserirle nel giusto scopo e contesto: “I casi d’uso che producono un significativo valore di business, e che tuttavia possono essere scalati per ridurre il rischio, sono cruciali per dimostrare l’impatto degli investimenti in AI agli stakeholder aziendali”, ha rimarcato Woodward. V.B.
L’OBBLIGO MORALE DI CONTENERE IL BIAS Le grandi abilità degli algoritmi di machine learning si associano all’elevato rischio di alimentare i pregiudizi. Abbiamo bisogno di maggiore attenzione ai dati, di trasparenza nei confronti degli utenti e di regole chiare. L’intelligenza artificiale è una grande forza trasformatrice: il suo impatto sulla società, sulle industrie e sui mercati si riflette anche su tutti noi, cittadini, consumatori e lavoratori. In un mondo che si affida sempre di più ai dati e al machine learning per prendere decisioni, è lecito chiedersi se sia eticamente corretto riporre queste responsabilità nelle mani degli algoritmi. L’Artificial Intelligence è fenomenale nell’ampliare la portata e la velocità di decisioni e azioni, soprattutto se di tipo meccanico e ripetute nel tempo. Quando le decisioni dipendono da fattori soggettivi, culturali e sociali, vi è tuttavia il pericolo di alimentare ineguaglianze e disparità. Gli algoritmi replicano i comportamenti dei dati utilizzati come sorgente e se questi dati sono attraversati da pregiudizi (anche inconsci), il rischio è quello di programmare un sistema che ingigantisce tali pregiudizi. Se, per esempio, un modello per il recruiting del personale aziendale venisse alimentato dai dati di un’azienda che nell’ultimo decennio ha concesso promozioni solo a dipendenti di genere maschile, l’algoritmo non potrà fare altro che escludere ogni candidata dall’elenco delle persone più indicate per il posto di lavoro. Dunque è di fondamentale importanza ridurre la presenza di informazioni distorte da bias all’interno del campione di riferimento. Sfortunatamente, è molto facile che uno o più bias danneggino le soluzioni
Stefano Maggioni
offerte dall’AI. Questo può accadere in quattro diversi momenti del processo: nel modo in cui i dati sono raccolti, campionati o selezionati; nelle logiche seguite dall’algoritmo stesso per prendere decisioni; nel deployment del modello nel contesto di business; e infine nella governance dell’intero processo. Il risultato non dovrà essere un modello capace di fornire soluzioni indiscutibili per le persone, ma piuttosto un modello che possa aiutarci a compiere scelte migliori. Oggi i consumatori sono sempre più inclini ad accettare soluzioni di AI, a patto che i benefici ottenuti siano molto superiori a rischi e preoccupazioni che ne derivano. Comunicazione chiara e trasparente, possibilità di opt-out e azioni dell’algoritmo personalizzabili diventano così nodi
cruciali per convivere con l’intelligenza artificiale. I consumatori sono disposti a premiare le aziende che impiegano l’Intelligenza Artificiale in modo eticamente corretto e trasparente: la fiducia nell’organizzazione o impresa che fornisce il servizio diventa un asset imprescindibile per l’utente. Correttezza, imparzialità, trasparenza, affidabilità ed explainability sono le parole chiave che ogni azienda che si affaccia al mondo delle IA dovrebbe tenere a mente. Oltre ad allinearsi alle future regolamentazioni, sarà fondamentale per le aziende assicurarsi che i modelli vengano pensati e creati considerando le diverse prospettive, i fattori sociali e i bias culturali nascosti dietro le scelte di tutti i giorni. Dal momento che i sistemi di IA diventano sempre più complessi, è indispensabile prevedere continue verifiche durante l’intero processo e comunicare con massima trasparenza al momento della distribuzione. Per sfruttare l’incredibile potenziale dell’intelligenza artificiale occorre una sapiente collaborazione tra persone e macchine, una collaborazione in cui nella gran parte dei casi saranno gli esseri umani ad avere l’ultima parola. Di certo, un impiego eticamente corretto dell’AI è di centrale rilevanza per la costruzione di una corporate social responsibility e di un business orientati al futuro. Stefano Maggioni, advanced analytics & AI manager di Sas
29
Foto di Gerd Altmann da Pixabay
INTELLIGENZA ARTIFICIALE
VIRTUALIZZAZIONE E INTELLIGENZA, LA COPPIA VINCENTE Abbinando la data virtualization ad algoritmi e applicazioni di analisi dei dati in tempo reale si ottengono numerosi vantaggi. Ce ne parla Andrea Zinno, data evangelist di Denodo.
30 | DICEMBRE 2021
N
on è da oggi che si parla di data virtualization, una procedura tecnologica che permette di creare un livello logico nel quale integrare e centralizzare dati originariamente collocati in luoghi diversi. Sicurezza, capacità di gestione, unificazione dei dati sono alcuni dei vantaggi ottenibili con questo approccio. Quello che è relativamente nuovo, nel panorama aziendale, è l’utilizzo della data virtualization in combinazione con l’analisi dei dati basata su
intelligenza artificiale. In quali contesti è utile, quali vantaggi si ottengono e da dove si comincia? Ne abbiamo parlato con Andrea Zinno, data evangelist di Denodo. Qual è il rapporto fra virtualizzazione dei dati e intelligenza artificiale?
I moderni data scientist operano in ambienti molto diversi da quelli tradizionali, che erano caratterizzati da analisi prevedibili e circoscrivibili, legate a report funzionali e stabili nel tempo. Al
contrario, oggi gli input arrivano spesso da intuizioni nuove e non programmabili, cui è necessario dare riscontro velocemente attraverso una data platform in grado di reagire in modo rapido ed efficace. Per rispondere a tale esigenza, data virtualization e intelligenza artificiale si combinano in un connubio vincente: da un lato la virtualizzazione dei dati consente di utilizzare, in agilità, qualsiasi dato, ovunque sia e indipendentemente da come sia fatto; dall’altro l’AI sfrutta tale agilità per far fronte alla imprevedibilità dell’uso dei dati, così che il data scientist non sia più rallentato nella verifica delle proprie intuizioni e l’IT non sia costretto a complesse operazioni per mettergli a disposizioni i dati necessari. Il tutto a beneficio di una reattività che è fondamentale per poter prendere decisioni rapide e informate. Quali aziende possono beneficiare di questo approccio?
Virtualizzazione dei dati e intelligenza artificiale non rispondono tanto a esigenze produttive specifiche, quanto a un generale cambiamento culturale e organizzativo nell’approccio all’analisi dei dati. Potenzialmente ogni azienda, indipendentemente dalla propria dimensione o dal settore di appartenenza, può beneficiare di data platform moderne e agili, che abilitano analisi sempre più sofisticate. Tuttavia, realtà diverse reagiscono in modo diverso alle singole esigenze di mercato. Il settore privato, ad esempio, potrà meglio affrontare i cambiamenti e restare competitivo; la Pubblica Amministrazione, invece, potrà meglio gestire il processo di digitalizzazione o prevenire fenomeni quali l’evasione fiscale. Da dove si comincia?
Il processo di trasformazione che porta a sviluppare un approccio davvero datadriven è basato innanzitutto su un inve-
Ci raccontate un caso reale di un vostro cliente?
Andrea Zinno
stimento intellettuale, che renda singoli e organizzazioni consapevoli del valore della condivisione dei dati, nonché della necessità di affrancarsi da un accesso ai dati disperso e frammentato, per abbracciare l’adozione di una data platform moderna, la quale rappresenti il punto unico di accesso al patrimonio informativo dell’azienda. Dal punto di vista infrastrutturale, in pochi mesi è possibile creare una data platform moderna che sia al servizio dell’intelligenza artificiale. Per consolidare il processo, tuttavia, è necessario investire sul lungo periodo, con un team, anche di poche persone, che abbia, più che competenze tecnologiche approfondite, le capacità di comprendere e analizzare i dati e di rendere percepibile il valore che da essi si può generare. Si tratta di figure autonome rispetto al dipartimento IT, che possano agire in modalità self service, senza subire i rallentamenti delle sovrastrutture tradizionali. Dal punto di vista strettamente tecnologico, il livello di adozione della data virtualization dipende dalla maturità della singola organizzazione: si va dalla creazione di un logical data lake fino all’implementazione di un vero e proprio modello di logical data fabric, in grado di interconnettere tra di loro i dati come se fossero fili con cui creare un tessuto.
Tra i nostri casi di successo più recenti possiamo citare Istat, che ha recentemente modernizzato i processi di produzione dell’informazione statistica, per i quali l’utilizzo di nuove fonti, come il Web, social media e i cosiddetti Big data, ha reso evidente la necessità di sistematizzare la gestione di una mole di informazioni considerevole. L’implementazione della Denodo Platform ha quindi consentito di disaccoppiare utenti e applicazioni da attività come la migrazione e il consolidamento dei dati, integrando allo stesso tempo la semantica e la governance necessarie, ed evitando costose operazioni di copia o spostamento. Il progetto di virtualizzazione ha inoltre consentito all’Istituto, anche grazie a un nuovo modello organizzativo, di ottimizzare i costi dell’investimento e aprire le porte a nuove opportunità di valorizzazione dei dati, in grado di cogliere appieno le potenzialità offerte dall’enorme mole di dati oggi a disposizione. A che punto siamo in Italia?
Al contrario di quanto si tenda comunemente a pensare, l’Italia non è tra gli inseguitori ma rispetta la media del livello di adozione degli altri Paesi, dimostrando un potenziale che giustifica la fase di hype che stiamo vivendo. Per quanto i livelli di sviluppo varino in base alle dimensioni delle organizzazioni, ci troviamo comunque ancora in una fase sperimentale che precede quella progettuale vera e propria: le aziende stanno ancora identificando le aree di sviluppo dell’intelligenza artificiale, per capire come prendere decisioni davvero informate a beneficio della produttività e del business. La via tuttavia è tracciata, e possiamo prevedere un futuro in cui l’implementazione di data virtualization e AI sarà all’ordine del giorno. V.B. 31
Foto di Elchinator da Pixabay
CYBERSECURITY
NUOVE STRATEGIE PER CHI GIOCA IN DIFESA Servizi cloud, architetture distribuite, cambiamenti legislativi e la preoccupazione per l’incolumità delle persone: così, secondo Gartner, il panorama della cybersicurezza si sta trasformando.
32 |
DICEMBRE 2021
C
ome si sta trasformando la sicurezza informatica? Domanda complessa, che non può avere una risposta semplice: stanno cambiando le tecnologie, ma anche le strategie adottate dalle aziende, così come il panorama legislativo. Non è facile immaginare esattamente che cosa accadrà domani, perché la cybersicurezza dovrà adattarsi alle evoluzioni del panorama del rischio informatico, che sono imprevedibili. Ma c’è qualcuno che ha tentato di fare delle previsioni ed è l’autorevole Gartner, una tra le principali società di consulenza e analisi del settore digitale. Nello scenario di breve-medio termine immaginato aleggia un’inquietante domanda, ovvero: come possiamo essere sicuri che gli attacchi informatici non facciano del male, materialmente, alle persone? In effetti,
purtroppo non possiamo, ma dovremo attrezzarci per questa sempre più probabile evenienza. La proliferazione dei sistemi cosiddetti “cyber-fisici” — come i sistemi Scada, gli oggetti Internet of Things, i digital twin e i veicoli a guida automatizzata — rappresenta una golosa occasione per i criminali e un rischio per la società. Vediamo e commentiamo insieme questa e altre tendenze previste dagli analisti per i prossimi anni. 1. Le leggi sulla privacy
Entro la fine del 2023, leggi sulla protezione dei dati di recente applicazione regolamenteranno l’uso delle informazioni personali di oltre i tre quarti della popolazione mondiale. Il Gdpr (General Data Protection Regulation) entrato in vigore nei Paesi Ue nel 2018 ha tracciato la via, imponendo misure mag-
Foto di methodshop da Pixabay
giormente tutelanti per i consumatori e multe più salate per chi non soddisfa la compliance. Al Gdpr si sono affiancati una simile legge di protezione dei dati personali varata in Brasile e il California Consumer Privacy Act. 2. Le architetture mesh
Nel giro di due o tre anni, secondo gli analisti, si vedranno chiaramente gli effetti dell’adozione di approcci di cybersecurity mesh, cioè basati su architetture informatiche distribuite. “Il cybersecurity mesh”, scrive Gartner, “si estende a coprire le identità che stanno fuori dal tradizionale perimetro di sicurezza e crea una visione olistica dell’organizzazione. Aiuta, inoltre, a migliorare la sicurezza per il lavoro da remoto”. Il cuore della previsione è che entro il 2024 le aziende dotate di un’architettura di sicurezza mesh ridurranno del 90%, in media, l’impatto degli incidenti informatici.
portunità di stipulare contratti di vendita, fornitura, partnership, acquisizioni, fusioni o altri tipi di accordo societario o commerciale. In un orizzonte temporale di medio termine, entro il 2025, il 60% delle aziende userà il rischio cyber come principale criterio decisionale in tutte queste attività (cosa che d’altra parte già oggi fanno le società d’investimento).
3. Il consolidamento dei fornitori SaaS
5. Le leggi nazionali sui ransomware
Numerose indagini sul tema testimoniano il problema della proliferazione delle tecnologie di diversi fornitori: le aziende si trovano a spesso a dover gestire un numero eccessivo di soluzioni non integrate fra loro. Ma assisteremo a una parziale inversione di tendenza. Secondo Gartner, entro il 2040 il 30% delle aziende avrà un unico vendor fornitore di soluzioni cloud di tipo Secure Web Gateway, Cloud Access Security Brokers, Zero Trust Network Access e Firewall as a Service. Si imporrà ancor di più il modello Software-as-a-Service (SaaS), che prevede la fruizione di un’applicazione in abbonamento e senza costi hardware.
La lotta ai ransomware (gli attacchi “ricattatori”, che bloccano e cifrano dati per chiedere un riscatto) impegna oggi molti governi, tra cui per esplicite dichiarazioni di Joe Biden anche quello statunitense. Ma attualmente solo l’1% delle nazioni mondiali ha definito delle regole sui pagamenti dei riscatti, su ciò che è lecito fare nelle negoziazioni tra vittime e cybercriminali. Entro la fine del 2025 la percentuale salirà al 30%: entreranno in vigore non solo nuove leggi nazionali più ampie, ma anche multe per chi cederà al pagamento dei riscatti.
4. L’analisi del cyber risk per valutare le altre aziende
Sempre più, secondo gli analisti, le aziende eseguiranno analisi del rischio cyber di società terze per valutare l’op-
6. Commissioni per la cybersicurezza nel Cda
La cybersicurezza diventerà sempre di più una preoccupazione di prim’ordine per i consigli di amministrazione, ed è verosimile che nascano nelle aziende delle commissioni dedicate, controllate da membri del Cda. Sono necessari, a detta
di Gartner, nuovi metodi di reporting per tenere aggiornati i dirigenti aziendali su rischi e azioni da intraprendere. 7. Una cultura della resilienza
Chissà se la parola resilienza sarà ancora sulla cresta dell’onda tra qualche anno. Dalla previsione di Gartner si intuisce che questo concetto dovrà essere interiorizzato nella cultura delle aziende, le quali dovranno prepararsi in anticipo all’eventualità di eventi drammatici o catastrofici in agguato (inclusi gravi attacchi informatici). Entro il 2050 sette amministratori delegati su dieci imporranno in azienda una cultura di questo tipo. 8. Proteggere l’incolumità delle persone
Gartner rilancia una sua vecchia previsione: i cyberattacchi si sposteranno sempre di più dai sistemi informatici ai sistemi cyber-fisici, sfruttando le vulnerabilità create dalla convergenza di Information Technology (IT) e Operational Technology (OT). Entro il 2050 i criminali tecnologici avranno imparato a trasformare l’OT in un’arma capace di causare danni materiali. Le aziende dovrebbero focalizzarsi su questi nuovi rischi, predisponendo risorse e personale dedicato. Valentina Bernocco 33
Foto di Anthony Shkraba da Pexels
CYBERSECURITY
VECCHI E NUOVI PERICOLI ALL’ORIZZONTE Nelle previsioni per il 2022 domina la preoccupazione per il ransomware, ma il rischio si nasconde anche nei container e nei sistemi di autenticazione.
I
cyberattacchi riservano sempre delle sorprese e sono imprevedibili per definizione. Nondimeno, ogni anno andando verso la fine del calendario fioccano numerose le previsioni per l’anno successivo, e possiamo dire che in tempi recenti molte di esse si sono avverate: vendor di sicurezza informatica, analisti e aziende avevano prefigurato, per esempio, l’ascesa numerica e di pericolosità del fenomeno dei ransomware, così come l’aumento degli attacchi alle infrastrutture critiche e agli apparati Internet of Things. Inoltre il prolungamento dello stato di smart working (totale o parziale) nelle aziende di tutto il mondo 34 |
DICEMBRE 2021
ha continuato a offrire ai criminali golose opportunità di fare danni, colpendo i dispositivi, le reti Internet e le applicazioni usate dagli utenti nei contesti domestici. Nel 2022 questi fattori di rischio non scompariranno e nel frattempo l’intero settore del crimine informatico, che possiamo ormai definire come una vera e propria industria, continuerà a strutturarsi sempre di più su logiche di filiera e di specializzazione. La nuova “filiera” dei ransomware
Intorno ai malware “ricattatori” si è già sviluppato un florido mercato, fatto di fornitori di “materia prima”, trasforma-
tori, intermediari. Una filiera dei ransomware, insomma: c’è chi li crea e li mette sul mercato nero del Web, proposti in formula as-a-service, e chi li prende in affitto e li utilizza per sferrare attacchi. I ricercatori di Sophos hanno osservato nel corso del 2021 una diminuzione degli attacchi realizzati ex novo da singoli gruppi, bilanciata da una crescita delle offerte di ransomware-as-a-service (RaaS). “Una volta ottenuto il malware di cui hanno bisogno, gli affiliati RaaS e altri operatori di ransomware possono rivolgersi agli Initial Access Broker e alle piattaforme di consegna del malware per trovare e colpire potenziali vittime”, spiega Sophos. Questo meccanismo è stato usato anche nel famigerato assalto alla rete di Colonial Pipeline, portato a termine da un affiliato di DarkSide, e sempre più sarà impiegato nel 2022. Il modello del RaaS, infatti, consente a cia-
scun attore della filiera di specializzarsi e di diventare sempre più efficace in ciò che fa. Il deepfake oltre la disinformazione
Uno tra i più inquietanti sviluppi dell’intelligenza artificiale, anche se non l’unico, è forse il fenomeno dei deepfake, le cui finalità spaziano dagli utilizzi ludici alle truffe. Finora abbiamo visto soprattutto utilizzare i messaggi audio di sintesi vocale e i video deepfake sui social network, per realizzare campagne di disinformazione. Nei prossimi anni, secondo Sophos, aumenterà il loro impiego in campo cybercriminale, per esempio per realizzare contenuti web di attacco watering-hole e campagne di phishing. Sulla stessa linea, Check Point prevede che sempre più gli hacker faranno ricorso agli attacchi di ingegneria sociale deepfake per ottenere permessi e accedere a dati sensibili. Anche secondo Mandiant (la ex FireEye) sempre più i contenuti video manipolati serviranno per realizzare attività di social engineering convincenti, per realizzare truffe confezionate ad hoc per la singola vittima e anche per ingannare i sistemi di autenticazione biometrica. Criptovalute complici del cybercrimine
Le monete crittografiche vengono spesso usate nelle richieste di riscatto perché garantiscono anonimato e assenza di tracciabilità, ma esiste anche il problema dei cryptominer che vengono installati su computer e server per sfruttarne le risorse di calcolo ai fini della “estrazione” di criptovaluta. Anche l’anno prossimo, e finché non esisterà una regolamentazione efficace in materia, le criptovalute continueranno ad alimentare i crimini informatici come il ransomware e il cryptomining malevolo. Sophos, Check Point e Cisco Talos sono alcune delle voci autorevoli a sostegno di questa previsione. “La crescita esponenziale dei dispositivi intelligenti nelle nostre case
e nei luoghi di lavoro ha aumentato la superficie di attacco e il rischio che gli hacker si impossessino della potenza di calcolo e della connettività di rete è reale”, sottolinea Cisco Talos. Data breach ancor più costosi
I danni economici diretti delle violazioni informatiche stanno crescendo. Le richieste di riscatto dei ransomware nel 2021 hanno toccato nuove vette, come i 40 milioni di dollari pagati da Cna Financial, colosso statunitense del settore finanziario e assicurativo, per riavere i propri dati. Diversi vendor, tra cui Check Point, scommettono su una corsa al rialzo per il 2021 e 2022. Tra le vittime più appetibili, a cui chiedere riscatti astronomici, per chi lancia attacchi ransomware ci saranno non solo le grandi imprese private ma anche le agenzie governative. “Attacchi sempre più sofisticati e su larga scala continueranno a battere ogni record e possiamo aspettarci un enorme aumento in termini di ransomware e attacchi mobile”, spiega Maya Horowitz, vice president research di Check Point. I punti deboli dei container
Più un tecnologia diventa popolare, più rischia di entrare nel mirino dei cybercriminali intenzionati a sfruttarla. Il discorso vale un po’ per tutto e anche per i container, strumenti che permettono di testare e sviluppare applicazioni all’interno di un unico ambiente di runtime. McAfee sottolinea come i container abbiano sostanzialmente allargato la superficie potenzialmente attaccabile. In particolare, elementi di rischio sono le errate configurazioni nel livello dell’orchestrazione e le vulnerabilità delle applicazioni eseguite nei container. Identità sotto tiro
Secondo le previsioni di Semperis, i più diffusi sistemi di gestione delle identità, come Microsoft Active Directory, sem-
pre di più saranno un obiettivo preferenziale per grandi attacchi hacker, mirati a fare danni su larga scala. Compromettere Azure Active Directory consente, infatti, di mettere fuori uso applicazioni e servizi che dipendono dal sistema di autenticazione. Ma i rischi non vengono solo dal cloud. “Nonostante le aziende stiano trasferendo sempre più i carichi di lavoro dall’on-premise al cloud”, sottolinea Guido Grillenmeier, chief technologist di Semperis, “Active Directory rimane una parte fondamentale dell’infrastruttura di entrambi gli ambienti per il 90% delle organizzazioni, e non ci saranno cambiamenti a breve termine su questo fronte. I criminali informatici sono perfettamente al corrente di queste lacune e stanno sfruttando sempre di più i punti deboli di Active Directory come via d’accesso per gli attacchi verso i dati e le applicazioni nel cloud, riuscendo così ad aggirare i classici sistemi di protezione”. Supply chain problematica
Il crimine informatico sempre più cercherò di spezzare la catena di fornitura del software o dei servizi IT. Ovvero, fuor di metafora, di intrufolarsi in uno dei passaggi che collegano produttori e fruitori. Già nel 2021, secondo le stime della European Union Agency for Cybersecurity (Enisa), il numero degli attacchi di supply chain è quadruplicato rispetto al 2020, mentre per il prossimo anno Forrester prevede che ben il 60% del totale degli incidenti di cybersicurezza coinvolgerà dei fornitori esterni. Previsione sottoscritta anche dai vendor di sicurezza informatica: “Nella tecnologia la globalizzazione è un dato di fatto”, commenta per esempio Luis Corrons, security evangelist di Avast. “Tutte le aziende del mondo utilizzano software sviluppato da terze parti, il che spiega i molti attacchi di supply chain già osservati, una tendenza che è cresciuta negli ultimi anni”. Valentina Bernocco 35
Foto di Mark Mags da Pixabay
STRATEGIE IT
PERCORSI DIVERSIFICATI, OBIETTIVI COMUNI Come si afferma l’innovazione nelle imprese italiane e come si sceglie il giusto partner tecnologico? Lo svela una ricerca di The Innovation Group.
S
tiamo vivendo in un periodo storico caratterizzato da un tasso di innovazione quanto mai elevato. Il digitale per molti versi ha una funzione abilitante, perché è un motore di sviluppo che permette di ridisegnare processi con modalità nuove, un’elevata automazione e interconnessione, e perché crea le condizioni per il cambiamento e l’adattabilità continua del business. Parlando con i responsabili dell’IT aziendale, si scopre che i percorsi che portano a progettare programmi di innovazione digitale nelle imprese italiane sono molteplici. Gli obiettivi generali che guidano questi programmi, invece, non differiscono molto. Le aziende cercano di rinnovarsi continuamente per rimanere competiti36 |
DICEMBRE 2021
ve nel proprio mercato di riferimento, e puntano al digitale per aumentare i ricavi, efficientare il modello produttivo e distributivo, ridurre i costi. Investono sulla customer experience per rafforzare l’ingaggio dei clienti, soprattutto dove questi sono consumatori finali abituati a esperienze d’uso digitali avanzate. Si pongono come fine quello di poter sfruttare il “capitale dei dati”, facendo su grandi moli di informazioni generate “sul campo”, dalla fabbrica, dall’interazione con i clienti, dai processi automatizzati in azienda. Che cosa aiuta a raggiungere obiettivi così sfidanti? Un primo aspetto critico è aver predisposto un’organizzazione in grado di generare innovazione, aver definito un programma interno con
competenze specifiche per “facilitare” la nascita di trasformazioni digitali nel contesto aziendale. Oggi la maggior parte delle imprese italiane è consapevole della necessità di definire una corretta governance su questi temi, considerando aspetti come l’Open Innovation (lo scambio di idee con esterni), i processi di comunicazione e il coinvolgimento interno di tutte le aree del business, e ancora la capacità di generare proposte ma anche di selezionare quelle più interessanti e concrete, per poi metterle in pratica e non fermarsi ai buoni propositi. Un secondo aspetto, non meno importante, è l’apporto che viene dalle società di servizi IT, i partner system integrator che svolgono un ruolo di supporto sempre più importante nell’a-
iutare le aziende clienti a percorrere il proprio cammino di trasformazione digitale. I risultati di un’analisi di The Innovation Group, svolta a luglio 2021, dimostrano che le aziende italiane valutano i propri fornitori di servizi IT o i propri partner IT soprattutto in base alla qualità dei servizi offerti e alla preparazione del team di professionisti che segue tali servizi. Altri aspetti presi in considerazione nella scelta dei partner IT sono la capacità di innovare (quindi di aiutare le aziende clienti negli obiettivi di trasformazione del business) e, solo successivamente, i costi. Ai partner sono affidate attività critiche legate all’operatività e agli sviluppi IT, e la fiducia loro accordata inizialmente deve poi trovare riscontro in servizi di elevata qualità. Quando questo avviene, il rapporto diventa sempre più solido nel tempo e la partnership diventa strategica per l’azienda cliente. Il rapporto con i fornitori di servizi IT tende in generale a migliorare e a diventare più sinergico nel tempo. Qualcuno però ritiene ci sia il rischio che il fornitore, una volta consideratosi “a casa propria” presso il cliente, diminuisca il livello di impegno. Per questo motivo alcune aziende valutano periodicamente le prestazioni dei propri fornitori e in alcuni casi introducono meccanismi che favoriscono il ricambio dei partner IT. La valutazione riguarda, oltre alla verifica degli Sla (Service Level Agreement) del contratto sul rispetto di requisiti di qualità e tempistiche, anche la capacità di proporre soluzioni innovative. Ma quali aspetti potrebbero far propendere le aziende verso la scelta di un differente partner IT? Intervistando le imprese italiane, la ricerca di The Innovation Group ha individuato cinque fattori principali: una migliore qualità dei servizi offerti o un team di maggiore esperienza; la capacità di offrire solu-
zioni tecnologiche più innovative; una migliore conoscenza del settore; la proposta di soluzioni tecnologiche più affidabili o sicure; la presenza sul mercato internazionale e possibilità di fare ecoLa vera differenza la fa la passione: nei collaboratori esterni (così come nella squadra interna) cerco motivazione ed entusiasmo, l’adesione a un sogno. Non mi interessa quanto tempo mi dedichi un consulente, potrebbe essere tanto oppure poco: l’importante è che, oltre a offrire un servizio di qualità per le nostre necessità specifiche, si senta soprattutto parte del progetto, che sia perfettamente integrato con i team interni. Stefano Brandinali, chief digital officer di Gruppo Prysmian Iccrea è una banca territoriale, con un modello centrato sulla filiale: puntiamo a sviluppare per i clienti un’esperienza omnicanale che colga tutte le opportunità di contatto, relazione e vendita di servizi finanziari. Ci interessa anche esplorare soluzioni e modelli di business non tipici del modello bancario, ad esempio per sfruttare le opportunità che nascono con la PSD2. Altri obiettivi che ci poniamo con l’innovazione digitale sono l’efficientamento del modello produttivo e distributivo e la riduzione dei costi. Andrea Coppini, responsabile divisione digital innovation & multichannel di Iccrea Banca Nel momento in cui arriva, il nuovo fornitore per farsi piacere trova gli errori del precedente, e sistema molte cose, mentre poi nel tempo si adagia. I partner IT non dovrebbero dare per scontato di rimanere a lungo. Nel nostro caso, la competizione è sempre aperta tra fornitori presenti in azienda e nuovi. Abbiamo anche predisposto meccanismi che facilitano il
nomie di scala. Importanti sono anche gli aspetti di pricing, e in particolare la flessibilità negoziale del fornitore. Elena Vaciago, associate research manager di The Innovation Group ricambio: questo non è sempre semplice o efficiente, cambiare fornitore può costare. Noi puntiamo a contrattualizzare anche il passaggio di consegna, il periodo di coesistenza di due fornitori che ci serve per avere continuità. Giovanni Damiani, direttore generale del Consorzio Operativo di Gruppo Montepaschi Essendo noi una banca senza filiali, il nostro è un business totalmente digitale e per noi l’innovazione è un processo continuo. Avendo poi un’elevata expertise interna, guidiamo noi i progetti: cerchiamo partner, non fornitori. E quello che chiediamo loro è di essere dei facilitatori, di accelerare la delivery, di fornirci competenze su singoli ambiti. Gianluca Martinuz, Cio di FinecoBank Parlando di evoluzione del ruolo dei system integrator, nella nostra esperienza la relazione con loro procede verso una conoscenza sempre maggiore della realtà del cliente in cui calare la soluzione. È questo un elemento importante, perché un progetto può essere bello sulla carta ma poi poco adatto per la singola situazione del cliente. È quindi, quella con il system integrator, una relazione che si crea nel tempo, e che deve aiutare a ottenere vantaggi competitivi nel proprio mercato. Il system integrator diventa un partner con cui condividere i benefici raggiunti. Luigi Sorrentino, head of Cio office and a.i. head of infrastructure and servic management di Barclays
37
EXECUTIVE ANALYSIS | Cybersicurezza aziendale
PREVENZIONE E REAZIONE CONTRO GLI ATTACCHI SOFISTICATI Lo scenario della cybersecurity è in costante evoluzione e le aziende si trovano ad affrontare minacce tanto pericolose quanto difficili da individuare. Le modalità di risposta mescolano in modo variabile competenze interne e appoggio a servizi esterni specializzati, per accrescere la rapidità di rilevazione e intervento.
M
olti fattori contribuiscono a rendere complesso lo scenario della cybersecurity: nuove vulnerabilità vengono scoperte di continuo in sistemi hardware e software, mentre si sta affermando una nuova era di employee mobility, in cui l’aumento degli accessi remoti e delle applicazioni cloud-based fanno crescere il numero di dispositivi, dati e flussi di lavoro da proteggere. Di per sé, un ideale approccio olistico alla sicurezza aziendale presenterebbe una struttura semplice, che parte dalla valutazione dei rischi, passa per la capacità di rilevare rapidamente le minacce e approda all’ottimizzazione del tempo di risposta. Nella realtà, tuttavia, la maggior parte delle aziende strutturate e con una certa storia alle spalle deve fare i conti con un’infrastruttura stratificatasi nel tempo, una componente legacy più o meno ingombrante, una consapevolezza dei dipendenti e collaboratori ancora troppo debole, una superficie di esposizione sempre più articolata e i consueti problemi di limitazione dei budget. Come intuibile, la presenza di un’infrastruttura IT ramificata e stratificata porta con sé il rischio di subire attacchi più insidio38 | DICEMBRE 2021
si, per la loro capacità di individuare il punto debole di una catena articolata e poi muoversi in modo spesso elusivo all’interno dei sistemi informativi. Se la complessità resta un elemento critico, in gran parte le tattiche di accesso iniziale all’interno del framework enterprise sono ancora relativamente tradizionali e fanno leva soprattutto sull’elemento umano. Molti attacchi si potrebbero prevenire automatizzando le attività di cybersicurezza di routine, concentrando l’attenzione dei team interni sull’analisi orientata alla prevenzione di ciò che potrebbe rendere complesso un incidente. Il panorama di riferimento delle aziende italiane
Quali misure sono state messe in campo per contrastare questo stato delle cose? Qual è la reale percezione dei pericoli, quali il livello di consapevolezza e l’insieme delle azioni adottate per proteggere il patrimonio di dati e applicazioni? A queste domande ha provato a rispondere un’indagine qualitativa realizzata da Technopolis su un campione di realtà di dimensioni medio-grandi. La selezione di imprese perlopiù storicamente radicate nei rispettivi settori di appartenenza
(finance, costruzioni, manufacturing, retail, telco e servizi) ha confermato, innanzitutto, la presenza di un’infrastruttura di cybersecurity complessa, costruita nel tempo con soluzioni destinate spesso a risolvere problematiche puntuali. Nel 2020 si è registrata una certa amplificazione dovuta agli effetti provocati dalla pandemia e alle lacune connesse alla particolare congiuntura, con scelte effettuate in tempi rapidi per adeguare Vpn e sistemi di protezione degli endpoint, per arrivare nei casi più evoluti alla multifactor authentication (l’autenticazione multi-fattore) e alla cyber threat intelligence. Sono relativamente rari i casi di realtà che abbiano proceduto a un’opera di consolidamento dell’insieme di soluzioni adottate, mentre nessun componente del panel si è spinto verso una logica full cloud o mostly cloud. L’adozione abbastanza generalizzata (ancorché recente in diversi casi) di soluzioni Edr (Endpoint Detection & Response) da un lato e del Siem (Security Information and Event Management) dall’altro sono misure che intendono automatizzare alcuni processi basici di rilevazione di anomalie. Allo stesso modo, è ormai
consolidata la scelta di avvalersi di un Soc, un Security Operations Center, in linea di massima in forma ibrida, con la componente di livello 1 e 2 quasi sempre affidata all’esterno. Qui non parliamo tanto di automazione in senso stretto, ma dell’esternalizzazione in forma di servizio di un’attività di prima rilevazione e scrematura che serve a eliminare a monte la necessità di verificare ogni di tipo di alert di sicurezza intercettato dai vari sistemi in uso. Sono diverse le categorie di attacco che preoccupano le figure IT e quelle preposte al presidio della sicurezza informatica. Anche se phishing e malware classici vengono reputati pericolosi solo in parte limitata rispetto alla quantità di tentativi rilevati, l’impossibilità di regimentare oltre una certa soglia il comportamento umano non consente di abbassare l’attenzione. Il timore che, per tale via, possa penetrare in azienda soprattutto un ransomware resta molto alto ed è per questo che si preferisce dover analizzare qualche falso positivo in più pur di non attivare meccanismi che potrebbero avere effetti devastanti sull’operatività e sul business. Molti dei soggetti interpellati hanno indicato come elementi di massima preoccupazione anche le minacce Apt (Advanced Persistent Threat), gli attacchi fileless e gli zero-day exploit. I primi sono particolarmente temuti per la loro capacità di insinuarsi nei sistemi e restare inattivi anche per lunghi periodi di tempo senza essere rilevati, mentre gli ultimi vengono reputati pericolosi di default poiché sfruttano vulnerabilità fino a quel momento ignote anche agli sviluppatori dei programmi presi di mira. Le nuove frontiere
Una delle frontiere più recenti per potenziare la lotta alle minacce è l’adozione della cyber threat intelligence. Molte delle aziende coinvolte se ne stanno servendo, in larga parte come servizio
affidato a specialisti esterni, di solito estremamente verticali (e non necessariamente facenti capo a società con base in Italia). Prevale la convinzione che questa opzione consenta di aumentare la visibilità complessiva sulle cyberminacce, anche grazie alla capacità di scandagliare fonti su deep Web e dark Web. Soprattutto di fronte alle minacce più complesse, appare estremamente critico il tempo di rilevazione e risposta. Molte misurazioni, proposte nel tempo e ricavate da casi reali, indicano spesso in mesi la capacità di individuare determinate tipologie di attacco, soprattutto quelli di tipo persistente (Apt). La velocità di reazione normalmente si misura nella capacità di esecuzione corretta dei processi essenziali di detection & response, includendo il threat hunting proattivo, l’analisi retrospettiva delle cause, la remediation e la mitigazione. Esistono realtà già evolute al punto di aver istituito uno Csirt (Computer Security Incident Response Team) o perlomeno un Cert (Computer Emergency Response Team), ovvero team operativi di sicurezza, che a monte garantiscono in una particolare vigilanza su aspetti come i nuovi
attacchi e malware, le ultime vulnerabilità rilevate e così via, per conoscere lo stato della minaccia e valutare il grado di rischio della propria organizzazione. A valle, invece, essi analizzano e affrontano gli incidenti di sicurezza aiutando a risolverli. Numerosi sono i fronti di evoluzione sul breve e medio termine, poiché nel variegato scenario della cybersecurity ogni azienda ha la necessità di coprire qualche aspetto giocoforza lasciato indietro. In alcuni casi verranno privilegiati gli aspetti di automazione, anche con l’integrazione di tecnologie di intelligenza artificiale e machine learning, mentre in altri si andrà verso il potenziamento delle capacità di monitoraggio. Un altro tema forte, collegato al progressivo spostamento di applicazioni e carichi di lavoro verso il cloud, riguarda il concetto di Sase (Secure Access Service Edge), che prevede l’implementazione di un framework di sicurezza progettato per far convergere le tecnologie di sicurezza e connettività di rete in un’unica piattaforma, per una migrazione ritenuta più rapida e protetta. Roberto Bonino 39
EXECUTIVE ANALYSIS | Cybersicurezza aziendale
LE PAROLE CHIAVE CONTRO LA COMPLESSITÀ Stiamo concentrando la nostra attenzione sulle capacità di intelligence per migliorare la prevenzione degli attacchi informatici e la nostra postura generale di sicurezza. Vogliamo investire su servizi e tecnologie che garantiscano un monitoraggio continuo, migliorando la nostra capacità di avere visibilità sull’intera infrastruttura, che si tratti del mondo enterprise IT oppure della rete distribuita su tutto il percorso autostradale. Simone Pezzoli, group Ciso di Autostrade per l’Italia Per evitare dispersioni e ridondanze o, ancora peggio, gap nell’infrastruttura di sicurezza, occorre come nel nostro caso aver creato a monte una governance robusta che presiede il disegno delle soluzioni. Ci siamo orientati verso un approccio di security by design, per cui ogni nuovo progetto implica in modo mandatorio già nella fase di demand l’analisi di tutti i rischi di sicurezza collegati. Alessio Pomasan, Cio di Banca Mediolanum L’evoluzione della complessità della cybersecurity ci ha portato ad avviare un percorso articolato di protezione ottimizzata degli asset. Se la tecnologia Siem e l’internalizzazione del Security Operations Center sono serviti per minimizzare il rumore di fondo e concentrare l’attenzione sulle minacce più pericolose, ora vogliamo monitorare con attenzione il lavoro da remoto e le terze parti. Sase e zero-trust saranno le parole chiave dei prossimi sviluppi. Alessandro Bulgarelli, Ciso di Bper 40 | DICEMBRE 2021
Ritengo che accrescere il livello di automatizzazione possa portarci a un miglioramento della reattività nella risposta, e potenzialmente a lavorare anche in tempo “quasi-reale”. In questa direzione abbiamo già fatto dei passi, come l’adozione della tecnologia Edr per gli endpoint, e vorremmo proseguire in abbinamento agli strumenti di intelligence. L’intervento umano, però, continuerà a essere necessario come cuscinetto fra il monitoraggio e la reazione a possibili incidenti. Stefano Venturini, responsabile Ict security di Cattolica Assicurazioni Abbiamo identificato cinque pillar sui quali focalizziamo progetti e roadmap di sicurezza informatica. Ogni iniziativa si mappa su persone, applicazioni, dati, infrastruttura e prodotti, in quest’ultimo caso per noi i veicoli connessi. Diversi sono gli ambiti che stiamo studiando per rafforzare la protezione su tutti questi fronti e tra questi ci attraggono le soluzioni Sase/Ztna, per garantire un’adeguata protezione degli utenti dentro e fuori dall’azienda, e poi il concetto di passwordless. Stefano Firenze, Cio, e Guido Barbero, Ciso & Cto di Cnh Industrial Non è facile spiegare all’interno della propria azienda il senso del valore aggiunto di determinati investimenti in cybersecurity. Nell’ambito delle tecnologie di intelligence noi abbiamo agito sulla brand protection, sull’antifrode e sul monitoraggio della supply chain per restituire un Rosi (il Roi applicato alla sicurezza) percepibile e consentirci di pensare an-
che a nuovi servizi per verso la clientela, grazie alla capacità di individuare utenze e-commerce compromesse. Alessio Setaro, cyber security keader di Leroy Merlin I dati sulle nuove tipologie di attacchi quali Apt e zero-day exploit hanno dimostrato quanto possano essere distruttivi soprattutto sfruttando l’anello debole rappresentato dall’elemento umano. A tal file abbiamo adottato e integrato sistemi di gestione delle vulnerabilità ed Edr basati su intelligenza artificiale, che ci consentono di rilevare tempestivamente le minacce e intervenire in tempo reale prevenendo così lo sfruttamento di possibili esposizioni. Vittorio Momento, cyber security manager di Maire Tecnimont Il macchinoso coinvolgimento di diverse figure nei vari passaggi di identificazione e rimedio alle minacce rende importante poter automatizzare elementi di rilevazione e reazione. Per questo ci siamo recentemente mossi verso l’adozione di una soluzione Xdr (Extended Detection and Response) e l’allestimento di un Soc affidato a un partner di fiducia. Formazione interna e gestione delle identità sono ambiti complementari ai quali stiamo dedicando particolare attenzione. Francesco Cavarero, Cio di Miroglio Il monitoraggio degli eventi di sicurezza più rilevanti avviene sempre in tempo reale e Banca Mps si è attrezzata per avere tempi di individuazione e risposta adeguati alla severità degli attacchi. Ab-
biamo poi lavorato molto sul processo di incident management & response, ottimizzando i processi interni per l’attivazione tempestiva delle funzioni aziendali coinvolte, al fine di garantire il veloce ripristino dell’operatività, contenere gli impatti e rispettare le tempistiche previste dai regolatori nazionali in questi ambiti. Antonella Caproni, cyber security governance team leader di Monte dei Paschi di Siena Nel corso dell’ultimo triennio il Cert di Poste Italiane si è evoluto verso un modello di nuova generazione, orientato alla gestione dei Big Data e all’uso di moderni strumenti di data analysis e di Business Intelligence, così come all’utilizzo sempre più frequente di algoritmi e tecniche di machine learning e data mining. Tutto questo supporta le attività di anomaly
detection e pattern recognition, riducendo il numero di falsi positivi e identificando minacce nascoste, per consentire agli analisti della cybersecurity di poter focalizzare i propri sforzi solo sulle analisi realmente importanti. Alfredo Terrone, head of security incident management di Poste Italiane Il lavoro in tempo reale passa per un controllo eseguito sulla base di ruoli definiti e mansioni specifiche da assegnare e valutare periodicamente. Proprio in questo periodo stiamo rafforzando questi aspetti per ottenere un monitoraggio attivo sempre più granulare e arrivare a poter preventivamente capire se una minaccia, ancora non attiva, sia entrata in azienda. Raimondo Noviello, responsabile del Security Coordination Center di Rai
ATTENZIONE ALLO SKILL SHORTAGE Alcune conferme importanti si ricavano dall’indagine di Technopolis. Innanzitutto, le aziende si trascinano una complessità infrastrutturale di fondo, che non accenna più di tanto a calare. Le strutture di sicurezza presenti in azienda sono ancora alle prese con la gestione di uno stack stratificato, fatto di soluzioni aggiunte nel tempo per risolvere problematiche specifiche o prevenirne altre. L’automazione di alcune componenti di “primo livello” può sollevare gli addetti interni da attività manuali onerose e poco produttive, ma non evita di dover verificare ancora troppo spesso quelli che poi si rivelano falsi positivi. In chiave positiva vanno lette le integrazioni, fatte negli ultimi tempi, di soluzioni Edr per la gestione dei device aziendali e, in casi più limitati, della threat intelligence come strumento di analisi a monte delle fonti di possibili attacchi. Tali tecnologie, affiancate dalla presenza
di sistemi Siem e Soc frequentemente affidati all’esterno, aiutano a focalizzare meglio il lavoro delle figure aziendali dedicate alla cybersecurity. Qui però si pone il problema del partner a cui affidarsi. Le scelte appaiono diversificate, con prevalenza di specialisti di questo o quel tema, utili per l’efficacia dell’operato di primo livello ma non necessariamente come soluzione per la complessità. E la difficoltà a reperire risorse qualificate non fa che acuire il problema, a cui le aziende, giocoforza, rispondono ampliando la formazione interna. Dunque, affidarsi a un partner esterno in grado di fornire strumenti, informazioni sempre aggiornate e competenze di alto livello è la soluzione più naturale per consentire a ogni realtà di contrastare in modo efficace gli attacchi più complessi, da tutti ritenuti anche i più pericolosi. Cesare D’Angelo, general manager di Kaspersky Italia
Adottiamo un approccio risk-based fondato su Iso 27001 e Nist 800 per essere in grado di intervenire sulle componenti più esposte a rischi. Non parliamo solo di aspetti tecnologici, ma anche della definizione di policy, standard e procedure che ci hanno impegnato molto in questi ultimi anni. Abbiamo introdotto anche un nuovo processo di analisi dei rischi informatici, che ci porta a evidenziare i punti più critici sui quali intervenire e indirizzare i piani di mitigazione. Claudia Napoli, responsabile della protezione dei dati, e Alfredo Robusto, information security manager di Real Mutua Assicurazioni Un’efficace strategia di cybersecurity parte, a monte, da una conoscenza precisa dei propri asset e una corretta categorizzazione in base al rischio. Sempre in ottica preventiva, l’introduzione dell’autenticazione multi-fattore e dei privilegi di accesso da remoto possono completare il disegno infrastrutturale. Importante anche garantire la sicurezza degli endpoint e la gestione proattiva degli allarmi di sicurezza attraverso un Cyber Security Operations Center. Corradino Corradi, head of Ict security, privacy & fraud management di Vodafone Lavoriamo in una logica di managed detection & response, avendo constatato che fin qui i tempi di risposta sono stati rapidi ed efficaci. Uno dei motivi di questa scelta è proprio cercare di non essere più semplicemente reattivi ma quantomeno proattivi. Ma i passi evolutivi necessari per contrastare al meglio gli attacchi complessi passano anche e soprattutto da un miglioramento dell’awareness delle persone e dall’introduzione di un global Soc per governare tutto ciò che ha a che fare con la sicurezza sia a livello corporate sia nei nostri cantieri. Gian Fabio Palmerini, information & cyber security manager di Webuild 41
SPECIALE CLUSTER REPLY
IL CORAGGIO DI INNOVARE DEI “CAMPIONI DIGITALI”
L
a trasformazione digitale non è più un’opzione, non è un “se”. Oggi è il “come” a fare la differenza. E allora Technopolis ha cercato, con l’aiuto di Cluster Reply, di esplorare le storie di sette “campioni digitali”: aziende coraggiose che hanno scelto di riscrivere le regole del gioco. Quelle che raccontiamo sono storie provenienti da settori disparati (finanza, manifattura, media&telco, ingegneria, food & beverage) e che fanno riferimento a tecnologie diverse (cloud, Big Data e analytics, intelligenza artificiale, realtà virtuale, IoT) e obiettivi differenti (migliorare l’esperienza del cliente, diventare una platform company, far evolvere l’Erp, implementare la servitization). Ma hanno in comune la disruption rispetto a uno scenario già dinamico, l’approccio end-to-end, la con-
Paolo Carlino
taminazione tra tecnologie e skill diversi. Paolo Carlino, partner di Cluster Reply, sintetizza così: “ La trasformazione digitale è stata sempre la missione di Cluster Reply, fin dalla sua fondazione nei primi anni Novanta. Abbiamo percorso insieme
ai clienti un lungo viaggio nella tecnologia che ci ha portati a realizzare numerosi sistemi e soluzioni all’avanguardia per tutto il settore informatico. Essere parte del grande network di Reply per noi significa soprattutto vestire un ruolo di innovatori e ottenere grande qualità in ciò che facciamo, aspetti su cui il mercato ci misura costantemente. Penso che i sette campioni digitali presentati in questo numero di Technopolis siano un ottimo esempio di che cosa il mercato si aspetta da noi”. Cluster Reply ha avuto un ruolo chiave, ha fatto da “prisma”, rifrangendo l’esigenza di trasformazione dei clienti in un arcobaleno di colori, corrispondenti a practice e vantaggi diversi ma originati dalla stessa radice digitale. Le aziende sono state accompagnate in un viaggio verso business model innovativi e vincenti.
ARCESE È PIÙ VELOCE E FLESSIBILE CON IL CLOUD Arcese è un gruppo internazionale presente su scala mondiale e composto da 54 società operanti in vari settori: trasporti su strada e intermodali, spedizioni via mare e aerea, gestione magazzini e logistica integrata. L’azienda offre servizi innovativi e sostenibili a copertura dell’intera supply chain, grazie a una rete di filiali e collaborazioni con partner specializzati. Arcese doveva centralizzare la gestione degli ordini provenienti dai clienti e per le diverse business unit, per migliorare la qualità delle informazioni rese disponibili agli operatori, fornendo strumenti proattivi di analisi del servizio erogato ai clienti. “Avevamo bisogno di standardizzare processi aziendali eterogenei”, dice Roberto Mondonico, Cio del Gruppo Arcese, “eliminando la duplicazione dei dati da fonti distribuite, e di garantire una visua42 |
DICEMBRE 2021
lizzazione degli ordini nei vari stati che lo caratterizzano, con la possibilità di effettuare il tracking dei viaggi in real-time”. Cluster Reply ha realizzato per Arcese la piattaforma di Order Management volta a gestire in maniera uniforme le informaRoberto Mondonico
zioni contenute negli ordini di servizio e trasporto, migliorandone la rapidità di processo e abilitando la gestione proattiva dei servizi collegati. La soluzione si avvale di diversi componenti, tra cui un modello dati unificato in grado di contenere tutti i dati rilevanti per il business, un motore di regole, una visualizzazione unificata end-to-end, l’allineamento con i sistemi di produzione e i servizi esposti per i diversi partner tramite Api e autenticazione. Arcese ha attivato diverse risorse cloud su Azure, sia in modalità PaaS sia FaaS (Function as a Service). “Grazie all’Order Management”, dice Mondonico, “oggi possediamo una soluzione flessibile a supporto del customer service e una piattaforma tecnologica strategica e scalabile per sviluppare nuovi servizi e abilitare nuovi processi di business”.
DIASORIN MIGLIORA L’ESPERIENZA DEL PAZIENTE CON AZURE DiaSorin è un gruppo multinazionale italiano, uno dei principali player hitech nel mercato della diagnostica in vitro, che vanta oltre cinquant’anni di esperienza, più di duemila dipendenti e 210 ricercatori. Il gruppo è composto da 24 società ed è presente in più di sessanta Paesi nei cinque continenti. “Da tempo lavoriamo per implementare la Digital Trasformation in azienda”, dice Davide Marietta, corporate Cio di DiaSorin, “e alla fine del 2020 abbiamo concretizzato la nostra vision, avviando poi all’inizio del 2021 la realizzazione della nostra Digital Platform, basata su cloud Microsoft Azure, con lo scopo di controllare da remoto i parametri dei dispositivi medicali, ricevere tempestivamente allarmi e notifiche sul loro funzionamento e aggiornarli, sempre da remoto”. Cluster Reply ha aiutato l’azienda a implementare velocemente
ed efficacemente la nuova piattaforma basata su Azure IoT. Azure Device Provisioning Service, Azure Event Hub, Azure IoT Hub, Traffic Manager, Api Management, App Service, Azure Data Explorer, Api per Azure FHIR ed Event Grid sono ampiamente utilizzati per migliorare Davide Marietta
l’architettura di riferimento IoT consolidata e per avere a disposizione la più efficace soluzione possibile. Grazie al cloud, sarà possibile aggiornare i dati dei pazienti comodamente con dei semplici click dal portale amministrativo, senza far muovere gli operatori sul territorio. La piattaforma realizzata da DiaSorin, inoltre, gestisce già la raccolta dei risultati dei test, semplifica la refertazione da parte dei medici e consente ai pazienti di essere avvisati quando i documenti sono disponibili, con la possibilità di scaricarli in modo sicuro direttamente dalla piattaforma. In futuro, questa piattaforma diventerà centrale per tutte le funzioni del Gruppo, offrendo servizi a diversi enti quali services, vendite e marketing, R&D, ed è in previsione l’integrazione di vari altri dispositivi medici che sono in fase realizzativa.
FIGC PRECORRE I TEMPI CON IL PROCESSO SPORTIVO TELEMATICO La Federazione Italiana Giuoco Calcio, nata nel 1898, riconosciuta dalla Fifa nel 1905 e membro fondatore della Uefa nel 1954, è l’associazione delle società e delle associazioni sportive che perseguono il fine di praticare il gioco del calcio in Italia. “Volevamo dotarci di un nuovo sistema per digitalizzare gli atti relativi ai procedimenti di giustizia federale”, racconta Maria Carmela Corrado, vice president Ict di Figc, “per consentire agli utilizzatori di beneficiare di una piattaforma sicura, trasparente e standardizzata e di poter essere sempre aggiornati sullo stato d’avanzamento dei procedimenti, così come di aver accesso a tutte le documentazioni depositate in ogni grado di giudizio in ambito federale”. Cluster Reply, attraverso il “Processo
Sportivo Telematico”, ha realizzato per Figc un’innovativa piattaforma tecnologica volta a digitalizzare gli step operativi che compongono le varie fasi del processo sportivo. La soluzione è stata costurita integrando diverse tecnologie Maria Carmela Corrado
cloud attraverso Microsoft Azure. Sono stati utilizzati ad esempio Azure App Service, il servizio in PaaS che si occupa dell’hosting dell’applicazione Web, e Azure Sql Database, il servizio che offre il Database Sql Server come PaaS. Su questo strato sono ospitati lo Unified Data Model e i dati relazionali dell’applicazione. In tal modo, tutti gli attori (giudici, procura federale, avvocati e segreterie) tramite la nuova piattaforma possono avere un’interlocuzione digitale e standardizzata, garantendo la visibilità completa e puntuale dello stato d’avanzamento dell’attività in corso e la tracciabilità di tutte le informazioni e documentazioni depositate, implementando un dialogo trasparente e sicuro e firmando gli atti in modo digitale. 43
SPECIALE CLUSTER REPLY
GENERALI JENIOT DIVENTA PIÙ REATTIVA CON SAAS E PAAS Generali Jeniot, società lanciata da Generali Italia a fine 2018, ha lo scopo di sviluppare servizi innovativi in ambito Internet of Things e connected insurance, legati a mobilità, casa, salute e lavoro. La società aveva l’esigenza di far transitare tutti i processi aziendali attraverso un solo workf low, all’interno di una piattaforma unificata che allineasse tutti i sistemi interni quali il portafoglio assicurativo, il Crm, l’e-commerce, l’app su mobile, la piattaforma Internet of Things, gli strumenti di Business Intelligence e i sistemi di terze parti. Cluster Reply è intervenuta aiutando Generali Jeniot a creare una piattaforma digitale basata su cloud per centralizzare e automatizzare i processi di gestione delle polizze telematiche e i processi connessi. Le risorse utilizzate sono state sia di
Marco Miceli
tipo SaaS, come Microsoft 365, sia di tipo PaaS, come Azure, oltre a Microsoft Power Platform. La piattaforma ora consente di gestire, in totale sicurezza e in modo centralizzato, i dati di sei diverse compagnie assicurative, sei Telematic Service Provider, un milione e mezzo di polizze annue e di processare circa quattromila f lussi al mese. “L’Insurance Workf low Manager realizzato con Cluster Reply”, dice Marco Miceli, head of digital solutions di Generali Jeniot, “ha trasformato il nostro business, permettendoci di diventare più efficienti, agili e reattivi. Ora Jeniot dispone di una piattaforma strategica, f lessibile e scalabile, con la quale possiamo sviluppare nuovo business. Allo stesso tempo, i nostri clienti sono serviti meglio e con tempi di risposta più brevi”.
MAIRE TECNIMONT GUARDA AL FUTURO CON OCCHI NUOVI Maire Tecnimont è una società di ingegneria, a capo di un gruppo industriale leader in ambito internazionale nella trasformazione delle risorse naturali che ha l’innovazione nel proprio Dna. È presente in 45 paesi, conta circa 50 società e 9.100 persone, tra dipendenti e collaboratori. L’attività del Gruppo è focalizzata nel creare valore condiviso nei Paesi in cui opera e nel perseguire gli obiettivi di sostenibilità sia a livello ambientale sia sociale. Nel mercato in cui opera Marie Tecnimont, le attività di manutenzione degli impianti sono storicamente affidate ai clienti o ai loro subappaltatori. Per offrire un livello di servizio più elevato e per aiutare i clienti a mantenere al massimo l’efficienza degli impianti, la società ha deciso di costruire una piattaforma Cmms (Computerized Maintenance Ma44 |
DICEMBRE 2021
nagement System) che utilizzasse lo stato dell’arte della tecnologia digitale, con soluzioni cloud, AR/VR e dispositivi wearable. “Con Cluster Reply”, dice Michele Mariella, Cio di Maire Tecnimont, “abbiamo realizzato una piattaforma, aperta
Michele Mariella
e predisposta a ricevere dati da infrastrutture IoT, che rivoluziona il concetto di manutenzione impiantistica e che consente di accedere a tutte le informazioni digitali relative ai diversi asset. La soluzione è basata sullo stack tecnologico di Microsoft, dal cloud Azure al software di gestione Dynamics 365 Field Services, passando per Power BI e Sharepoint per arrivare ai visori Hololens 2”. Oltre a permettere al cliente di controllare l’intero ciclo di manutenzione e di velocizzare i controlli, Maire Tecnimont ha così abilitato la possibilità di assistenza remota, incrementando la qualità dei servizi e la sicurezza delle persone. “Insieme a Reply”, conclude Mariella, “abbiamo avuto il coraggio di vedere con occhi nuovi un vecchio processo, coinvolgendo diverse funzioni aziendali”.
SMW AUTOBLOK UNIFICA TUTTI I PROCESSI AZIENDALI Smw Autoblok è una multinazionale a proprietà italiana, fondata a Torino oltre 40 anni fa e che ha perseguito un processo di espansione sia in Italia sia all’estero, attraverso acquisizioni e inaugurazioni di stabilimenti. Un processo che l’ha portata gradualmente ad affermarsi come leader nella produzione di mandrini autobloccanti e, più in generale, nella meccanica di precisione. “Avevamo l’esigenza di ricondurre su un’unica piattaforma tutti i processi aziendali”, dice Umberto Casalone, direttore dei Sistemi Informativi del gruppo Smw Autoblok, “in particolare in quelli di amministrazione e controllo di gestione, Crm, vendite e acquisti, pianificazione e controllo della produzione, logistica, e in tutta la parte di Business Intelligence. Volevamo anche accelerare il nostro journey to cloud,
arrivando a portare sulle nuvole anche l’Erp”. Cluster Reply ha realizzato per Smw la soluzione ideale integrando diverse tecnologie cloud, sfruttando Microsoft Azure. Ha utilizzato ad esempio Dynamics 365 for Finance and Operations a copertura di tutti i processi dell’area
Umberto Casalone
amministrativa, e Dynamics 365 Supply Chain Management a copertura di di tutte le attività dell’area Operation. In più ha sfruttato Azure Sql Database come data warehouse (per ospitare i dati transazionali provenienti da Dynamics 365 così come lo storico del vecchio sistema), Power Apps per la realizzazione di alcune applicazioni mirate integrate con l’Erp, e Power BI per le dashboard di analisi. L’adozione di Dynamics 365 in cloud ha permesso a Smw Autoblok, attraverso la creazione di un modello “core” e l’ottimizzazione dei propri processi aziendali, di uniformare la piattaforma Erp su tutte le società del gruppo, creando efficaci sinergie. L’applicazione in cloud si integra anche con servizi esterni già esistenti, quali lo schedulatore a capacità finita e il magazzino automatico.
WOOLRICH TRASFORMA IL DATA CENTER IN SICUREZZA Woolrich è la più antica azienda americana leader nella progettazione, produzione e distribuzione di abbigliamento outdoor in tutto il mondo. Da oltre 190 anni fabbrica capi di alta qualità per gli appassionati della vita all’aria aperta, e i suoi prodotti sono diventati nel tempo vere e proprie icone simbolo dello stile americano. L’azienda ha intrapreso nel 2020 un nuovo percorso di trasformazione digitale con l’obiettivo di migrare parte della propria infrastruttura sul cloud, gestendola in modo unificato e sicuro, e di garantire allo stesso tempo il controllo e il rispetto dei vincoli di sicurezza definiti a livello di gruppo, sfruttando le elevate prestazioni offerte e consentendo di limitare i costi di gestione. Cluster Reply ha aiutato Woolrich a
definire una roadmap sulla base delle sue specifiche esigenze in merito all’adozione del cloud Azure, seguendo tutte le fasi del progetto (l’introduzione e adozione tecnologica dei servizi forniti dal cloud relativi a infrastrutture, Marco Bogoni
la protezione di identità, accessi, dati, reti ed endpoint, ma anche gli aspetti di governance) con l’obiettivo finale di massimizzare gli investimenti fatti e sfruttare al meglio tutte le potenzialità della piattaforma. “L’adozione del cloud”, dice Marco Bogoni, Ict technology & integration operation system engineer di Woolrich, “ci ha permesso di modernizzare il nostro data center, potendolo gestire in modo centralizzato e autonomo, con l’obiettivo di estendere sempre di più le funzionalità messe a disposizione dalla piattaforma. A oggi possiamo dire di aver adottato una strategia di migrazione verso il cloud per migliorare la produttività della nostra azienda, utilizzando le tecnologie più innovative senza rinunciare agli aspetti di sicurezza”. DICEMBRE 2021 |
45
ECCELLENZE.IT | Sport Sit voluptate e Salute
AUTOMAZIONE FA RIMA CON PUBBLICA AMMINISTRAZIONE La società per azioni ha adottato una soluzione di Sap che ha permesso di velocizzare il lavoro amministrativo e di ridurre gli errori.
A
nche nel mondo dello sport c’è bisogno di automazione robotica. Sport e Salute, la ex Coni Servizi, è una società per azioni della Pubblica Amministrazione incaricata di fornire servizi di vario genere, di portare avanti progetti di promozione ed educazione sui valori dello sport, di vigilare sul lavoro di enti e associazioni del settore. In seguito a un intervento normativo che impone agli enti pubblici di verificare la regolarità contributiva dei propri fornitori prima di procedere al pagamento delle fatture, per la società è sorta l’esigenza di trasformare il proprio modo di lavorare. “A seguito dell’introduzione del nuovo adempimento”, racconta Marco Sacco, responsabile controllo di gestione Sport e Salute, “abbiamo dedicato le risorse della struttura amministrativa a tale e scopo, ma parallelamente abbiamo iniziato un’indagine di mercato volta a individuare un tool che permettesse di eliminare le attività ripetitive e a basso valore aggiunto, così da indirizzare l’impegno delle risorse amministrative a compiti a maggior valore aggiunto, come attività di analisi, attività che richiedono alto livello empatico eccetera. Oltre al reperimento del dato, la società sentiva il bisogno di semplificare la fruibilità dello stesso da parte di tutti i soggetti coinvolti nel processo e azzerare, attraverso un processo automatizzato, i potenziali errori umani insiti in ogni attività ripetitiva”. Nel sondare il mercato sono state vagliate varie proposte, poi scartate perché non totalmente in linea con le esigenze o con il budget. Si è però distinta in positivo la proposta presentata da PA Abs, divisione del 46 |
DICEMBRE 2021
gruppo Retelit specializzata in consulenza per la reingegnerizzazione dei processi e l'implementazione di soluzioni Sap: Sap Irpa (l’acronimo sta per Intelligent Robotic Process Automation). Una soluzione che fino a quel momento non era ancora stata adottata da alcun ente della Pubblica Amministrazione italiana. “Sap Irpa”, illustra Roberto Vozzi, sales & account manager di PA Abs, “è una suite di automazione completa in cui i robot software sono progettati per imitare le azioni umane sostituendo i clic manuali, interpretando le comunicazioni a elevato contenuto di testo o fornendo suggerimenti di processo agli utenti finali per processi aziendali definibili e ripetibili. Il progetto, il prototipo e l’offerta economica presentati da PA Abs hanno soddisfatto tutte le esigenze espresse da Sport e Salute, e inoltre tra i fattori che hanno influenzato la scelta ci sono state “la grande chiarezza e la precisione nel presentare una soluzione che si è subito materializzata nel nostro immaginario come perfettamente calzante”, precisa Sacco. “Inoltre PA Abs ha sottolineato l’eLA SOLUZIONE Sap Irpa viene usato per verificare i Durc (documento unico di regolarità contributiva) prodotti in formato Pdf dal sistema Inps. Il download dei documenti e l’estrapolazione dei dati necessari ai fini delle verifiche richiede un tempo compreso tra cinque e sette minuti.
norme potenziale evolutivo della soluzione, che avrebbe potuto quindi trasformarsi nel tempo di pari passo con le nostre esigenze. Abbiamo voluto credere nella soluzione e abbiamo collaborato in prima linea con PA Abs per raggiungere l’obiettivo, trovando insieme soluzioni innovative e compatibili per il superamento di problemi tipici delle procedure tecniche della Pubblica Amministrazione”. Nel giro di un semestre (un tempo leggermente più lungo del previsto, ma giustificato dal fatto che si trattasse di una “prima volta” per la PA italiana) la soluzione basata su Sap Irpa è stata avviata e finora ha già permesso di velocizzare i processi di interrogazione e scrittura del documento unico di regolarità contributiva (Durc). Le figure che in precedenza erano addette a tempo pieno al download dei Durc e altre che venivano impiegate in fase di fruizione delle informazioni possono ora dedicarsi ad attività a maggior valore aggiunto. Il programma in pochi minuti esegue il download di tutti i Durc dei fornitori, estrapola e mette a disposizione degli utenti in modo automatico le informazioni funzionali al processo dei pagamenti. “In futuro le competenze acquisite ci permetteranno di applicare la stessa tecnologia sia ad altri processi aziendali sia di allargare tale funzionalità ad altre strutture aziendali”, assicura Sacco.
ECCELLENZE.IT | Pinalli
IL LIVESTREAM SHOPPING AIUTA A CONOSCERE I CLIENTI La tecnologia di Radicalbit permette di ottenere una visione d’insieme dei consumatori durante gli eventi di vendita in diretta.
U
na storica catena italiana di profumeria e cosmesi è oggi anche una tra le realtà del retail e del commercio elettronico più al passo con i tempi, in un’epoca in cui gli acquisti sono trainati anche dal passaparola online e dalla forza attrattiva degli influencer. Pinalli, insegna nata 35 fa in Emilia-Romagna e oggi ramificata su una cinquantina di negozi, ha abbracciato questo mondo per farne una leva di vendita e fidelizzazione. In particolare, l’azienda si è tuffata nel cosiddetto livestream shopping, cioè la proposta di esperienze di acquisto online “in diretta”, che per gli appassionati di un certo genere di prodotto (o di un influencer che lo sponsorizza) diventano veri e propri eventi da segnare in calendario. “Durante la pandemia abbiamo capito che non potevamo più essere il tradizionale retail”, racconta Giovanna Baratello, digital project manager di Pinalli. “Dovevamo fare qualcosa in più, proporre un nuovo modo di fare e-commerce. Il fenomeno di shopping in live streaming in Cina stava registrando numeri davvero impressionanti: era arrivato il momento di pensarlo anche per la nostra piattaforma di e-commerce”. L’azienda ha quindi scelto di rivolgersi alla società milanese Radicalbit per dotarsi di una piattaforma capace di combinare il livestream shopping con la raccolta e l’analisi dei dati in tempo reale e con l’intelligenza artificiale. GoLive di Radicalbit permette di fare proprio questo ed è stata usata da Pinalli per avere una visione d’insieme, ma dettagliata, sui comportamenti degli utenti collegati al suo primo evento
di shopping in diretta streaming. Ciascuno dei cinque influencer reclutati, cioè Paolo Stella, Cristina Fogazzi (alias Estetista Cinica), Paola Turani, Giulia Valentina e Stefano Guerrera, ha proposto un kit di prodotti personalizzato: articoli che sono andati sold out in breve tempo, con centinaia di unità vendute. Hanno assistito alla diretta circa 7.500 persone, a cui vanno sommate le 17.000 che hanno riguardato l’evento in differita nelle quarantotto ore successive. La piattaforma GoLive ha analizzato e correlato le azioni compiute dagli utenti durante la diretta (messaggi in chat, visualizzazioni di prodotti, acquisti e altro ancora), estraendo insight grazie alle analisi compiute dagli algoritmi e rilevando, fra le LA SOLUZIONE GoLive è stata sviluppata da Radicalbit attorno a Helicon, una piattaforma che permette di applicare algoritmi di intelligenza artificiale a flussi di dati in tempo reale. Sono state sviluppate una Web application per la gestione dei live show e per la visualizzazione dei dati e una app (iOS e Android) per la generazione di video. Inoltre è stato integrato in GoLive un servizio esterno di video streaming. La soluzione permette di analizzare le azioni dell’utente durante le vendite “live”, dai messaggi in chat alle interazioni con i prodotti.
altre cose, che l’83% dei messaggi aveva un tono molto positivo. “L’e-commerce, così come eravamo abituati a conoscerlo, non poteva più soddisfare le esigenze del mercato”, sottolinea Leo Pillon, Ceo e fondatore di Radicalbit. , ed è in questo contesto che si è sviluppato il live commerce, una modalità di vendita ibrida che prevede un maggior coinvolgimento del pubblico. Noi siamo intervenuti per andare oltre e portare un’ulteriore evoluzione, quella dell’Advanced Stream Commerce, sfruttando i dati in real-time e l’intelligenza artificiale, core business di Radicalbit”. L’evento non soltanto è servito a Pinalli per incrementare le vendite e per attirare traffico sul proprio sito, a tutto vantaggio della notorietà del marchio, ma soprattutto è stato utile per ottenere una visione complessiva del comportamento dei consumatori. “Per il futuro”, annuncia Baratello, “ci piacerebbe dare alla Pinalli Tv un taglio più televisivo-editoriale, coinvolgendo il nostro personale: abbiamo moltissime colleghe addette alla vendita che sono esperte assolute nel campo della cosmesi e che potrebbero davvero fare la differenza”. 47
ECCELLENZE.IT | Granarolo Sit voluptate
IL DIGITALE MIGLIORA L’ESPERIENZA BUSINESS E CONSUMER Le nuove tecnologie aiutano il gruppo agroalimentare a raggiungere obiettivi di sostenibilità, ma anche a integrare le comunicazioni lungo la filiera e a migliorare la logistica.
G
ranarolo nasce nel 1957 con la fondazione della cooperativa che sarebbe diventata Granlatte, la più grande realtà di produttori di latte in Italia, che controlla la società per azioni Granarolo. Oggi il Gruppo conta oltre 2.500 dipendenti e 20 stabilimenti (di cui 12 in Italia) e lavora 850 milioni di litri di latte all’anno. È una filiera italiana, nata dalla passione di contadini e allevatori, basata su un sistema integrato di produzione, dove l’intero processo è controllato e gestito in stretta collaborazione con le migliori realtà locali. Il Gruppo segue tutte le fasi del processo: dalla lavorazione della materia prima alla distribuzione del prodotto finito ai punti vendita, per garantire la massima qualità e sicurezza e la ricerca costante di una sostenibilità a trecentosessanta gradi. Questa si traduce in benessere animale, meno farmaci, meno acqua, meno emissioni, meno plastica, più trasparenza sull’origine, più tutela del lavoro. “Abbiamo avviato diversi progetti di digitalizzazione”, racconta Marco Albino, direttore supply chain del Gruppo Granarolo, “in particolare alcuni sono rivolti all’ottimizzazione e all’integrazione della pianificazione, che con un numero così alto di stabilimenti non è banale, anche perché la domanda più frequente e allo stesso tempo complessa che ci pone il cliente è sempre relativa alla disponibilità 48 |
DICEMBRE 2021
dei prodotti”. Tra i principali obiettivi c’e-rano il miglioramento dei processi di spedi-zione verso l’estero (che nel settore del food sono complicati da una gestione documen-tale sottoposta a numerose e severe norme) e l’integrazione dell’Erp in modo da facili-tare gli stadi successivi della lavorazione, a partire dalle consegne per gli spedizionieri e verso gli utenti finali (soprattutto all’estero i clienti sono grossisti e catene retail, comun-que b2b). “Il reparto di demand planning e customer service, per l’Italia e per l’estero, può contare su un team di una decina di persone”, spiega Albino, “poi ovviamente c’è tutta l’infrastruttura: i magazzini (cinque piattaforme attive) e tutti i trasporti, quindi qualche centinaio di persone. Tutto questo è gestito attraverso Zero4 Logistica, la società del Gruppo che è rientrata nel perimetro di Granarolo dopo essere stata esternalizzata anni fa”. Particolarmente da sviluppare è l’infrastruttura della supply chain, dove è necessario uno strumento di Distribution Requirement Planning (DRP) che invia alle diverse fabbriche gli ordini di produzione. La scelta di Granarolo per la costruzione
di un’ottimale customer experience, sia sul fronte B2B sia B2C, è stata quella di affidarsi a portali Web integrati, connessi con l’Erp del Gruppo: MyZero4.it, MyGranarolo.it e Spacciogranarolo.it. “Il tema della sostenibilità”, precisa Albino, “è stato tenuto in considerazione anche nella costruzione dei portali. Nello spaccio, ad esempio, c’è una sezione dedicata agli acquisti di prodotti con date corte, in modo da minimizzare gli sprechi e offrire un’occasione di risparmio al cliente. Molta attenzione è stata data anche ai percorsi di navigazione e ai profili degli utenti. Nel primo caso guidano le occasioni di consumo: cena, snack, colazione, menu vegani, eccetera. Nel secondo la tipologia di cliente B2B: hotel , bar, gelateria e così via”. L’obiettivo di Granarolo è quello di essere sempre più vicino ai clienti, e contemporaneamente trovarsi sempre un passo avanti rispetto alla concorrenza. Per questo l’utilizzo del cloud e l’integrazione dei portali con l’ambiente Sap giocano un ruolo fondamentale. “Stiamo cercando le migliori tecnologie che permettono una pianificazione integrata del ciclo produttivo”, conclude Albino, “dal Demand Planning fino al manufacturing, e tutte dovrebbero essere integrate con l’Erp”.
ECCELLENZE.IT | Conductix Wampfler
LA PRODUZIONE PRENDE IL VOLO CON LA STAMPA 3D La divisione del gruppo Delechaux utilizza una macchina HP Jet Fusion 4200 per fabbricare circa 150mila pezzi l’anno, ottenendo risparmi e maggiore flessibilità.
I
n campo industriale la stampa 3D viene usata da anni nella prototipazione, ma ha potenzialità ben più ampie. Caso esemplare è quello di Conductix Wampfler, divisione del Gruppo multinazionale Delachaux, nato nel 1902 e oggi attivo in 40 Paesi con numeri importanti (quattromila dipendenti, 30 sedi commerciali, 12 stabilimenti e centri d’eccellenza) che ne fanno un protagonista mondiale della movimentazione di materiali, dell’automazione, dei trasporti e dei macchinari per la produzione di cavi elettrici e in fibra ottica. Con i suoi 1.400 dipendenti, Conductix Wampfler opera nella produzione di apparecchiature per il trasferimento di energia e dati tra componenti in movimento traslatorio e rotatorio. Nello stabilimento di Agrate Brianza vengono prodotti per tutto il Gruppo, tra gli altri componenti, i collettori rotanti, dispositivi elettromeccanici che assolvono al compito di trasferire energia elettrica in sistemi con parti in rotazione, come le giostre dei parchi di divertimento. L’azienda sperimenta costantemente nuove soluzioni per realizzare gli stampi dei componenti plastici che vengono poi impiegati nei collettori. “Ci siamo accorti a un certo punto del nostro percorso”, spiega Fabio Breviario, responsabile ricerca e sviluppo, “che iniziavamo a perdere opportunità commerciali a causa di un rapporto volumi/costi non più sostenibile. Abbiamo così scelto la stampa 3D per rendere più flessibili ed economiche le piccole produzioni”. Tra le soluzioni valutate, quelle di HP sono apparse le più adatte sia per il loro rapporto costo/ capacità sia per l’impiego della tecnologia
a letto di polvere, che permette di ottenere oggetti privi degli strati tipici della stampa a filo. L’azienda ha sfruttato gli incentivi del programma Industria 4.0 per acquistare una macchina HP Jet Fusion 4200 e installarla nella sede brianzola. “Per usare al meglio la stampante e adattarla alle nostre esigenze”, sottolinea Breviario, “abbiamo dovuto sperimentare molto, e in questa fase i tecnici di HP hanno fatto un grande lavoro insieme ai nostri. Grazie ai modelli matematici forniti dagli esperti di HP possiamo realizzare, con la tecnologia a letto di polvere, componenti con lo stesso grado IP e con la certificazione UL che avevamo con i processi a iniezione”. Oltre a realizzare prototipi, la stampante è in grado di fabbricare componenti che in precedenza venivano commissionati a fornitori esterni, mentre i vecchi metodi sono ancora in uso solo per produzioni superiori ai diecimila pezzi. I risultati ottenuti spaziano dai vantaggi economici alla trasformazione dei metodi produttivi. Il ricorso agli LA SOLUZIONE Conductix usa una macchina HP Jet Fusion 4200 per produrre circa 150mila pezzi l’anno, con 3.000 diversi codici prodotto (con produzione unitaria di centinaia o migliaia di esemplari). Nei componenti non destinati a sostenere particolari sforzi viene usato il polimero PA12, che in alcuni casi è in grado di sostituire sia l’alluminio sia l’acciaio.
stampi per la fabbricazione di componenti si è ridotto di circa il 50%, inoltre è stato possibile semplificare strutture come quelle di morsettiere e collettori, che prima erano composte da decine di parti e oggi vengono stampate come singolo componente. “In molti casi”, dice Breviario, “abbiamo potuto semplificare il disegno dei componenti, eliminando ad esempio piastre, viti ed elementi angolari, riuscendo anche rendere più lineari i percorsi dei passaggi cavi. Possiamo progettare forme che con la tecnologia tradizionale non erano possibili, bypassando i vincoli tipici della tornitura e fresatura, migliorando quindi le prestazioni dei prodotti finiti che proponiamo al mercato”. L’azienda ha notevolmente accorciato il time to-market (di 12-16 settimane) e può offrire una produzione personalizzata, apportando modifiche ai pezzi su richiesta dei clienti (cosa che prima era possibile fare solo modificando gli stampi, a fronte di notevoli costi). “Dopo aver ammortizzato molto velocemente l’investimento nella nuova macchina, stiamo ampliandone l’utilizzo al nostro interno ma stiamo anche pensando di operare come service per tutto il nostro Gruppo”, conclude Breviario. 49
APPUNTAMENTI 2022
CONSUMER ELECTRONICS SHOW
Quando: 5-8 gennaio Dove: a Las Vegas e online su https://www.ces.tech/ Perché partecipare: tra i temi caldi di questa edizione spiccano Big Data, 5G, intelligenza artificiale e tecnologie per il settore automobilistico. Anche quest’anno è previsto uno spazio online da cui seguire lo streaming video dei keynote, interviste e annunci degli espositori.
RSA CONFERENCE
Quando: 7-10 febbraio Dove: a San Francisco e online su https://www.rsaconference.com Perché partecipare: la storica conferenza dedicata alla cybersicurezza torna “in presenza” nel 2022 ma propone anche contenuti on-demand fruibili online.
50 |
DICEMBRE 2021
CISCO LIVE
Quando: 7-11 febbraio Dove: ad Amsterdam e online su https://www.ciscolive.com/emear.html Perché partecipare: l’annuale appuntamento dedicato a partner e clienti darà spazio a keynote, sessioni tecniche e presentazioni demo.
MOBILE WORLD CONGRESS
Quando: 28 febbraio-3 marzo Dove: a Barcellona e online su https://www.mwcbarcelona.com/ Perché partecipare: è il più grande evento europeo dedicato ai dispositivi e alle tecnologie di comunicazione celulare. Nel 2019, in tempi pre-covid, il Mwc ha attratto 190mila visitatori e 2.400 espositori.
The Innovation Group Innovating business and organizations through ICT
in collaborazione con:
Il ruolo del digitale nei settori fashion, luxury & design
www.theinnovationgroup.it
#TIGlifestyle
Tutta la tecnologia che conosciamo
E QUELLA CHE IMMAGINIAMO PER IL FUTURO
DIGITAL POWERED ENTERPRISE MOBILE WEB SOCIAL MEDIA SMART CITY CLOUD SOFTWARE info@posytron.com • posytron.com
INTERNET OF THINGS