Technopolis 65

Page 1


STORIE DI ECCELLENZA E INNOVAZIONE

PROMESSE E SCOMMESSE PER IL NUOVO ANNO

Dall‘evoluzione dei data center alle applicazioni di Agentic AI, passando per la cybersicurezza: ecco che cosa ci aspetta.

ITALIA DIGITALE

Migrazione in cloud, AI, difesa informatica: lo scenario e i numeri della Pubblica Amministrazione.

EXECUTIVE ANALYSIS

Il settore delle telecomunicazioni si apre a nuove opportunità. Ma con strategie ben differenziate.

SPECIALE CISO

Le sfide dei Chief Information Security Officer italiani, tra normative e gestione del rischio.

2025 13-15 marzo

REGINA PALACE HOTEL, Stresa

Un’iniziativa esclusiva riservata ai Chief Information Officer (CIO)

SESSIONE PLENARIA CON KEYNOTE, TESTIMONIANZE DEI CIO E INTERVENTI DEGLI SPONSOR

CONDIVISIONE DI ESPERIENZE TRA PEERS

TAVOLI DI LAVORO TEMATICI, COORDINATI DAGLI ESPERTI DI CEFRIEL

MOMENTI DI NETWORKING E CONVIVIALITÀ IN COLLABORAZIONE CON

PER INFO SULLE SPONSORSHIP

sales@theinnovationgroup.it www.theinnovationgroup.it

STORIE DI ECCELLENZA E INNOVAZIONE

N° 65 - DICEMBRE 2024

Periodico mensile registrato

presso il Tribunale di Milano al n° 378 del 09/10/2012

Direttore responsabile:

Emilio Mango

Coordinamento:

Valentina Bernocco

Hanno collaborato:

Roberto Bonino, Stefano Brigaglia, Gianluca Dotti, Alessandro Fragapane, Stefano Pinato, Elena Vaciago

Foto e illustrazioni:

123rf.com, Burst, Freepik, Pixabay, Unsplash, Adobe Firefly

Editore e redazione:

Indigo Communication Srl Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881

Pubblicità:

TIG - The Innovation Group Srl tel: 02 87285500

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2024

The Innovation Group Srl

Tutti i diritti di proprietà letteraria e artistica riservati.

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Pubblicazione ceduta gratuitamente.

4

STORIA DI COPERTINA

Il filo rosso del nuovo anno

Densità ed energia: le priorità dei data center

Sfide emergenti per il mondo del lavoro

10 IN EVIDENZA

Nei servizi finanziari c’è un gap nei dati

Copilot sarà il nuovo “sistema operativo” per le aziende

Dell e Accenture insieme per le infrastrutture IT di domani

Il futuro di Vmware è nel cloud privato

Data governance, il navigatore nel viaggio dell’AI

Banche: il digitale è anche questione di mentalità

Knowledge worker ancora un po’ scettici sull’AI

Il Business Process Management cresce e abbraccia l’AI

A caccia di malware, sottotraccia

La corsa all’AI non è solo questione di server

L’intelligenza è racchiusa processi

Attacchi via email: minaccia in continua evoluzione

26

ITALIA DIGITALE

Il cammino della Pubblica Amministrazione

30

SPECIALE HEALTHCARE

Il digitale è una cura potente

32 SMART MANUFACTURING

Fra sostenibilità e innovazione tecnologica

Gemelli diversi, in fabbrica e non solo

36 CYBERSECURITY

L’incident response è un’azione collettiva

Occhi puntati sulla supply chain

Il legame tra resilienza e compliance

Un ritardo da recuperare

42

EXECUTIVE ANALYSIS

Tecnologie e strategie, la doppia trasformazione

Percorsi compiuti e ancora in divenire

46 ECCELLENZE

La GenAI va sulle linee di produzione

Un viaggio nella nuvola davvero spaziale

L’Rfid spazza via gli errori da magazzini e logistica

Il digital twin è un capolavoro

50 APPUNTAMENTI

IL FILO ROSSO DEL NUOVO ANNO

L’emergere dell’Agentic AI, la riscoperta dell’edge

computing, la caccia alla Gpu: l’oroscopo tecnologico del 2025 ha un chiaro tema conduttore.

Parlando sempre e quasi solo di intelligenza artificiale, non si rischia di perdere di vista tutto il resto? Le altre tendenze tecnologiche e opportunità all’orizzonte? Forse sì. Ma il fatto è che l’AI sembra pervadere e influenzare quasi tutto, trasversalmente ai mercati tecnologici e ai settori di adozione. E non stupisce, quindi, che molte delle previsioni per l’anno nuovo già snocciolate da analisti e vendor si focalizzino proprio sull’AI, pur andando a toccare ambiti disparati, dalla cybersicurezza alla sostenibilità, dal mercato del lavoro agli investimenti delle aziende.

Nuove regole all’orizzonte I venti della politica influenzeranno il panorama tecnologico con nuove decisioni e regole. Con il ritorno di Donald Trump alla Casa Bianca, anche senza tirare in ballo gli intrecci di interesse tra la nuova amministrazione ed Elon Musk, è probabile che assisteremo a uno “spostamento regolatorio”, come lo ha definito Kpmg. Diversi analisti immaginano che con i repubblicani al potere le valutazioni antitrust saranno meno severe, a beneficio di nuove

possibili grandi acquisizioni o fusioni. Secondo Kpmg, “il focus regolatorio sull’AI e sulla cybersicurezza resterà intenso”. Ragionevolmente gli Stati Uniti proseguiranno con la politica di protezionismo sulle tecnologie considerate strategiche nella corsa all’intelligenza artificiale, come i semiconduttori, ed è improbabile che i dazi e le limitazioni al commercio da e verso la Cina si allentino. Le posizioni di Trump verso le Big Tech, anche se americanissime, sono però spesso ostili e recentemente il tycoon ha criticato il Chips and Science Act approvato dall’amministrazione Biden nel 2022 (39 miliardi di dollari di sussidi per la produzione di semiconduttori sul territorio nazionale) per aver riversato altri soldi nella casse di aziende già troppo ricche.

Data center sotto pressione

Con il crescere della domanda di soluzioni di AI, aumenteranno anche le attività di addestramento di modelli e inferenza svolte all’interno dei data center. Inclusi quelli, giganteschi, dei grandi fornitori cloud come Amazon, Microsoft, Google e Oracle, e quelli di altre Big Tech come

Meta, Apple e ByteDance e Alibaba. Secondo alcuni analisti, la corsa all’intelligenza artificiale sta creando le premesse per una nuova crisi energetica per i data center, almeno nel medio periodo. Gartner stima che entro il 2027 il 40% dei data center (tra quelli attualmente esistenti) avrà problemi di carenza energetica che limiteranno le loro attività. “La crescita esplosiva di nuovi data center hyperscale tesa a implementare la GenAI sta creando una insaziabile domanda di energia che supererà l’abilità delle utility di espandere la propria capacità abbastanza rapidamente”, ha detto Bob Johnson, vice president analyst di Gartner. “Di riflesso, ciò minaccia di turbare la disponibilità di energia e di creare delle carenze, che a partire dal 2026 limiteranno la crescita di nuovi data center per la GenAI e per altri utilizzi”. In base alle stime di Gartner, per consentire ai data center di far funzionare i propri server ottimizzati per carichi di lavoro AI nel 2023 sono stati usati 195 terawattora, mentre quest’anno l’energia incrementale attribuibile ai calcoli di intelligenza artificiale sarà pari a 261 TWh. Si salirà poi a 335 TWh l’anno prossimo, a 401 nel 2026 e poi, con notevole incremento, a 500 terawattora nel 2027. “Si stanno pianificando nuovi e più grandi data center per gestire l’enorme quantità di dati necessari per addestrare e implementare i Large Language Model, in rapida espansione, sottostanti alle applicazioni di GenAI”, ha spiegato Johnson. “Tuttavia, è probabile che carenze energetiche di breve termine continueranno a verificarsi per anni”. Fonti rinnovabili come l’eolico e il fotovoltaico aiuteranno ma non consentiranno ai data center di fare totalmente a meno di sistemi che garantiscano una fornitura continua, affidabile e disponibile “24/7/”, ovvero i combustibili fossili, l’energia idroelettrica e quella nucleare. L’analista ammette che vedremo progressi nelle tecnologie di trasmissione, distribuzione e generazione dell’energia, ma per una loro affermazione sul mercato

Immagine di kjpargeter su Frepik

DAI DEEPFAKE AL RANSOMWARE

Attacchi guidati dall’intelligenza artificiale, minacce quantistiche, ransomware sempre più automatizzati e dannosi. E poi soldi, sempre più soldi, persi a causa di attacchi e anche investiti per cercare di potenziare le difese. Sono alcune delle principali previsioni per il 2025, snocciolate dai grandi nomi della sicurezza informatica. Più che di fenomeni nuovi, si tratta dell’evoluzione di minacce o di approcci alla difesa già visti, ma che si stanno trasformando.

• La disinformazione di massa

Per diversi osservatori, nel 2025 si intensificherà l’uso dei deepfake a scopi di disinformazione, oltre che di truffa, attacco e diffamazione, e i social media saranno il principale megafono. Check Point Technologies, tra gli altri, sottolinea che “i deepfake alimentati dall’intelligenza artificiale diventeranno sempre più convincenti e costituiranno una minaccia per le transazioni finanziarie e la sicurezza aziendale. Rilevare e contrastare questi attacchi sofisticati richiederà difese coadiuvate dall’AI in tempo reale”. Secondo Gartner tutto ciò crea le premesse per l’emergere di una nuova categoria di tecnologie di sicurezza che aiuteranno a distinguere il vero dal falso e a restaurare la fiducia nei contenuti circolanti online.

• Ransomware diversificati

Negli ultimi anni gli attacchi basati su crittografia e tentativi di estorsione, cioè i ransomware, sono stati presenza costante negli elenchi di previsioni e tendenze. Il 2025 non fa eccezione e ancora una volta questo fenomeno subirà delle trasformazioni. Secondo Check Point i ransomware diventeranno sempre più automatizzati e inoltre colpiranno le supply chain critiche e su scala sempre maggiore, arrivando a danneggiare interi settori. Kaspersky, invece, prevede ulteriori progressi nelle tecniche di attacco: oltre alla classica crittografia, si farà ricorso al data poisoning (letteralmente, avvelenamento) con la manipolazione o l’introduzione di dati errati nei database colpiti. Lo scopo potrebbe essere quello di screditare l’azienda target. Sempre a detta di Kaspersky, il mercato dei ransomware-as-a-service continuerà a fiorire: acquistando un “kit di attacco” al costo medio di 40 dollari, anche mani inesperte potranno lanciare operazioni sofisticate. I gruppi ransomware di alto livello, invece, cominceranno a usare tecniche di crittografia quantum-proof, progettate per resistere ai tentativi di decrittazione da parte di computer classici e quantistici.

• La minaccia quantistica incombente

Check Point e Palo Alto immaginano per il 2025 il profilarsi di una “minaccia quantistica”, ovvero dell’uso malevolo di tecniche di computing quantistico, per esempio per la decrittazione di dati cifrati. Siamo ancora lontani da uno scenario di attacchi quantistici su larga scala, ma soprattutto nei settori che trattano dati sensibili, come la sanità e i servizi finanziari, è necessario muoversi fin da ora, adottando tecnologie di crittografia più evolute (Gartner parla a tal proposito di “crittografia post-quantum”).

• Soc più automatizzati (ma non del tutto)

L’uso dell’AI tradizionale e generativa nel rilevamento, risposta e indagine sulle minacce, cioè nelle attività tipiche dei Security Operations Center (Soc), è stato uno dei tormentoni del 2025. Sta funzionando, ma non è la risposta a tutti i mali perché l’automazione ha dei limiti. Diversi vendor concordano sul fatto che i Soc aziendali e quelli dei fornitori di servizi di sicurezza gestiti useranno l’AI in misura crescente per ottenere velocità, efficienza e una riduzione dei falsi positivi. Tuttavia non mancano voci critiche come quella di Forrester, secondo cui il sogno di un Soc totalmente automatizzato si è rivelato illusorio. Su alcuni progetti di GenAI, quindi, ci saranno dei passi indietro, ma questo non confuta il valore della più ampia intelligenza artificiale applicata alla cybersicurezza.

• Budget in aumento

Secondo Pwc, in base all’indagine “Global Digital Trust Insights 2025” (condotta su oltre quattromila aziende di 77 Paesi), il budget dedicato alla sicurezza informatica aumenterà nel 77% delle aziende. Le priorità saranno la protezione degli ambienti cloud e la protezione dei dati. La previsione di Gartner completa il quadro: la continua ascesa delle minacce (e in particolare di quelle legate all’uso della GenAI) spingerà aziende e consumatori a spendere in cybersicurezza circa 212 miliardi di dollari, valore in crescita del 15% sul 2024. La stima di Kaspersky è di un aumento dei budget delle aziende pari al 9% nei prossimi due anni.

ci vorranno anni (un po’ diverso il punto di vista di Vertiv, riportato a pagina 7).

Un nuovo chip crunch

Direttamente collegata al tema dei data center e dei workload di AI è la previsione riguardante la domanda di Gpu, le unità di elaborazione grafica che eseguono attività di addestramento e inferenza di Large Language Model, e lo fanno con particolare versatilità, efficienza energetica e un rapporto costi/prestazioni vantaggioso. Secondo Bain & Company, la domanda di Gpu lungo la filiera dei data center aumenterà del 30% entro il 2026, rispetto agli attuali livelli, al punto che la produzione potrebbe non riuscire a tenere il passo e potrebbero quindi crearsi colli di bottiglia nella supply chain. Le dinamiche già osservate nel 2020 e 2021 con i processori per Pc potrebbero riproporsi per le Gpu. Vista l’estrema complessità della catena di fornitura dei semiconduttori, un incremento di domanda superiore al 20% per una particolare classe di componenti potrebbe causare un nuovo chip crunch

La crescita dell’edge Come sottolineato, tra gli altri, da Bain & Company, l’ubiquità (potenziale) delle applicazioni dei AI cambierà la natura stessa dell’edge computing, ovvero del calcolo “periferico”, eseguito vicino al punto in cui dati vengono generati e raccolti. Qui, però, i grandi Large Language Model da decine di miliardi di parametri non funzionano bene: saranno, necessari, invece modelli dominio-specifici, più piccoli, semplici e ottimizzati per gestire determinati carichi di lavoro, senza perdere tempo per trasferire i dati verso un data center. Bain & Company prevede che i dispositivi edge svilupperanno nuovi fattori di forma per adattarsi alle applicazioni di AI e alle diverse modalità d’uso. Altri osservatori concordano nel prevedere un’ascesa del calcolo periferico nel 2025. Secondo Dia Ali, global platforms and solutions leader

di Hitachi Vantara, vedremo anche una maggiore convergenza tra i diversi modelli di elaborazione dati. “L’edge e il cloud computing si uniranno sempre di più per garantire risposte a bassa latenza in applicazioni data-intensive”, ha detto Ali, citando applicazioni come la guida autonoma, la gestione del traffico in tempo reale e altri sistemi di smart city, e ancora l’agricoltura 4.0 e l’Internet of Things industriale.

GenAI dall’hype ai risultati

Dopo due anni passati a parlare di AI generativa, a che punto siamo? L’impressione di molti analisti e vendor è che la fase di hype si stia sgonfiando. Già lo scorso agosto Gartner aveva stimato che entro la fine del 2025 le aziende abbandoneranno almeno il 30% dei progetti di AI generativa intrapresi, non proseguendo oltre la fase di proof-of-concept. Diverse le motivazioni: i risultati di scarsa qualità (direttamente figli della qualità dei dati), l’inadeguatezza dei controlli sui rischi, l’assenza di un chiaro valore per il business. E poi i costi, troppo elevati o non gestibili. “Dopo l’hype dell’ultimo anno, i dirigenti aziendali sono impazienti di vedere dei ritorni sugli investimenti in GenAI, e tuttavia le aziende faticano a dimostrare e concretizzare valore”, ha dichiarato Rita Sallam, distinguished vice president analyst di Gartner. “Con l’allargamento del raggio delle iniziative, l’onere finanziario di sviluppare e distribuire modelli di GenAI è sempre più sentito”. Nel campo della cybersicurezza, come sottolineato da Forrester, ci si attende un calo di investimenti pari al 10% dovuto alla difficoltà di quantificare il valore ottenibile. Con l’AI generativa si passerà dunque a una fase di maggior concretezza, e non è detto che sia un male. Se le aziende saranno meno propense a lanciarsi in iniziative dall’incerto ritorno sull’investimento, d’altro canto le sperimentazioni sono servite a meglio definire i casi d’uso e la GenAI oggi non è più un salto nel vuoto come poteva apparire uno o due anni fa.

Inizia l’era degli “agenti”

Una delle previsioni ricorrenti per il 2025 è l’emergere della Agentic AI, cioè l’intelligenza artificiale che agisce: rubando la definizione a Ibm, è un “sistema o programma capace di eseguire in autonomia dei compiti, facendo le veci di un utente o di un altro sistema, progettando i propri workflow e usando gli strumenti disponibili”. L’output di un agente di AI è un’azione o decisione, per esempio effettuare un acquisto o rispondere a richieste di clienti o evadere la burocrazia, e ancora filtrare dati o distribuire contenuti di marketing o creare procedure di onboarding per nuovi dipendenti o clienti. Il software attinge alla base di conoscenza di un Large Language Model ma poi combina i dati appresi con altri sempre nuovi, potendo interagire con applicazioni e database esterni (tramite API, cioè interfacce di programmazione applicativa). Secondo Gartner, che l’ha inserita fra le dieci tendenze tecnologiche del 2025, l’Agentic AI porterà le aziende su nuove soglie di produttività ed efficienza, liberando il personale dalle attività più ripetitive. Gli analisti prevedono che nelle aziende entro il 2028 gli agenti di AI si faranno carico di almeno il 15% delle decisioni lavorative quotidiane. Non mancano esempi di vendor che hanno già lanciato novità di Agentic AI: Cisco nell’area del supporto clienti (con agenti integrati in Webex), Salesforce per tutti i flussi di lavoro del Crm (con la possibilità di creare agenti personalizzati), ServiceNow per l’automazione della risoluzione dei problemi IT. E il colosso della consulenza Accenture ha creato, insieme a Nvidia, un’intera divisione aziendale dedicata a questa tecnologia. Ma, sondando le opinioni di manager italiani di grandi multinazionali Ict, abbiamo riscontrato un atteggiamento cauto: per il momento le aziende italiane non sembrano ancora pronte per l’Agentic AI, considerando che molte devono ancora avvicinarsi ad altre forme meno “invasive” di intelligenza artificiale.

Valentina Bernocco

DENSITÀ ED ENERGIA, LE PRIORITÀ DEI DATA CENTER

L’intelligenza artificiale “pesa”, sovraccarica, surriscalda e costringe i data center a continui aggiornamenti di hardware e software. Dal punto di vista dei fornitori di hardware (semiconduttori e componenti, server, sistemi per la continuità energetica e la gestione termica) questo è sicuramente un’opportunità, un trampolino per nuovi flussi di ricavi, vista l’esigenza di ammodernamento delle infrastrutture. “Stiamo assistendo a un forte cambiamento che avrà un impatto significativo nell’architettura dei data center di prossima generazione o quantomeno su una parte di essi”, ha dichiarato Stefano Mozzato, CoLo & hyperscale strategic segment director Southern Europe di Vertiv, uno tra i maggiori fornitori mondiali di Ups (Uninterruptible Power Supply) e sistemi di gestione termica. “Si rileva un incremento di utilizzo del raffreddamento a liquido, direttamente a livello dei chip, che sta guadagnando sempre più popolarità integrandosi con i tradizionali sistemi di raffreddamento ad aria, sino a ipotizzarne la parziale sostituzione in quelle applicazioni dove la potenza dissipata per rack sarà fino a 10 o 15 volte superiore a quella odierna. In conclusione, le soluzioni di AI applicate ai data center non solo riducono i consumi energetici ma incrementano l’efficienza operativa, portando benefici tangibili sia alle infrastrutture tecnologiche sia alla vita quotidiana di ciascuno”. Vertiv ha identificato cinque tendenze – e altrettante sfide – per i data center nel 2025. • La “densificazione del calcolo” (computing densification) metterà alla prova i data center dal punto di vista dell’alimentazione e del raffreddamento. I carichi di lavoro di intelligenza artificiale sono spesso affidati non alle Cpu bensì alle Gpu, per sfruttare la potenza di calcolo in parallelo di questi componenti. Tale spostamento spingerà i fornitori di servizi di cloud computing e colocation (ma anche le grandi aziende dotate di sale macchine proprie) ad adottare soluzioni di raffreddamento a piastre fredde e a immersione, che rimuovono il calore a livello di rack. Inoltre aumenterà la richiesta di Ups, batterie, dispositivi di distribuzione dell’energia e quadri elettrici con maggiore densità di potenza per gestire le attività di AI, che in termini di carico di alimentazione comportano ampie e rapidissime fluttuazioni (dal 10%, in fase di inattività, al 150% in sovraccarico).

• Aumenterà il ricorso a fonti alternative e microgrid. La maggiore domanda di energia, innescata dai workload di intelligenza artificiale, porterà presumibilmente a un aumento dei costi e anche per questo, oltre che per ragioni di sostenibilità, si cercheranno soluzioni alternative. Le celle a combustibile e le batterie alternative sono sempre più disponibili come opzioni di energia per le microgrid, e inoltre si iniziano a sviluppare piccoli reattori modulari per i data center. La loro disponibilità è prevista per la fine del decennio, ma secondo Vertiv si vedranno progressi già l’anno prossimo.

• Nella filiera dei data center si creeranno e consolideranno alleanze tese a promuovere l’adozione dell’intelligenza artificiale, a vantaggio (economico) di tutti. Sviluppatori di chip, costruttori di data center, produttori di sistemi di alimentazione e raffreddamento, utility dell’energia e altri soggetti collaboreranno per progettare e realizzare componenti standardizzati, interoperabili e personalizzabili.

• Anche per i data center, come per qualsiasi genere di azienda, l’intelligenza artificiale pone nuove sfide di cybersicurezza. Vedremo quindi un potenziamento delle difese di fronte al rischio di attacchi, in particolare hackeraggi e ransomware.

• Le normative governative e del settore informatico affronteranno ancora il tema dell’AI da vari punti di vista. Oltre a regolare gli aspetti di sicurezza, privacy, governance e sovranità dell’intelligenza artificiale, affronteranno il tema energetico e ambientale, e dunque i consumi dei data center. V.B.

Immagine di rawpixel su Freepik

SFIDE EMERGENTI PER IL MONDO DEL LAVORO

L’impatto dell’AI sarà decisivo soprattutto in ambiti

come la sanità, la finanza e l’industria. Ma solo a condizione di sviluppare nuove competenze.

L’intelligenza artificiale non è più una tecnologia del futuro: il 2025 sarà l’anno della sua piena integrazione nei settori economici cruciali, a rivoluzionare i processi, le competenze richieste e il mercato del lavoro stesso. Dalla sanità alla manifattura, passando per la finanza, l’adozione dell’AI non sarà solo una tendenza ma una necessità strategica. Provando a immaginare quale impatto sta avendo e avrà l’AI nei diversi settori, ci accorgiamo di molti tratti comuni e di alcune peculiarità di ciascun ambito. Il settore sanitario sta già vivendo un’accelerazione nell’adozione dell’intelligenza artificiale, e nei prossimi due anni vedremo un consolidamento di queste tecnologie. L’AI sarà sempre più integrata nelle analisi diagnostiche, permettendo di rilevare

malattie in stadi iniziali, come il cancro, attraverso strumenti di imaging avanzati. Un esempio concreto è l’uso di algoritmi di deep learning per analizzare milioni di radiografie in pochi secondi, un processo che potrebbe richiedere ore al personale medico. Inoltre, grazie all’analisi dei Big Data, i trattamenti medici diventeranno sempre più personalizzati, adattandosi alle esigenze di ogni paziente con una precisione mai vista prima. Tuttavia, questa evoluzione pone anche delle sfide. Se da un lato si ridurranno gli errori diagnostici, dall’altro i professionisti sanitari dovranno acquisire nuove competenze per lavorare a fianco di strumenti altamente tecnologici.

Nella finanza, poi, l’intelligenza artificiale non è più una novità ma uno standard in rapida espansione. Algoritmi sofistica-

ti sono già in grado di analizzare enormi quantità di dati per ottimizzare portafogli d’investimento, identificare schemi di frode e prevedere rischi economici con una precisione impressionante. Entro il 2025, si prevede che strumenti come i robo-advisor (piattaforme automatizzate per la consulenza finanziaria) diventeranno il punto di riferimento per investitori privati e istituzionali. Questi sistemi non solo riducono i costi, ma democratizzano l’accesso a strategie finanziarie avanzate. Ciononostante, l’eccessiva dipendenza da strumenti automatizzati solleva interrogativi sul ruolo umano: i consulenti finanziari dovranno reinventarsi, sviluppando capacità analitiche e relazionali per distinguersi dai loro “concorrenti” digitali.

La manifattura è forse il settore che più beneficerà dall’integrazione dell’intelligenza artificiale. I cosiddetti cobot, cioè robot collaborativi, lavoreranno a stretto contatto con gli operai, aumentando l’efficienza e riducendo gli errori. Si prevede che nel 2025 i processi di produzione diventeranno sempre più personalizzati, grazie all’AI che analizzerà in tempo reale le richieste del mercato per adattare la produzione su misura. Tuttavia, questa trasformazione non sarà priva di costi sociali. Molti ruoli operativi tradizionali potrebbero scomparire, mentre la domanda di tecnici specializzati nella gestione e manutenzione di questi sistemi aumenterà esponenzialmente.

Sanità, finanza e manifattura sono solo alcuni degli esempi di come l’intelligenza artificiale stia ridisegnando il panorama economico globale. Il 2025 sarà l’anno della transizione definitiva verso una collaborazione più stretta tra umani e macchine, con vantaggi innegabili ma anche con sfide significative, soprattutto in termini di riqualificazione e inclusione lavorativa. Come descritto finora, l’introduzione dell’AI nelle aziende non sta solo cambiando il modo in cui si lavora, ma

Immagine di rawpixel.com su Freepik

EMPLOYEE EXPERIENCE IN PRIMO PIANO

Nell’adozione dell’intelligenza artificiale in azienda, la tecnologia è forse la parte facile: le applicazioni ci sono. Semmai, è difficile integrarle nei processi lavorativi e nelle abitudini consolidate dei dipendenti. E inoltre è critico saper definire bene che cosa sia lecito fare, oppure no, con gli strumenti di AI, come usarli. Secondo l’ultima edizione dello studio “FutureScape” di Idc, il 47% dei decisori IT e line of business pensa che l’azienda sia ben posizionata per la trasformazione digitale, essendo stati introdotti dei cambiamenti nelle policy e nelle pratiche lavorative. “Le organizzazioni si trovano a un punto di svolta nel passaggio a modalità di lavoro e di guida dell’azienda più automatizzate”, ha detto Amy Loomis, research vice president, Future of Work di Idc. “Per andare verso modelli di business maggiormente basati sull’AI le aziende dovranno affrontare la complessità della propria infrastruttura di applicazioni e, parallelamente, passare a nuovi modelli di lavoro”. Nel report di Idc si prevede che nel 2025 le aziende spenderanno nell’area dell’intelligenza artificiale circa 227 miliardi di dollari. Altri,

anche il chi lavora. Una delle conseguenze più immediate è l’esigenza di nuove competenze che combinino tecnologia e capacità umane. Secondo l’Ocse, più di metà delle organizzazioni pianifica di riqualificare il proprio personale per integrare le nuove tecnologie già entro il 2025. Le competenze più richieste sanno di tre tipi. Competenze tecniche: conoscenza dei principi dell’intelligenza artificiale, capacità di analisi dati e programmazione. Soft skill: adattabilità, creatività e pensiero critico diventeranno indispensabili, soprattutto nei ruoli che richiedono una collaborazione uomo-macchina. Leadership digitale: i manager dovranno guidare la transizione tecnologica, bilanciando automazione ed empatia umana. Questo cambiamento richiede una mentalità aperta all’apprendimento continuo. I dipendenti non potranno più considerare la propria formazione come “completa”, ma dovranno aggiornarla regolarmente per stare al passo con le innovazioni. Oltre agli investimenti

come Forbes, sottolineano che nell’adozione dell’AI le aziende dovrebbero focalizzarsi al massimo sull’esperienza d’uso dei dipendenti, la employee experience, ovvero dare priorità alle applicazioni che semplificano la vita e il lavoro, come i “copiloti” che forniscono informazioni e suggerimenti. A detta di Forbes, così farà solo il 25% dei decisori IT.

Positiva è l’attesa di Deloitte sul gender gap che finora ha caratterizzato l’uso degli strumenti di AI generativa nelle aziende: nel corso del 2025 la quota rosa e quella azzurra dovrebbero equivalersi, ma solo negli Stati Uniti. Nel resto del mondo, probabilmente, ben altri tipi di disparità di genere condizionano anche la statistica sull’utilizzo della GenAI. Guardando ai soli professionisti della tecnologia, lo scenario cambia. “Le donne della tecnologia, che usano la GenAI per attività quotidiane più della loro controparte maschile, possono essere un gruppo importante per favorire il cambiamento”, ha commentato Gillian Crossan, global technology sector leader di Deloitte. V.B.

in tecnologia e formazione, le aziende dovranno affrontare quindi una sfida meno tangibile ma altrettanto cruciale: il cambiamento culturale. L’integrazione dell’AI richiede una trasformazione della

cultura aziendale, in cui i lavoratori vedano la tecnologia non come una minaccia ma come un’opportunità. Per fare ciò, molte aziende stanno adottando modelli collaborativi, noti come human-in-theloop, in cui le macchine supportano i lavoratori umani, invece di sostituirli completamente. Questo approccio non solo riduce la resistenza al cambiamento, ma garantisce anche una transizione più fluida verso il futuro del lavoro. Le aziende che sapranno sfruttare al meglio l’intelligenza artificiale non saranno solo più efficienti, ma anche più agili e adattabili. Tuttavia, il successo dipenderà dalla capacità di bilanciare l’investimento tecnologico con quello umano. La sfida più grande sarà riuscire a creare un ecosistema in cui innovazione, formazione e cultura lavorativa coesistano, aprendo la strada a un nuovo modo di lavorare.

Stefano Brigaglia, AI, data science & location intelligence partner di Jakala

Stefano Brigaglia

NEI SERVIZI FINANZIARI

C’È UN “GAP” NEI DATI

Il potenziale dell’intelligenza artificiale nel settore è limitato soprattutto da carenze riguardanti i dati. Uno studio di Riverbed.

I dati, la loro quantità, qualità e integrità, sono essenziali per qualsiasi applicazione di intelligenza artificiale. Questo vale anche per il settore dei servizi finanziari, uno degli ambiti in cui l’adozione dell’AI è più matura e che tuttavia ancora non ha realizzato il pieno potenziale di questa tecnologia, tra machine learning tradizionale e AI generativa. A dirlo è uno studio commissionato da Riverbed e condotto da Coleman Parkes su 1.200 manager e responsabili IT di grandi aziende ed enti pubblici di sette Paesi e appartenenti a diversi settori, tra cui 200 professionisti che lavorano in società di servizi finanziari. In questo sottogruppo, il 94% degli intervistati si è detto convinto che l’AI migliorerà l’esperienza digitale degli utenti. E quasi tutti, il 99%, la considerano una priorità strategica di primo livello o comunque “mediamente importante” per la propria azienda, mentre il 96% crede che l’AI rappresenti un vantag-

gio competitivo. La percentuale di manager convinti che l’AI incontrerà i favori dei propri team di collaboratori è pari al 62%, leggermente superiore al 59% emerso come media di tutti i settori considerati nello studio. Oggi come oggi, nel settore finanziario l’AI viene utilizzata soprattutto per migliorare l’efficienza operativa (51%) e per favorire la crescita aziendale (49%), mentre da qui a tre anni sarà usata anche per lo sviluppo della domanda (54%). L’AI generativa ha già dei casi d’uso solo nel 36% delle società di servizi finanziari, ma con una previsione di crescita al 71% di penetrazione entro 12 o 18 mesi dal sondaggio. Le aspettative sono elevate a variegate: molti pensano che da qui a tre anni l’AI aiuterà a semplificare il lavoro quotidiano con l’automazione dei workflow (71%), con la risoluzione automatica dei problemi (62%) e con strumenti come i chatbot nel servizio e nel supporto clienti (62%).

Tuttavia, soltanto il 46% ritiene la propria azienda già pronta a mettere in pratica una strategia sull’AI (la percentuale è comunque superiore alla media generale di tutti i settori, pari al 37%), mentre in molti casi emergono ostacoli riguardanti la privacy e l’accuratezza dei dati. “Poiché il settore finanziario gestisce tradizionalmente più informazioni sensibili rispetto ad altri, non sorprende che l’80% dei leader sia preoccupato che i dati proprietari possano essere accessibili al pubblico a causa dell'uso dell’AI”, ha commentato Jim Gargan, chief marketing officer di Riverbed. “Inoltre, i leader hanno riserve sull’efficacia dei dati a loro disposizione, con solo circa un terzo che valuta i propri dati eccellenti per completezza, 36%, e accuratezza, 34%, la percentuale più bassa rispetto a tutti i settori. L’efficacia dell’AI dipende dalla qualità dei dati, e il data gap è uno dei maggiori ostacoli al successo nella sua implementazione”.

Il data gap di cui parla lo studio di Riverbed potrebbe essere affrontato migliorando la disponibilità, la completezza e la qualità dei dati, non solo quelli reali ma anche quelli sintetici. Il 92% degli intervistati del settore crede che essi siano fondamentali per migliorare l’efficacia dell’AI e perfezionare la digital experience. Inoltre il 91% pensa che per adottare una strategia AIOps (intelligenza artificiale nelle operazioni di rete) sia necessario avere una piena osservabilità su tutti gli elementi IT. Oltre l’84% ritiene che l’osservabilità sia estremamente o mediamente importante per superare i punti ciechi della rete, inclusi il public cloud, gli ambienti di lavoro remoti, le architetture Zero Trust e i servizi mobili aziendali. V.B.

Immagine di Freepik

COPILOT SARÀ IL NUOVO

“SISTEMA OPERATIVO”

PER LE AZIENDE

La visione di Satya Nadella, Ceo di Microsoft, sull’impatto dell’intelligenza artificiale generativa nei luoghi di lavoro.

“Copilot sarà l’equivalente del sistema operativo per i computer”. Con queste parole Satya Nadella, Ceo di Microsoft, nella sua recente visita in Italia (la tappa romana del “Microsoft AI Tour”) ha descritto il futuro dello strumento di intelligenza artificiale su cui l’azienda sta puntando. Il senso del discorso tenuto da Nadella sta nella volontà di calare l’AI nella mentalità operativa delle aziende, attraverso tecnologie che sono già disponibili, si stanno continuamente affinando e consentono di produrre rapidamente sviluppi concreti. In particolare Copilot 365, che oggi “sta ricoprendo il ruolo che il sistema operativo ha avuto in passato per i computer”. L’amministratore delegato lo ha definito come “il compagno di lavoro delle persone, ma anche lo strumento per ottenere informazioni

sull’organizzazione delle attività oppure trovare sul Web o sulla rete aziendale le informazioni che servono, dialogando in linguaggio naturale”. Nadella ha anche menzionato il tool di sviluppo di agenti autonomi Studio, il disegnatore di workflow Graph e lo strumento indirizzato al computing distribuito Devices. A proposito di agenti autonomi, l’evento romano è stato teatro dell’annuncio della disponibilità di un primo pacchetto di dieci Copilot Agents preconfezionati, al momento in anteprima pubblica, che saranno integrati nella soluzione Crm cloud Dynamics 365. Essi possono eseguire e coordinare processi di business sotto l’egida di collaboratori, team o funzioni specifiche. Copilot servirà da interfaccia per interagire con gli agenti, che però potranno occuparsi autonoma-

mente di attività come l’accelerazione della generazione di prospect, la gestione di ordini o l’automazione delle supply chain, fermandosi solo in presenza di scostamenti da informazioni o procedure standard, per lasciare in quel caso spazio all’intervento umano.

A supporto dello scenario di opportunità che Microsoft intende creare e sostenere con la propria declinazione dell’AI, sul palco romano sono arrivate anche le citazioni e testimonianze dirette di aziende che hanno iniziato a introdurre “in produzione” sviluppi costruiti su Copilot. Campari, per esempio, ha creato un programma per i dipendenti basato su un piano di formazione e workshop, per insegnare le tecniche di prompting e hackathon all’interno di un progetto di “modern workplace” che ha già portato a risparmiare due ore di tempo lavorato alla settimana. Brembo, invece, ha integrato la tecnologia di intelligenza artificiale nell’R&D con la creazione di Alchemix, una soluzione in grado di generare formule innovative per le pastiglie dei freni, con tempi di sviluppo passati da giorni a pochi minuti. Il Comune di Roma, invece, su Copilot ha progettato Julia, un assistente virtuale che supporterà gli oltre 35 milioni di visitatori stimati in arrivo nella Capitale l’anno prossimo per il Giubileo. Insomma, per Microsoft e per un po’ di aziende italiane sue clienti il tempo dei proof-of-concept pare superato, per far spazio all’adozione concreta dell’AI, quella tradizionale e quella generativa. Nadella è venuto a perorare l’idea che Microsoft possa recitare il ruolo che il suo predecessore Bill Gates era riuscito a creare nell’epoca del boom dei Pc. Allora, però, la concorrenza non era articolata come oggi e solo il tempo ci dirà se questa nuova ambizione potrà tradursi in scenario concreto.

Satya Nadella

l’intervista DELL E ACCENTURE INSIEME

PER LE INFRASTRUTTURE IT DI DOMANI

Le due multinazionali collaborano da anni, ma di recente hanno impresso un’accelerazione importante alle attività legate al settore dei data center.

È una relazione ventennale quella che lega Dell Technologies e Accenture. Oggi, però, il connubio tra le due organizzazioni si arricchisce di un componente nuovo e per certi versi inaspettato: la collaborazione nel mercato dei data center e più in generale delle nuove infrastrutture IT. La spinta, come noto, arriva dalla sempre maggiore richiesta di capacità di calcolo generata dall’aumentare del volume di dati ma soprattutto dall’avvento dell’intelligenza artificiale, richiesta che deve ovviamente rispettare i vincoli imposti dalle regole della sostenibilità energetica e ambientale. Abbiamo intervistato Adrian McDonald, presidente Emea di Dell Technologies, e Valerio Romano, cloud first lead Emea di Accenture.

Perché Dell Technologies e Accenture sentono il bisogno di rafforzare la loro partnership proprio ora?

McDonald: Siamo insieme sul mercato da molto tempo, con una relazione di grande qualità ed efficacia. Ora però l’AI generativa ha cambiato le regole del gioco sia del business sia della società, con un impatto mai visto prima. C’è la possibilità di reimmaginare completamente le aziende, la Pubblica Amministrazione, la sanità, offrendo ai cittadini servizi migliori e più focalizzati, e alle imprese la possibilità di ottimizzare i costi fino al 30%.

Romano: Siamo di fronte alla più grande discontinuità tecnologica de-

gli ultimi vent’anni ed è per questo che riteniamo necessario rinvigorire la partnership con Dell. In quanto system integrator, Accenture non produce tecnologia né possiede le infrastrutture, ma è in grado, lavorando con i propri partner, di mettere a disposizione dei clienti soluzioni complete, capaci di sfruttare il potenziale dell’AI. Questo include anche upskilling e reskilling delle loro risorse.

In che misura lo scenario italiano si discosta da quelli europeo e mondiale?

McDonald: Gli Stati Uniti stanno guidando quest’ultimo ciclo di innovazione legato all’AI, l’Asia si sta dimostrando più reattiva rispetto al passato. L’Europa, e con essa l’Italia,

deve adeguarsi velocemente e capire che le imprese che utilizzano l’AI generativa avranno costi minori e processi più rapidi. C’è però un lavoro di preparazione importante: bisogna fare in modo che i dati siano pronti per i carichi di lavoro e per gli use case richiesti dalla GenAI; molti in Europa sono consapevoli di questo prerequisito e del fatto che debba cambiare la modalità con cui la disponibilità di potenza di calcolo viene erogata (mi riferisco in particolare alla sovereign AI).

Romano: Non vediamo grandi differenze nell’adozione delle tecnologie tradizionali. C’è invece una differenza nella velocità con cui si muovono i diversi Paesi nel costruire una strategia sull’intelligenza artificiale. Nei Paesi del Nord Europa ci sono velocità maggiori e questa tecnologia ha un tasso di adozione molto rapido. L’Italia deve correre, perché i Paesi più avanzati continuano a migliorare le tecnologie e a fare ricerca.

Quali i casi d’uso a maggior impatto?

McDonald: Personalmente, fino all’anno scorso dedicavo molto tempo per elaborare rapporti previsionali per regione e per settimana dei nostri prodotti e servizi. Oggi l’AI mi aiuta a risparmiare almeno il 25% del tempo che destinavo a questa attività, così come può aiutare in diversi task in ambito risorse umane o legale. Il tema è: che cosa faccio nel tempo che mi

Adrian McDonald

resta libero? Ciò che emerge dalle prime evidenze è che possiamo dedicare questo tempo alle attività tipiche human-to-human, quelle che l’AI non può svolgere, migliorando la qualità del lavoro e delle relazioni.

Romano: Osserviamo un impatto sui consumatori, sulla gente, ma noi per primi possiamo e dobbiamo mostrare i nostri use case; dopotutto siamo una tech company con decine di migliaia di persone che usano la tecnologia. Non è facile, perché vediamo le cose cambiare in tempo reale e le regole sono diverse da Paese a Paese così come le implicazioni etiche, ma noi dobbiamo essere i primi ambasciatori di come la produttività possa migliorare grazie all’AI.

Quali trend vede Dell Technologies per il settore dei data center?

McDonald: La nostra dipendenza da tutto ciò che è digitale è sempre più evidente, questo causa un incremento significativo della richiesta di potenza di calcolo e quindi un maggior uso dei data center. Il bisogno di energia crescerà e dobbiamo trovare fonti green per l’approvvigionamento. In Gran Bretagna stanno cambiando le leggi per dar modo di sviluppare più rapidamente le fonti rinnovabili. I data center stanno nascendo più numerosi nei Paesi nordici perché ci sono costi energetici inferiori e minor necessità di raffreddamento. Altri trend sono il cambiamento della fisionomia dei data center, che vengono costruiti ad esempio in luoghi come gli ex impianti di lavorazione della carta, convertiti in centri dati perché nascono vicino a fonti energetiche. Anche le tecniche di cooling sono cambiate, ora stiamo imparando a raffreddare solo le Gpu, ottimizzando il consumo dell’energia;

le macchine sono molto più efficienti e progettate per tagliare i consumi superflui, ad esempio quelli legati al condizionamento e al raffrescamento. Questi principi guideranno la nuova rivoluzione: qualcuno deve costruire nuovi data center e deve farlo velocemente, con macchine più efficienti, perché la GenAI non dorme mai.

Quali opportunità vede invece Accenture nella tecnologia e nel mercato dei data center?

Romano: Assieme a partner come Dell Technologies, Accenture assiste i propri clienti nella trasformazione delle attuali infrastrutture, per sfruttare quello che le nuove tecnologie usate nei data center renderanno disponibile. In Italia vediamo un incremento negli investimenti, ci sono ad esempio gli incentivi 5.0 per la realizzazione di nuovi centri. Penso che la tecnologia continuerà a evolversi velocemente, ma la questione fondamentale sarà l’approvvigionamento di energia. In Italia abbiamo perso la

prima ondata di costruzione di data center (realizzati soprattutto in Germania, Inghilterra, Olanda e Francia) ma ora noi, Spagna e Grecia stiamo investendo di più. Si parla di utilizzare 15 miliardi di euro di investimenti da qui al 2028 solo nel nostro Paese. Inoltre, come accennava McDonald, i concetti di sovereign cloud e sovereign AI stanno rapidamente prendendo piede. Ci aspettiamo grande attenzione da parte dell’Europa su questi ambiti e anche sul tema della resilienza e della continuità, con punti di rischio come ad esempio i cavi sottomarini che devono essere controllati con attenzione.

Come guardate all’edge computing?

McDonald: Sicuramente l’idea di portare la GenAI verso i dati, e non viceversa, è vincente: sappiamo infatti che il 50% dei dati viene generato in periferia (ad esempio nel retail, nelle utility e nel manufacturing). Nel prossimo futuro avremo applicazioni di GenAI che non devono necessariamente arrivare ai data center e i dispositivi edge avranno fattori di forma molto simili ai Pc, saranno macchine molto agili e consumeranno poco.

Romano: Per tanto tempo l’edge è stata la risposta a problemi che non sembravano prioritari; era difficile osservare architetture e oggetti intelligenti piccoli e diffusi. Ora invece tutto questo può diventare importante e possibile: vale a dire costruire e dispiegare dispositivi piccoli, intelligenti e che consumano meno energia. In alcune applicazioni di sicurezza possiamo, ad esempio, elaborare i dati con l’AI direttamente nelle vicinanze delle telecamere di sorveglianza, senza il bisogno di farli arrivare ai data center.

Valerio Romano

IL FUTURO DI VMWARE È NEL CLOUD PRIVATO

A un anno dall’acquisizione da parte di Broadcom, la strategia di offerta ha cambiato rotta.

Avanti tutta sul cloud privato: questo il cardine della strategia di Vmware, a un anno circa dall’acquisizione da parte di Broadcom. Una strategia ribadita, recentemente, a Barcellona in occasione dell’edizione europea della confernza “Explore”. Hock Tan, presidente e Ceo di Broadcom, ha sottolineato le motivazioni dietro la scelta di riorientare verso la logica “privata” lo sviluppo di un’azienda che, solo un anno fa, nella stessa sede, metteva ancora il multicloud al centro dei propri pensieri. “Molte aziende sono state attirate dalle promesse del public cloud, ma oggi si trovano ad affrontare lo scoglio delle tre C, ovvero costi, complessità e compliance”, ha detto il Ceo. “Non è un caso che l’83% delle aziende stia pensando di migrare sul private almeno qualche workload critico e che il 43% abbia progetti di rimpatrio”. Il cuore dell’attuale proposizione di Vmware è Vcf (Vmware Cloud Foundation), piattaforma che racchiude tutta la gamma di servizi infrastrutturali del vendor, integrando le diverse componenti di virtualizzazione delle componenti di calcolo, storage e rete (vSphere, vSan, Nsx e altro).

“Questo è il cardine di una Information Technology che deve essere un abilitatore per il business”, ha indicato Paul Turner, vice president of products, Vmware Cloud Foundation Division di Broadcom. “I silos vanno nella direzione opposta, rendendo più costose e complesse le attività operative”. La libreria Vcf di servizi avanzati (di fatto servizi cloud privati simili a quelli offerti nel public) si è arricchita con elementi tesi alla semplificazione, alla sicurezza

dei dati e all’efficienza operativa. Broadcom sta anche ampliando il supporto per l’intelligenza artificiale generativa in ambienti cloud privati con la nuova integrazione di Azure AI Video Indexer su Vcf e Azure Vmware Solution: questo consente ai carichi di lavoro generativi di essere eseguiti in data center e ambienti edge. A Barcellona è stato annunciato che 50 dei fornitori cloud partner di Vmware offrono servizi cloud sovrani: in Italia, per ora, c’è solo Tim. A Mario Derba (esperto del settore, con esperienze in Ibm, Citrix, Oracle, Hp e Microsoft), recentemente nominato country manager della filiale italiana di Broadcom, il compito di puntualizzare alcune peculiarità del nostro Paese. “Certamente, siamo più indietro sulla tendenza alla repatriation evidenziata dal nostro Ceo, Hock Tan”, ha detto. “Essendo partiti più tardi con gli investimenti sul cloud, siamo oggi ancora in fase di spinta”. In merito alla riformulazione dell’offerta, focalizzata su Vmware Cloud Foundation, Derba ha spiegato:

“Di fatto, abbiamo rispolverato il concetto di software-defined data center, che però in passato non è mai stato realmente portato a compimento. L’idea è offrire la massima flessibilità alle realtà che vogliono razionalizzare investimenti sul cloud generati in modo spesso non del tutto strutturato e con costi che tendono a sfuggire di mano. Vcf è un’infrastruttura privata che può essere ospitata ovunque il cliente desideri, ma presenta un unico modello operativo, sotto il controllo del cliente, non solo in termini economici, ma anche di gestione dei dati e di sicurezza”. Nel parlare di Vmware non si può trascurare il malcontento che il rialzo dei costi delle licenze e un certo peggioramento dei livelli di servizio hanno generato fra gli utenti. “Anche qui l’Italia è un po’ diversa rispetto ad altri Paesi”, ha rilevato Derba. “Abbiamo incontrato tutti i clienti strategici e definito con loro modelli personalizzati di utilizzo e tariffazione. Finora non abbiamo perso nessuno per strada”. Roberto Bonino

l’intervista DATA GOVERNANCE,

IL NAVIGATORE NEL VIAGGIO DELL’AI

Definire principi di utilizzo dei dati è fondamentale per non “perdere l’orientamento”. L‘opinione di Iconsulting.

La governance dei dati è fondamentale per garantire alle aziende di usare l’intelligenza artificiale in modo sicuro e produttivo, ottenendo risultati di qualità. Ce ne parla Stefano Alpi, senior manager di Iconsulting.

Come viene affrontato il tema della governance dei dati nelle aziende?

La Gen AI ha sicuramente dato nuova linfa al tema dei dati e della loro gestione ma, essendo ancora un processo relativamente giovane nelle aziende, solo raramente è davvero connesso con il patrimonio informativo aziendale. In attesa di una rivoluzione che sono certo avverrà, superando le aspettative, è quindi necessario costruire un ecosistema dati (e non) in grado di assicurare certi standard e performance. Ed è qui che entra in gioco la data governance, e più generale la cultura del dato. Se pensata e concretizzata in base alle specifiche esigenze aziendali, garantisce, infatti, che i dati siano conformi agli standard di qualità e sicurezza, oltre a stabilire le linee guida per il loro uso etico in sistemi di AI. È quindi imprescindibile una consapevolezza diffusa delle azioni da compiere, dei sistemi di cui dotarsi, e soprattutto del “perché” farlo. Il processo di governance diventa, infatti, una leva solo se le organizzazioni sono convinte che i dati rappresentino un asset di valore e che, come tali, debbano essere protetti, organizzati e sfruttati da tutti gli stakeholder in modo democratico.

Che benefici si ottengono?

Un’organizzazione che usa i dati è come un’auto che usa carburante per spostarsi. Compiere un viaggio senza sistemi di sicurezza, monitoraggio e assistenza sarebbe possibile, ma meno sicuro. Le strade, anche se larghe e scorrevoli (una buona infrastruttura), devono avere sistemi di controllo della velocità, essere sottoposte ad attività di manutenzione e includere policy di utilizzo. Che si tratti di brevi viaggi data-driven o lunghi viaggi di trasformazione digitale, è raro conoscere bene la strada e le diverse tappe; quindi avere chiara la direzione (con la data strategy) e dotarsi di un buon navigatore, con le giuste tecnologie a supporto (la data governance), è fondamentale. La data governance favorisce la mappatura e la gestione dei dati assicurando una visibilità trasversale e una conoscenza diffusa oltre che abilitando la condivisione di insight. Favorisce la creazione di una cultura basata sui dati, l’adozione di buone pratiche di trattamento e utilizzo dei dati stessi.

Inoltre, prevedendo l’introduzione di meccanismi di controllo, garantisce la conformità ai regolamenti aziendali e alle normative imposte dagli enti legislativi a livello nazionale o sovranazionale. Un impiego corretto della data governance può aiutare nel fornire dati protetti e affidabili, ridurre inefficienze e rischi, aumentare la fiducia nelle decisioni data-driven e sfruttare al meglio le innovazioni disponibili.

Da dove si parte in un progetto di data governance?

Per gestire la complessità presente nelle aziende di oggi, i Cxo devono assumere un ruolo attivo nel convertire le sfide dei dati in vantaggio, consapevoli di impattare sull’intera organizzazione e non solo su singole aree di competenza. Certamente non è un percorso semplice o immediato ed è importante, come primo step, capire le priorità aziendali. Bisogna poi disegnare e adottare un approccio incrementale, funzionale e su misura, realizzando il proprio framework di riferimento, inteso come schema che visualizza pilastri, processi e dimensioni chiave della data governance. Il framework non è una “ricetta” universale e in Iconsulting crediamo che ogni organizzazione debba progettarlo sulle proprie esigenze in modo più semplice e comprensibile possibile. Inizialmente spesso è vincente concentrarsi solo su alcuni aspetti della data governance e fare delle prime concretizzazioni di attività. V.B.

Stefano Alpi

l’opinione

BANCHE: IL DIGITALE È ANCHE

QUESTIONE DI MENTALITÀ

Per offrire ai clienti un’esperienza più personalizzata servono nuovi strumenti e un cambiamento di prospettiva.

La trasformazione digitale rappresenta una delle maggiori opportunità per le banche italiane nel decennio in corso. La digitalizzazione però non può essere trattata come un semplice aggiornamento tecnologico ma piuttosto come un percorso di profonda ristrutturazione organizzativa, in cui il cliente diventa il punto focale di ogni decisione. In un panorama competitivo sempre più agguerrito, dove i margini di interesse e le commissioni sui prodotti finanziari tradizionali si assottigliano, le banche devono impegnarsi a offrire un’esperienza fluida e altamente personalizzata. Questo non solo attira nuovi clienti, ma rafforza anche la fedeltà di quelli già acquisiti.

Tuttavia, per raggiungere questi obiettivi è necessario un cambiamento radicale di prospettiva: non si tratta semplicemente di aggiornare la tecnologia, ma di ripensare le basi stesse dell’interazione con i clienti. La strada verso una trasformazione efficace passa per un approccio modulare, noto come modernizzazione progressiva. Questo metodo consente alle banche di evolvere senza dover stravolgere completamente le infrastrutture esistenti. Partire da un obiettivo ben definito e circoscritto, ridisegnando i processi relativi in base alle necessità del cliente, permette di iniziare il percorso ottenendo risultati concreti e rilevanti in tempi rapidi. È questa capacità di visione a

360 gradi che consente alle banche di adattare i propri servizi e prodotti alle esigenze specifiche dei singoli utenti, impiegando dati in modo strategico per creare soluzioni di engagement convergenti e coerenti.

Un esempio chiaro di come le banche italiane possano trarre beneficio dall’AI emerge dall'ultimo report di Backbase e Idc . Secondo lo studio, il 56% delle banche riscontra difficoltà nei processi di onboarding dei clienti, il 48% giudica il processo di richiesta di prestiti lento e complesso e il 46% fatica a raccogliere e gestire i dati dei clienti. Questi numeri riflettono un problema concreto: processi digitali lenti e frammentati non solo danneggiano l’esperienza dei clienti, ma frenano l’innovazione e compromettono la competitività delle banche. Qui entra in gioco l’intelligenza artificiale. L’AI non è solo un motore di automazione, ma una risorsa strategica per migliorare la gestione dei dati e permettere alle banche di conoscere meglio i loro clienti, anticiparne le esigenze e fornire soluzioni personalizzate in tempo reale. Strumenti come il banking conversazionale, la Customer Lifetime Orchestration e il supporto clienti potenziato dall’AI personalizzano e migliorano le interazioni. Si tratta di grandi opportunità, ma le banche italiane devono muoversi rapidamente. Il settore si sta evolvendo e le nuove società fintech, nate come digitali e incentrate sul

cliente, sono pronte a sfruttare il vantaggio competitivo che la tecnologia offre loro. Se le banche tradizionali non modernizzano le strategie commerciali, rischiano di perdere terreno in un mercato in cui i margini di profitto si riducono sempre di più e gli sfidanti sono in aumento. Questa trasformazione sarà fondamentale nel prossimo futuro, quando le banche dovranno diversificare le proprie fonti di reddito offrendo nuovi servizi, prodotti non bancari e soluzioni rateali, andando oltre il loro ruolo tradizionale di istituti di credito. Alessandro Fragapane, country manager di Backbase Italia

Alessandro Fragapane

KNOWLEDGE WORKER ANCORA

UN PO’ SCETTICI SULL’AI

Nell’ambito delle professioni intellettuali, questa tecnologia è vista più come una scorciatoia che non come un valore. Uno studio di Jabra.

I knowledge worker italiani mostrano un atteggiamento ancora cauto sull’adozione dell’AI nella vita lavorativa, soprattutto perché la percezione di benefici tangibili e la fiducia nelle strategie aziendali restano limitate. È quanto emerge da un recente studio globale condotto da Jabra su un campione di 1.800 decisori e 4.200 dipendenti in quattordici Paesi, fra i quali anche il nostro. I dati riferiti all’Italia mostrano una scarsa adozione dell’AI da parte dei professionisti della conoscenza: sebbene il 93% sia consapevole delle potenzialità della tecnologia, solo il 22% ne fa uso nelle attività quotidiane. Tuttavia, l’86% dei professionisti si dichiara aperto a un maggior impiego futuro. Gli intervistati italiani, inoltre, non appaiono pienamente convinti dei vantaggi immediati dell’AI: solo il 14%, infatti, crede che possa migliorare la qualità del proprio lavoro. Tuttavia, il 68% ritiene che potrebbe far risparmiare tempo, a vantaggio principalmente della formazione professionale (33%), della flessibilità lavorativa (27%) o della coltivazione dei rapporti personali (28%).

Lo studio evidenzia che, rispetto ad altri Paesi, i professionisti italiani svolgono il loro lavoro prevalentemente in piccoli spazi privati negli uffici, con minor autonomia nella gestione dello smart working. Le giornate lavorative sono spesso piani-

ficate dall’azienda e caratterizzate da attività come uso della posta elettronica (69%), riunioni (61%) e collaborazione tra colleghi (68%). “L’essere umano parla quattro volte più velocemente di quanto non riesca a fare digitando su una tastiera”, fa notare Adriano Palomba , sales director large enterprise South Emea di Jabra. “Eppure, si tende a disperdere il tempo lavorativo tra email, chat, riunioni o app come Word o PowerPoint. Gli strumenti di AI potrebbero trarre vantaggio dall’uso della voce, ma devono capire quello che viene detto, Gli auricolari classici non sono stati

pensati per questo utilizzo e questo ancora genera errori e imprecisioni mal sopportate”.

In effetti, nonostante l’attenzione crescente verso le tecnologie digitali, la percentuale di lavoratori italiani che riconosce l’AI come utile per migliorare la produttività è ancora limitata. Inoltre, il 49% degli italiani ritiene essa sia descritta dalle aziende in termini vaghi e poco concreti. Un terzo (34%) teme un controllo eccessivo delle prestazioni professionali tramite queste tecnologie, mentre il 27% teme una potenziale perdita di posti di lavoro.

Un ulteriore focus della ricerca riguarda le strategie aziendali relative all’adozione dell’AI. Secondo il 20% del campione italiano, le aziende per cui si lavora non hanno in programma di assumere specialisti del settore. Il 28% afferma che le organizzazioni stanno esplorando le possibilità dell’AI acquisendo informazioni, mentre il 18% dichiara che sono in corso attività di formazione interna per preparare i dipendenti ad assumere ruoli innovativi. Solo il 14% del campione conferma che la propria azienda sta attivamente assumendo profili specifici: “Per ora, prevalgono i test sulle applicazioni concrete”, conferma Riccardo Brenna , head of research and marketing insights di Jabra. “Non si vede ancora come l’AI possa supportare i compiti più creativi, mentre la spinta è verso la ripetitività delegata. Ma c’è voglia di poter convertire le illusioni in realtà, combinando correttamente innovazione e automazione. La voce diventerà l’interfaccia naturale ed è meglio fin d’ora dotarsi di dispositivi pronti a interpretarla nel modo più efficiente”. R.B.

Adriano Palomba

IL BUSINESS PROCESS MANAGEMENT

CRESCE E ABBRACCIA

L’AI

Per Appian automazione dei processi, integrazione dei dati e sviluppo low-code restano i pilastri di un’offerta in continua evoluzione.

“Il nostro è stato un percorso che non ha visto cadere delle foglie dall’albero, ma crescerne di nuove”. Con questa metafora Lorenzo Alegnani, area vice president customer success Emea Central and South di Appian, ha rappresentato l’evoluzione di offerta e posizionamento della propria azienda, nata con una tecnologia per il Business Process Management che negli anni si è ampliata e arricchita senza però perdere la propria anima.

“Nei primi anni 2000 Appian è stata la prima piattaforma completamente Web-based”, ha raccontato Alegnani.

“Da sempre ha puntato sull’idea di prodotto completamente basato su Web e questo ha permesso, poi, di

evolvere verso una soluzione basata in cloud. Siamo diventati uno dei pionieri del cloud”.

Per poter gestire non solo le procedure ma anche i dati delle aziende, la piattaforma si è quindi arricchita di funzionalità di case management dinamico, poi di strumenti low-code per lo sviluppo applicativo e, ancora, di automazione robotica di processo (anche grazie ad acquisizioni come Novayre, a inizio 2020). Da qui, poi, il focus sul data fabric, un’architettura di gestione e sincronizzazione dei dati da diverse fonti, applicazioni e processi, tesa a consentire accesso e visione estesa, senza compartimenti stagni. Il data fabric è anche il pilastro su cui poggiano altri servizi successivamente proposti “on top”, come quelli di process mining, che scandagliando i processi aziendali aiutano a capirne meglio le dinamiche e a individuare le inefficienze. Nel complesso, quella di Appian è diventata (per usare una definizione di Gartner) una piattaforma di Business Orchestration Automation Technology (Boat). “Tutte queste aree, che troviamo sul mercato in soluzioni diverse e specializzati, per noi rappresentano un percorso e una strategia, che è anche una strategia riconosciuta dagli analisti”, ha spiegato Alegnani. “Ancora oggi ci sono aziende che vedono Appian soprattutto come soluzione Bpm, mentre altre la usano

soprattutto per il case management. Spesso usiamo la metafora del Lego: mattoncini di diversa dimensione che possono essere scelti per costruire la soluzione che serve”.

In tutto questo, citando ancora una metafora di Alegnani, l’intelligenza artificiale è “la ciliegina sulla torta, che forse rappresenterà un altro step verso qualcosa che oggi ancora non conosciamo”. L’AI all’interno di Appian ha diverse declinazioni, dal machine learning tradizionale utile nel marketing per fare sentiment analysis a strumenti di GenAI che potenziano alcuni casi d’uso della piattaforma. “Il nostro focus per la GenAI è l’automazione dei processi, ha proseguito l’area vice president. “Questo si declina in vari ambiti. Uno è il low-code : abbiamo cominciato a introdurre strumenti che aiutano chi deve creare applicazioni su Appian, e in questo caso la GenAI è un acceleratore dello sviluppo. Può essere, poi, un acceleratore dell’integrazione dei dati, come strumento che può generare documenti in formati “leggibili”. C’è poi l’uso della GenAI nell’interpretazione dei dati, quindi per produrre raccomandazioni e risposte a problemi che la piattaforma può identificare. Oppure come strumento da usare nei contact center per migliorare e standardizzare le comunicazioni tra azienda e cliente”.

Una storia anche italiana

Nata nel 1999 a Washington DC, Appian ha appena festeggiato il 25esimo compleanno. La prima sede in Europa è stata inaugurata nel 2006, mentre la filiale italiana è stata creata nel 2015 con l’apertura dell’ufficio di Milano, a cui è seguita tre anni dopo la sede di Roma. “Dal

Lorenzo Alegnani

2015 al 2020 Appian ha avuto un’esplosione importante su tutte le linee e le strutture”, ha raccontato Silvia Speranza, da sette anni in azienda e da un anno nel ruolo di regional vice president per l’Italia. “Anche l’approccio è un po’ cambiato: prima la nostra strategia si stava sviluppando territorialmente ma si era ormai creato uno zoccolo duro di clienti che consentiva di creare una region”. L’Italia si è confermata anche in questo 2024 uno dei principali mercati di sbocco per Appian in Europa, anche davanti alla Francia. E per la prima volta quest’anno nel programma di eventi rivolti ai clienti e ai partner “Appian Around the World” (che ha toccato Washington DC, Parigi, Madrid, Berlino, Londra, Sydney e Riyad) è stata prevista una tappa italiana, a Milano, che ha superato le a spettative di partecipazione. “Per noi è stata una grande sfida, considerando che quello italiano è un mercato fortemente distribuito e non concentrato su un’unica città, come accade con

Parigi e Madrid”, ha raccontato Speranza. L’evento è stato anche un’occasione per mettere in pratica l’attuale strategia commerciale e di marketing di Appian, che punta a evidenziare i casi d’uso e le testimonianze di clienti soddisfatti. “Indubbiamente il 2024 non è stato un anno facile, anche se i nostri numeri sono buoni”, ha ammesso Speranza. “Dal 2025 ci aspettiamo sicuramente una crescita importante nel mondo assicurativo e anche nel banking, con clienti che si consolidano ed estendono l’utilizzo di Appian. Inoltre in Italia, dove i gruppi farmaceutici non sono molti ma sono importanti, ci aspettiamo una crescita di questo mercato, fortemente regolamentato. Inoltre, ovviamente, ancora con il traino del Pnrr ci sarà la Pubblica Amministrazione”. Quella italiana è per Appian una clientela fidelizzata: nello “zoccolo duro” composto da aziende di grandi dimensioni la redemption è addirittura superiore al 100%, ovvero 120%, il che significa non soltanto rinnovo dei contratti ma anche ampliamento dei progetti avviati.

Nuovo focus sul canale

Nel canale dei partner Ict, Appian sta portando avanti un percorso di razionalizzazione, focalizzazione, abilitazione e marketing, puntando anche a evangelizzare il mercato basandosi sulle esperienze positive di partner e clienti. In Italia l’azienda lavora con una cinquantina di system integrator, di varie dimensioni, di cui una ventina “attivi”. “È un numero abbastanza alto per poterci costruire sopra una strategia di espansione, produttiva, e per poter fare accounting”, ha spiegato Emanuele Galdi, recentemente diventato senior lead partner sales per

il mercato italiano. “La nostra filosofia è fare accounting anche sui partner, seguendoli cioè come se fossero un po’ anche nostri clienti. Vogliamo metterli nelle condizioni di usare al meglio la piattaforma per rispondere alle esigenze dei loro clienti. Il mondo del canale sta diventando sempre più importante per Appian”. L’ecosistema di partner è strutturato su tre gruppi: le grandi società di consulenza e system integration (Deloitte, EY, Pwc, Accenture, Kpmg), i classici system integrator e le più piccole “boutique” di servizi IT. “Siamo partiti dalle Big Five perché sono interlocutori in grado di capire le esigenze dei diversi mercati e di declinare la nostra soluzione in base a esse”, ha raccontato Galdi. “Con loro stiamo creando delle soluzioni verticali focalizzate su esigenze specifiche, per esempio la compliance alla normativa Dora nel mercato dei servizi finanziari, oppure offerte specifiche per il settore dell’energia e per il farmaceutico”.

Silvia Speranza
Emanuele Galdi

A CACCIA DI MALWARE, SOTTOTRACCIA

Le tecnologie di cybersicurezza imparano a non dare nell’occhio, al pari degli attaccanti. La visione di SentinelOne.

“Viviamo in una fase di evoluzione dello scenario, dove ci sono macchine addestrate per attaccare altre macchine, i volumi stanno crescendo in modo impressionante e anche soggetti non troppo strutturati possono disporre dei mezzi per compromettere un’organizzazione. Gli agenti di protezione devono restare sottotraccia, un po’ come fanno i malware più evoluti, per garantire la loro efficacia e sfruttare l’AI integrata”: così Nicolas Day, vicepresidente global Gtm grow strategy & enablement, ha commentato la strategia e l’evoluzione dell’offerta di SentinelOne. Nei diversi aggiornamenti che l’azienda ha apportato alla propria gamma di soluzioni di cybersecurity c’è, alla base, l’utilizzo ormai pervasivo dell’intelligenza artificiale. “Si può dire che si tratti di una tecnologia che noi abbiamo nel nostro Dna”, ha sottolineato Day. Le ultime novità vanno nella direzione dell’automazione e dell’autonomia operativa dei Security Operations Center (Soc). Singularity Hyperautomation, in particolare, introduce una logica no-code

sui workflow di sicurezza e aiuta gli analisti dei Soc nella fase di indagine. Alla gestione delle informazioni e degli eventi di sicurezza (Security Information and Event Management) è dedicata, invece, Singularity AI Siem una soluzione cloudnative che si basa sul data lake scalabile di Singularity per fornire rilevamenti in tempo reale e aiutare a condurre le indagini di sicurezza integrando dati (di vario tipo, strutturati e non) provenienti dall’intero ecosistema SentinelOne e anche da servizi di terze parti.

Queste evoluzioni si aggiungono a quanto già introdotto nel recente passato dal vendor, a cominciare da Purple AI. “Si tratta di una delle più importanti innovazioni della nostra storia aziendale”, ha affermato Day, “perché ha portato la tecnologia anche alle persone senza troppa competenza tecnica, grazie alla possibilità di indirizzare domande di ogni genere in linguaggio naturale, per poi decidere quali azioni intraprendere. Le nostre soluzioni, di fatto, rendono possibili pene-

tration test in modo continuativo e non più episodico. Non dimentichiamo che Gartner ha stimato che occorrerebbero 14 persone per garantire una sicurezza 24x7 e la maggior parte delle aziende non se le può certo permettere”.

In questi ultimi anni, SentinelOne ha registrato un soddisfacente tasso di penetrazione in un mercato estremamente competitivo: “Oltre a essere stati pionieri dell’AI, abbiamo abbracciato la strada della cloud-native security, ancora un po’ sottovalutata in Italia”, ha osservato Paolo Cecchi, sales director Mediterranean Region della società. “Per contrastare efficacemente attacchi di lunga durata o state-sponsored, occorre un’ampia capacità di retention dei dati da poter analizzare, ma il costo è molto elevato e i Siem non sono in grado di tenere il passo. Automazione e cloud sono necessari per aumentare la capacità di reazione”.

Il vendor ha costruito la propria presenza in Italia soprattutto nella fascia delle Pmi, ma specie negli ultimi tre anni c’è stato un percorso di crescita verso la fascia più alta, grazie a un approccio maggiormente orientato a un concetto di piattaforma e non più solo focalizzato sugli endpoint. “Oggi siamo in grado di superare alcuni limiti presenti nel mondo della sicurezza”, ha illustrato Cecchi. “Per esempio, di automazione delle risposte si parla da tempo, ma le tecnologie Soar non hanno preso piede, perché troppo complesse e, quindi, utilizzate per casi d’uso basici, per i quali non sarebbero nemmeno necessarie. Inoltre, siamo complementari a un quadro normativo che fornisce solo linee di indirizzo, ma si esprime poso sulle decisioni operative. Infine, portiamo la cybersecurity anche fuori dal mondo ristretto degli specialisti, per allargarla ad altri dipartimenti coinvolti, a cominciare da quello legale”.

Paolo Cecchi
Nicholas Day

LA CORSA ALL’AI NON È SOLO QUESTIONE DI SERVER

I sistemi di alimentazione e raffreddamento sono parte integrante della rivoluzione tecnologica in corso.

La visione di Vertiv.

“Il mondo dipende dai dati e tutto ciò che facciamo crea dati, in un modo o nell’altro questo pone delle sfide”. Non è casuale l’osservazione di Karsten Winther, presidente Emea di Vertiv, fatta ai giornalisti arrivati da tutta Europa, e oltre, per visitare il Customer Experience Center dell’azienda a Castel Guelfo, nelle vicinanze di Bologna. Una sede dedicata all’esposizione e al testing di tutto ciò che riguarda i sistemi di alimentazione, come gli Ups (Uninterruptible Power Supply), mentre a Tognana, nei dintorni di Padova, sorge l’analogo centro dedicato ai sistemi di raffreddamento.

L’affermazione del presidente Emea non è casuale perché l’offerta di dispositivi e servizi di Vertiv negli ultimi anni si è evoluta parallelamente alla trasformazione dei data center, sull’onda (prima) del boom dei dati e delle migrazione in cloud e poi della corsa all’adozione dell’intelligenza artificiale. I data center diventano sempre

più “densi”, cioè a parità di metro quadro o di rack la capacità di calcolo aumenta. E dunque aumentano anche i consumi di energia e il calore prodotto, ma insieme a un progresso tecnologico (dai chip al software) che tende all’efficienza e, quindi, a ridurre l’impatto ambientale e con esso i costi energetici. Il famigerato Pue, l’indice di Power Usage Effectiveness, rimane un parametro essenziale per tutti vendor della filiera e per gli operatori di data center, ma non può più essere l’unico metro di valutazione dell’efficienza.

Rispetto a un paio di anni fa, Vertiv può ora vantare un’offerta che copre tutto il “power train”, cioè la catena dell’alimentazione, dalla rete elettrica ai chip che fanno funzionare un data center, includendo anche le interazioni con le fonti di energia alternative e i sistemi di controllo e gestione. Similmente, Vertiv copre anche l’intera catena della gestione termica, dal raffreddamento dei rack alla raccolta e

all’espulsione del calore. “Vertiv è molto riconosciuta nel mondo dei data center, ma ora lo è anche in quello dell’intelligenza artificiale”, ha proseguito Winther. “Ovunque andiamo, siamo toccati dall’AI, consapevoli o meno. Penso siamo tutti d’accordo sul fatto che l’AI sia destinata a restare”.

“L’efficienza è un aspetto chiave, dobbiamo ridurre lo spreco di energia in ciascun sistema", ha dichiarato Giovanni Zanei, AC power global offering & Emea business leader Vertiv. “Oggi si punta al 99% di efficienza, cercando di ridurre al minimo il Pue del data center e di mantenere al contempo la massima availability”. Un tema ribadito a Castel Guelfo è che per costruire data center “a prova di intelligenza artificiale” è necessaria, come mai in passato, una collaborazione tra vendor, da cui nascano integrazioni tecnologiche, strategie e standard condivisi. Per Vertiv è particolarmente significativa l’alleanza con Nvidia, azienda che negli ultimi due anni ha beneficiato (forse più di chiunque altra) del boom di domanda di semiconduttori e software per l’AI.

“Ho la sensazione che siamo appena agli inizi e che vedremo un’adozione molto, molto maggiore”, ha detto Carlo Ruiz, vicepresidente enterprise solutions and operations Emea di Nvidia. “Nel campo dei modelli fondativi, non intravedo una fine: continueranno a progredire e a migliorare insieme alla quantità di dati usati. E vedremo anche foundational model settoriali”.

Ruiz ha citato un dato come esempio degli estremi miglioramenti di prestazioni ed efficienza ottenuti da Nvidia: in otto anni la capacità di calcolo delle Gpu è aumentata di mille volte, dai 19 TFlops dell’architettura Pascal del 2019 ai 20.000 TFlops di Blackwell, novità di quest’anno.

Valentina Bernocco

Giovanni Zanei
Karsten Winther

L’INTELLIGENZA È RACCHIUSA PROCESSI

Il mercato della Process Intelligence in Italia è soltanto agli inizi. La visione di Celonis su una tecnologia che apporta valore concreto.

I processi sono ovunque. E i dati generati dai processi sono ovunque. La Process Intelligence, invece, no. “Siamo ancora all’inizio, almeno in Italia: magari avessimo tutto questo fermento intorno alla Process Intelligence, ha ammesso scherzando Andrea Carboni, country leader di Celonis, multinazionale tedesca che dal process mining e dal process modeling oggi ha fatto un passo ulteriore verso il tema dell’intelligenza derivata dai processi. Come raccontato da Carboni ai giornalisti presenti alla conferenza “Celosphere” recentemente tenutasi a Monaco di Baviera, in Italia oggi Celonis sta facendo soprattutto un’opera di evangelizzazione, come si suol dire, per spiegare che cosa sia la Process Intelligence, i casi d’uso principali e i suoi vantaggi.

Sullo stesso palco un anno prima l’azienda aveva lanciato un’innovazione

di prodotto che ha segnato anche un cambiamento di prospettiva: Process Intelligence Graph, una tecnologia che evidenzia la struttura e le interconnessioni tra oggetti, eventi e azioni compiute all’interno di un’azienda o in una supply chain. Questa innovazione ha introdotto una vista “orizzontale”, anziché verticale, perché i “nodi” del grafo si basano su un oggetto anziché su un processo. Come spiegato da Carboni, questo approccio permette di fare Process Intelligence in modo agnostico rispetto ai sistemi sottostanti, per esempio specifici software Erp o Crm. “Inoltre”, ha detto il country leader, “si parla una sola lingua in tutta l’azienda, sia a livello IT sia a livello dipartimentale, e questo consente di prendere decisioni più concertate”. Secondo la visione di Celonis, quindi, l’analisi e la modellazione dei processi divengono non solo una fonte di intelligence ma anche un collante, il tessuto connettivo dell’intera azienda. “Ciò che ci distingue è guardare ai dati dal punto di vista dei processi”, ha sottolineato Carboni. “Non basta fare una fotografia dei processi perché il mondo cambia continuamente, le persone adottano practice differenti e i sistemi si adattano”. “Uno tra i maggiori differenziatori di Celonis è la metodologia, perché senza di essa la tecnologia sarebbe fine a sé stessa”, gli ha fatto eco Massimiliano Matacena, director, value engineer di Celonis. “Nella metodologia c’è anche un governance sui progetti, in cui si tiene traccia dell’obiettivo strategico e di come Celonis stia aiutando a raggiun-

gerlo”. L’approccio è quello della metodologia Lean, basata sull’iterazione, sul cambiamento graduale e sul miglioramento continuo. Per la verifica dei risultati è a disposizione il Transformation Hub, uno strumento che non solo tiene traccia dei cambiamenti introdotti nei processi ma li misura, ne quantifica l’impatto. “Il Transformation Hub è utile per dimostrare il valore realizzato”, ha proseguito Matacena. “Ed è utile per poter poi magari ampliare l’uso di Celonis ad altri ambiti, e a quel punto non si tratta più un progetto ma di un programma di trasformazione”. Le novità presentate quest’anno a “Celosphere” si focalizzano da un lato sull’intelligenza artificiale e dall’altro sulla condivisione dei dati tra aziende. AgentC è un’offerta che racchiude strumenti di sviluppo, integrazioni tecnologiche e partnership grazie a cui

Andrea Carboni
Massimiliano Matacena

le aziende possono creare (partendo da zero o da soluzioni preconfigurate) agenti di AI alimentati dalla Process Intelligence di Celonis. L’offerta verrà arricchita progressivamente ma al momento sono già presenti integrazioni con Microsoft Copilot Studio, Ibm watsonx Orchestrate, Amazon Bedrock Agents e ambienti di sviluppo opensource come CrewAI.

L’altra novità è Celonis Networks, una soluzione che estende la Process Intelligence oltre i confini della singola organizzazione. Permette, infatti, a due o più aziende (legate, per esempio, da rapporti di fornitura e clientela in una supply chain) di scambiarsi informazioni riguardanti processi condivisi, e di farlo non in modo statico ma con aggiornamenti in tempo reale. I dati sono crittografati by design e solo i processi condivisi risultano visibili a tutte le parti. Tra i primi clienti di questa nuova soluzione ci sono Conrad Electronic, Schukat electronic e TD Synnex, che la utilizzano per ottenere trasparenza nel processo condiviso di gestione degli ordini e degli acquisti. Ciascuna delle tra aziende già disponeva di una tecnologia Edi (Electronic Data Interchange) per lo scambio di documenti come ordini

di acquisto e fatture, ma riscontrava continui problemi su prezzi non aggiornati o date di consegna. Oggi, con Celonis Networks, condividono automaticamente 5.000 aggiornamenti riguardanti lo stato di avanzamento degli ordini, la data di consegna prevista, dettagli della spedizione e altro. “Celonis Networks elimina la maggior parte del nostro lavoro manuale con gli ordini Edi, sia che si tratti di un aggiornamento da parte del nostro team, sia che si tratti di rispondere a una richiesta del nostro cliente Conrad Electronic”, ha dichiarato Axel Wieczorek, head of sales di Schukat Electronic. “Utilizzando i dati di Celonis Networks, il team di procurement di Conrad Electronic può aggiornare direttamente gli ordini, permettendoci di fornire risposte più rapide”.

“L’idea di Celonis Networks era di consentire ai clienti di condividere una tassonomia, in modo che tutti parlassero lo stesso linguaggio”, ha spiegato Eugenio Cassiano, senior vice president strategy and innovation di Celonis.

“L’Edi è nato vent’anni fa, ma abbiamo voluto rendere tutto più semplice, con un’esperienza one click per autorizzare la condivisione di un processo”.

Cassiano ha illustrato alcune caratteristiche della nuova soluzione, che è disponibile sia per le aziende già clienti di Celonis (in quel caso basta autorizzare i processi da condividere) sia per chi non lo è (e può utilizzare un’API per collegarsi a Celonis Networks). In tutti i casi, nessun problema di fughe di dati o di segreti industriali: non vengono condivise più informazioni di quelle che le aziende già si scambiano in varie forme e su vari canali, per esempio l’email. “Un trend che, credo, vedremo sempre di più è la collaborazione tra aziende in materia di dati, cioè non una condivisione di dati proprietari ma per esempio la generalizzazione di come si calcolano i Kpi”, ha detto Cassiano. “Abbiamo costruito le fondamenta delle piattaforma, su cui ora i nostri partner potranno creare. Nel 2025 prevediamo ci saranno molte più applicazioni di prossima generazione eseguite su domini specifici, create dalle aziende. Vedo per l’anno prossimo un’esplosione di applicazioni di questo tipo e nuovi modi per monetizzarle”. Valentina Bernocco

Eugenio Cassiano

ATTACCHI VIA EMAIL: MINACCIA IN CONTINUA EVOLUZIONE

Nuovi strumenti e tecniche più sofisticate aumentano l’efficacia del phishing. Un’analisi di Barracuda.

Il “2024 Data Breach Investigations Report” di Verizon ha presentato una statistica preoccupante: basta meno di un minuto per cadere in una truffa di phishing. Un dato che comprende 21 secondi in cui il destinatario clicca su un link malevolo dopo aver aperto l’email e altri 28 secondi per inserire i dati richiesti. Gli attacchi perpetrati tramite email non sono solo veloci, ma anche molto diffusi ed efficaci, perché hanno costi relativamente bassi e sono facili da implementare, scalabili e adattabili in base alla disponibilità di nuovi tool e funzionalità.

Negli ultimi mesi Barracuda ha pubblicato diverse ricerche sul tema: i risultati mostrano un tipo di minaccia che si adatta costantemente a un panorama digitale in continua evoluzione, sfruttando strumenti e tecniche innovative per aggirare le misure di sicurezza e aumentare le probabilità di successo. La truffa Business Email Compromise (Bec), che sfrutta la compromissione della casella di posta

aziendale, rappresenta oggi più di un attacco di social engineering su dieci, mentre il conversation hijacking ha registrato un aumento del 70% dal 2022. Una recente ricerca ha inoltre evidenziato come nell’ultimo trimestre del 2023 circa una casella di posta elettronica su 20 sia stata oggetto di attacchi con codici QR. Gmail ha costituito poco meno di un quarto dei domini utilizzati per gli attacchi di social engineering nel 2023 e bit.ly è stato utilizzato in quasi il 40% degli attacchi di social engineering che includono un Url abbreviato. Gli accorciatori di Url sono una tattica perfetta per mascherare la vera natura del sito di reindirizzamento finale. Un’altra tattica emergente ha riguardato l’uso di servizi di protezione degli Url affidabili al fine di nascondere link dannosi negli attacchi di phishing ed eludere il rilevamento.

Tutte le aziende, indipendentemente dalle dimensioni, sono vulnerabili alle minacce via email ma in modi diversi. Un’analisi dei dati di rilevamento di Barracuda mostra che il 42% degli attacchi mirati via email contro le grandi aziende prevede il phishing laterale (attacchi inviati alle caselle di posta elettronica di tutta l’organizzazione a partire da un account interno già compromesso). Al contrario, solo il 2% degli attacchi contro imprese fino a cento dipendenti rientra in questa categoria. Le realtà più piccole, infatti, hanno maggiori probabilità di essere colpite da attacchi di phishing provenienti dall’esterno. Le aziende più piccole subiscono inoltre un numero di attacchi estorsivi tre volte superiore a quello delle realtà

da almeno duemila dipendenti. D’altro canto, la prevalenza delle truffe Bec e del conversation hijacking è risultata relativamente uniforme, a prescindere dalle dimensioni aziendali. Le variazioni sono probabilmente determinate da una serie di fattori organizzativi, culturali e tecnologici. Ad esempio, le aziende più grandi offrono agli aggressori un maggior numero di potenziali punti di accesso e dipendenti propensi a fidarsi dei messaggi di posta elettronica che sembrano provenire dall’interno dell’organizzazione, anche se il mittente non è loro noto. Le aziende più piccole, invece, hanno meno probabilità di disporre di una sicurezza stratificata e più probabilità di avere filtri email mal configurati a causa della mancanza di competenze e risorse interne.

Considerato questo panorama, i professionisti dell’IT e della sicurezza devono concentrarsi fortemente sulle misure di sicurezza e sulla risposta agli incidenti. Ciò implica la comprensione dei modi in cui gli aggressori possono sfruttare l’intelligenza artificiale generativa per far progredire e ampliare la portata delle loro attività, nonché delle ultime tattiche usate per superare i sistemi posti a barriera. La migliore difesa sono le tecnologie di sicurezza delle email potenziate dall’intelligenza artificiale, capaci di adattarsi rapidamente a uno scenario mutevole di minacce sempre nuove senza basarsi esclusivamente sulla ricerca di link o allegati dannosi. Tali strumenti, inoltre, devono essere abbinati a una formazione attiva e regolare dei dipendenti. Infine, le realtà più piccole possono prendere in considerazione di rivolgersi a un fornitore di servizi gestiti (Msp) per acquisire ulteriori competenze e ottenere supporto nel rafforzamento del livello complessivo di cybersicurezza.

Stefano Pinato, country manager per l’Italia di Barracuda Networks

Stefano Pinato

LA SICUREZZA COMINCIA DALLE STAMPANTI

Sottovalutare la protezione di dispositivi e flussi documentali è un errore che molte aziende compiono. Ma si può rimediare, con alcune mosse strategiche.

La sicurezza dei dispositivi di stampa è tanto importante quanto, purtroppo, sottovalutata. L’attenzione dei responsabili della sicurezza informatica si concentra di solito su dispositivi come server, computer e smartphone e su applicazioni come la posta elettronica e il file sharing. Raramente si pensa che la stampante possa essere, oltre che uno strumento di produttività, anche un potenziale bersaglio o un veicolo di attacchi informatici. Nel 2022 uno studio di Quocirca, “Global Print Security Landscape”, evidenziava che tra i decisori IT aziendali le stampanti domestiche di proprietà dei dipendenti e usate nello smart working erano solo al quinto posto nella lista dei maggiori rischi percepiti; e i dispositivi di stampa del parco macchine dell’ufficio solo al sesto posto.

I rischi da non sottovalutare I moderni dispositivi di stampa e multifunzione sono tappezzati di interfacce di connettività, come Ethernet, Wi-Fi, Bluetooth e Usb, e spesso lavorano collegati direttamente a Pc e a caselle di posta elettronica. Il firmware di una stampante, se non aggiornato, può contenere vulnerabilità, e inoltre la macchina può collegarsi ad applicazioni e ambienti cloud di vario tipo. Ogni genere di comunicazione e documento aziendale transita da una stampante o da uno scanner, in forma sia cartacea sia digitale: email tra colleghi, fornitori e clienti, progetti, database, report finanziari, per fare solo alcuni esempi. La casistica dei rischi è quindi ampia: documenti dimenticati o abbandonati nella stampante che finiscono nelle mani sbagliate, hackeraggi che portano a esfiltrazioni dei dati memorizzati sulla macchina, e ancora attacchi tesi a sfruttare i dispositivi come punto d’accesso a una rete aziendale o come strumento per attacchi DDoS, spamming o mining di criptovalute. Perdita di dati, furti di proprietà intellettuale, danni di reputazione e anche interruzioni di attività sono solo alcune delle possibili conseguenze.

Come migliorare la sicurezza della stampa

Come affrontare, dunque, il rischio connesso ai dispositivi di stampa e ai processi di produzione documentale? Brother suggerisce alcune best practice.

• Scegliere la giusta tecnologia

La sicurezza parte dalla progettazione dell’hardware e del software. I dispositivi Brother vantano funzionalità di sicurezza avanzate, come gestione delle porte, crittografia dei documenti, protezione tramite password e autenticazione con codice PIN o card NFC, per garantire che solo gli utenti autorizzati possano ritirare un documento dalla stampante.

• Aggiornare tempestivamente il firmware

Gli attaccanti sanno agire rapidamente, sfruttando le vulnerabilità del software prima che vengano installate le patch. Le aziende dovrebbero muoversi altrettanto velocemente, installando patch e aggiornamenti del firmware non appena essi vengono resi disponibili. Per fare ciò, un ottimo alleato è lo strumento di aggiornamento del firmware Brother.

• Mantenere “giovane” il parco macchine

Dispositivi particolarmente datati potrebbero contenere un firmware non sicuro e difficile da aggiornare, risultando più vulnerabili ad attacchi hacker. È importante per le aziende avere sempre visibilità sullo stato e sull’età del parco macchine, in modo da valutare eventuali sostituzioni.

• Adottare un approccio di sicurezza a tre livelli

Brother consiglia un approccio alla sicurezza “a tre livelli”: reti, dispositivi e documenti. Monitorare il traffico insolito in entrata, in uscita e attraverso la rete aziendale è indispensabile per individuare pattern insoliti, potenziale segno di attività malevole. I dispositivi da proteggere non sono solo i server del data center e gli endpoint, ma anche quelli perimetrali (firewall, router, server Web, reti e dispositivi con accesso pubblico) e le stampanti.

• Affidarsi ai servizi di stampa gestita

In molti casi, a seconda della struttura aziendale, del parco stampanti in uso e della complessità dei workflow documentali, affidarsi a servizi di stampa gestita può essere la scelta migliore. Un investimento che permette di dormire sonni tranquilli, perché la sicurezza, la gestione e l’aggiornamento delle stampanti saranno nelle buone mani di personale esperto e dedicato. Inoltre affidarsi a un partner di servizi di stampa gestita è importante anche per valutare il livello di sicurezza all'interno dell’azienda.

IL CAMMINO DELLA PUBBLICA AMMINISTRAZIONE

Negli enti locali cresce il peso del cloud, mentre l’uso dell’intelligenza artificiale sembra essere appena agli esordi. Una ricerca di TIG e Gruppo Maggioli.

La trasformazione digitale della Pubblica Amministrazione è un percorso lungo, tortuoso e non privo di interruzioni e passi falsi. Ma è un percorso necessario e non immobile, fortunatamente. Il Piano Nazionale di Ripresa e Resilienza ha rappresentato negli ultimi anni il principale impulso alla modernizzazione di enti pubblici centrali e locali, considerando che al tema della trasformazione digitale è dedicata una intera “missione” delle sei che compongono il Pnrr. E nel Piano Triennale 2024-2026 per l’informatica nella Pubblica Amministrazione di AgID, pubblicato lo scorso febbraio, un capitolo è tutto dedicato all’intelligenza artificiale, una tecnologia che nell’ambito della PA si presta a molteplici utilizzi e scopi: va-

lorizzazione dei dati, snellimento della burocrazia, miglioramento dei servizi e dei rapporti con i cittadini e riduzione dei costi (grazie all’automazione e alla riduzione degli errori) sono i primi che vengono in mente. In questo scenario non mancano, naturalmente, rischi legati a un’adozione non abbastanza consapevole o trasparente, alla qualità dei dati e alla privacy, oltre che all’annosa questione delle carenza di competenze digitali di base e specializzate. Un problema che affligge le aziende italiane, in generale, e ancor di più le organizzazioni della PA, dove la propensione al cambiamento non sempre è spiccata e dove il fattore generazionale non aiuta (l’età media è intorno ai cinquant’anni, dieci in più rispetto a quella dei dipendenti del settore

privato, secondo un rapporto dell’Agenzia per la rappresentanza Negoziale delle Pubbliche Amministrazioni).

Uno scenario polarizzato

Ma a che punto sono gli enti della PA nel percorso di trasformazione digitale? La ricerca “2024: Cloud, AI, Cybersecurity nella PA italiana”, condotta tra giugno e luglio 2024 da Gruppo Maggioli e TIG – The Innovation Group su 461 enti pubblici locali (in prevalenza Comuni, ma anche Regioni e altri organismi) offre un interessante spaccato sul presente e anche sulle tendenze in atto, grazie al confronto tra i risultati emersi da questa indagine e l’analogo lavoro dell’anno precedente. “Finora sono soprattutto le PA centrali ad aver avviato progetti pi-

lota per sperimentare l’impiego dell’AI in vari ambiti, come l’assistenza ai cittadini, l’analisi dei dati, l’automazione dei processi e la previsione della domanda”, ha commentato Elena Vaciago, research manager di TIG – The Innovation Group. “Nella PA locale si osserva un interesse abbastanza ampio per il tema, con buone previsioni di adozione”. Lo scenario è abbastanza polarizzato tra chi già usa l’intelligenza artificiale o pianifica di adottarla (il 43%) e chi non lo fa (57%). A giugno-luglio di quest’anno, solo il 6% degli enti coinvolti nello studio aveva già in uso soluzioni di intelligenza artificiale ma un ulteriore 13% prevedeva di adottarla a breve e il 24% era in fase di valutazione. Tuttavia la maggioranza degli enti, il 57%, non la utilizza né pensa di farlo in futuro. I casi d’uso di maggiore interesse sono legati all’automazione delle pratiche, all’analisi dei dati, alla generazione di testi, a funzioni di ricerca evolute, alla formazione e al supporto operativo al personale. I principali benefici attesi dall’utilizzo dell’intelligenza artificiale riguardano, invece, l’automazione di attività ripetitive o ridondanti (citata dal 64% dei rispondenti), l’assistenza al cittadino (49%), l’erogazione di servizi “24/7” (46%), il miglioramento della qualità dei servizi al cittadino (45%), l’incremento di produttività del personale (34%) e la riduzione di errori, frodi e anomalie (30%). Nel percorso di adozione dell’intelligenza artificiale nella PA italiana i principali ostacoli sembrano essere la carenza di competenze nel personale della PA (citata dal 57% degli intervistati), i costi (48%), la resistenza al cambiamento (44%) e l’attuale immaturità tecnologica delle soluzioni disponibili sul mercato (39%).

“L’intelligenza artificiale potrebbe rivoluzionare in maniera decisa i processi della Pubblica Amministrazione e il modo in cui siamo abituati a confrontarci con la

Adozione dell’intelligenza artificiale nella PA Italiana

PA”, ha affermato Mario Nobile, direttore generale di AgID (Agenzia per l’Italia Digitale), nel report Digital Italy 2024, edito da TIG e Gruppo Maggioli. “Si potrebbe, per esempio, automatizzare attività di ricerca e analisi delle informazioni semplici e ripetitive, liberando tempo di lavoro per attività a maggior valore; aumentare le capacità predittive, migliorando il processo decisionale basato sui dati; supportare la personalizzazione dei servizi incentrata sull’utente, aumentando l’efficacia dell’erogazione dei servizi pubblici anche attraverso meccanismi di

proattività. Per fare tutto questo, però, è fondamentale avere a disposizione dati di alta qualità e gestirli in conformità alle normative in materia di protezione dei dati personali”.

Vantaggi e criticità del cloud

Lo studio non ha indagato solo il tema dell’intelligenza artificiale. L’adozione del cloud è ancora un argomento controverso, sebbene la migrazione di almeno una parte consistente dei dati e delle applicazioni della PA sia un destino inevitabile e necessario. Il citatissimo censi-

Fonte: Gruppo Maggioli e TIG – The Innovation Group, novembre 2024
Stato di adozione del cloud nella PA italiana
Fonte: Gruppo Maggioli e TIG – The Innovation Group, novembre 2024

UN DECALOGO PER L’ADOZIONE DELL’AI

Nel Piano Triennale 2024-2026 per l’informatica nella Pubblica Amministrazione di AgID vengono elencati dieci principi per l’adozione sicura e responsabile dell’intelligenza artificiale nel settore pubblico.

• Miglioramento dei servizi e riduzione dei costi tramite l’automazione dei compiti ripetitivi.

• Analisi del rischio, per garantire che i sistemi non comportino violazioni dei diritti fondamentali della persona.

• Trasparenza, responsabilità e informazione sull’uso dei servizi basati su AI.

• Inclusività e accessibilità, assicurando equità, trasparenza e assenza di discriminazione.

• Privacy e sicurezza, in conformità alla normativa vigente in materia di protezione dei dati personali e di sicurezza cibernetica.

• Formazione e sviluppo delle competenze necessarie per gestire e usare l’AI in modo efficace.

• Standardizzazione, tenendo conto della normazione tecnica in corso a livello internazionale ed europeo tramite Cen e Cenelec, con particolare riferimento all’AI Act.

• Sostenibilità, valutando gli impatti ambientali ed energetici legati all’adozione dell’AI.

• Trasparenza dei foundation model (classificati come sistemi AI “ad alto impatto”), che dev’essere verificata prima di introdurre tecnologie basate su di essi.

• Attenzione alla gestione dei dati, valutando bene le modalità e condizioni proposte dai fornitori di servizi di AI a cui le amministrazioni si affidano.

mento di AgID del 2020 aveva rilevato che, su 1.252 data center di pubbliche amministrazioni esaminati, 1.190 non garantivano requisiti minimi di affidabilità e sicurezza, per via di carenze di infrastruttura e continuità operativa (oggi la chiameremmo resilienza). La Strategia Cloud Italia, definita dal Dipartimento per la trasformazione digitale e dall'Agenzia per la cybersicurezza nazionale (Acn), ha quindi previsto di spostare nei data center sicuri del Polo Strategico

Lo stato della cybersicurezza

Nazionale i dati e gli applicativi del 75% delle PA italiane, entro il 2025.

“Nelle ingenti risorse per la digitalizzazione della PA stanziate dal PNRR c’è un focus particolare sulla migrazione al cloud”, ha sottolineato Vaciago. “Non è un caso: questo passaggio è preliminare a qualsiasi opera di modernizzazione informatica della PA. La migrazione al cloud, infatti, permette di ottenere una piattaforma moderna, sicura, affidabile e scalabile e di favorire ulteriori innovazio-

Fonte: Gruppo Maggioli e TIG – The Innovation Group, novembre 2024

ni, dall’uso dei Big Data analytics all’intelligenza artificiale. Un’infrastruttura cloud estremamente affidabile e sicura, oltre a garantire la protezione dei dati sensibili e la continuità operativa delle applicazioni, è una piattaforma robusta e scalabile per il trattamento di grandi volumi di dati, essenziale quindi per lo sviluppo di algoritmi AI”. Dalla ricerca di TIG e Gruppo Maggioli emerge che solo il 14% degli enti del campione ha già spostato tutti i propri dati in cloud, mentre il 32% ne ha migrato “la maggior parte”, l’11% “circa la metà” e il 24% ha scelto di spostare, per ora, “solo alcuni ambienti”. C’è poi un 19% per cui la migrazione è appena cominciata. Significativo è il fatto che, nell’analoga indagine del 2023, la quota di enti pubblici che avevano spostato in cloud “la maggior parte” dei loro dati fosse un 16%: la percentuale è raddoppiata al 32% a distanza di un anno.

Anche forse per esigenze di controllo sui dati e di sovranità digitale, il 53% delle amministrazioni pubbliche censite ha scelto fornitori cloud locali, mentre il 22% ha optato per la vasta offerta dei grandi provider globali, come Ama-

zon (Aws), Microsoft (Azure) e Google (Google Cloud). Un ulteriore 20% fa una scelta “locale” affidandosi a società in-house del territorio. Dall’indagine di quest’anno si evince, inoltre, che l’8,8% degli enti della PA locale ha già migrato dati e servizi al Polo Strategico Nazionale, mentre un ulteriore 30% prevede di farlo in futuro. “Questa coesistenza di infrastrutture adottate avvalora l’ipotesi di un cloud federato per la PA”, ha sottolineato Vaciago. “Su questo attualmente sta lavorando il Dipartimento per la Trasformazione Digitale ai fini di valorizzare le infrastrutture locali, in particolare quelle delle in-house certificate da Acn, in sinergia con il Polo Strategico Nazionale. Ciò aiuterebbe a rafforzare l’autonomia digitale del nostro Paese e a ridurre la dipendenza tecnologica da fornitori esteri”.

Sebbene a volte basti un “click” per spostare materiamente dei dati da una sala macchina al cloud, la migrazione può comportare una serie di complicazioni o criticità. A fronte di un 27% che dice di non aver riscontrato alcun problema e di un ulteriore 12% che non si esprime essendo ancora in una fase iniziale della migrazione, le principali criticità evidenziate nel sondaggio del 2024 sono i costi eccessivi (24% dei rispondenti), le tempistiche dilatate (22%), la scarsa personalizzazione o flessibilità rispetto alle proprie esigenze (18%), prestazioni insufficienti, rallentamenti o interruzioni di servizio (18%) e un livello di assistenza giudicato insufficiente (17%). “L’obiettivo di capire come ridurre i costi di utilizzo del cloud, mantenendone aspetti qualitativi legati a prestazioni del servizio, tempistiche e sicurezza, dovrà essere considerato dalle istituzioni in modo da individuare soluzioni opportune, pensate soprattutto per le PA locali di minore dimensione e con limitati fondi a disposizione”, osserva l’analista di TIG. “Una scelta potrebbe essere quella

di favorire la realizzazione di infrastrutture che aggregano la domanda di realtà minori, come quella dei cloud promossi dalle Regioni”.

titolino interno Le sfide di cybersecurity La PA italiana è un mosaico irregolare di enti e amministrazioni di varia grandezza e con diversa preparazione e disponibilità di competenze interne in tema di digitale. Lo scenario della cybersicurezza, di conseguenza, è molto variegato. “Nonostante gli sforzi di sensibilizzazione sul tema, la consapevolezza dei rischi informatici tra i dipendenti delle PA rimane insufficiente, mentre la presenza di sistemi informatici obsoleti rende difficile applicare le più recenti misure di sicurezza”, ha sottolineato Elena Vaciago, a commento dei dati della ricerca. Solo il 26% degli intervistati valuta come buone (21%) o eccellenti(5%) le misure di cybersicurezza adottate e la propria capacità di risposta agli incidenti, mentre il 54% parla di “misure consolidate”, ma con “margini di miglioramento”. Preoc-

cupano, invece, il 20% di chi ammette che le misure adottate sono insufficienti (18%) o addirittura inesistenti, perché in tema di cybersicurezza non è stato fatto nulla (2%). Sono tre, in particolare, le criticità citate dagli intervistati: la mancanza di competenze e risorse interne da dedicare alla cybersicurezza (per il 60% del campione), la mancanza di fondi per realizzare gli investimenti necessari (42%) e l’assenza di indicazioni chiare sulle attività da svolgere (36%). Gli intervistati hanno anche parlato di “mancanza di percezione della problematica a livello dirigenziale”, di “resistenza al cambiamento da parte dei colleghi” e del fatto che “i servizi sono centralizzati, servirebbe un controllo diffuso sui territori”. Tra le principali conseguenze negative di un attacco o incidente informatico vengono segnalati i costi di ripristino (67% del campione), il calo di produttività (62%), il danno reputazionale (47%) e il rischio di controversie legali (45%). Valentina Bernocco

IL DIGITALE È UNA CURA POTENTE

Con intelligenza artificiale, telemedicina e applicazioni di digital therapeutics si prospettano risparmi sostanziosi e una spinta al progresso medico-scientifico.

Il digitale non è la panacea per tutti i mali della sanità pubblica, ma certamente è un valido aiuto. Lo è per molte ragioni: è il fondamento della telemedicina, che può sopperire (almeno in parte) alle prestazioni sanitarie classiche laddove non disponibili; è la forma con cui i dati possono essere archiviati, scambiati, analizzati e recuperati, nel modo più efficiente, rapido e privo di errori; è la dimensione in cui nascono nuove applicazioni al servizio della diagnostica e dell’indagine clinica, nello studio dei farmaci, nell’imaging. La lista potrebbe continuare, ed è doveroso citare almeno le molte attese che circondano l’intelligenza

artificiale. Il machine learning va a nozze con la grande mole di dati prodotti nel settore sanitario, in mezzo ai quali può rilevare pattern e correlazioni: gli impieghi sono innumerevoli, dalla definizione di cure personalizzate agli studi sulle caratteristiche di una certa popolazione o territorio (per esempio per rilevare scostamenti statistici e fattori di rischio) nell’attività cosiddetta di Population Health Management. A tal proposito, vale la pena sottolineare che quando si parla di dati, in ambito sanitario, il patrimonio da studiare non si limita a quelli strettamente medici e clinici, ma include anche i dati statistici di un territorio o Paese. L’auto-

mazione consentita dall’AI trova, invece, impiego in tutte le attività di back office, amministrative, oltre che nella relazione tra cittadini-pazienti e istituzioni. Da questi esempi si coglie come l’intero settore sanitario si leghi al digitale sia per quanto riguarda le necessità di efficientamento e di taglio dei costi, sia per l’innovazione e il progresso medico-scientifico. In base alle stime di Grand View Research, il mercato del digital healthcare ha raggiunto nel 2023 un giro d’affari mondiale di oltre 240 miliardi di dollari e si prevede un avrà un tasso di crescita annuale composto pari al 21,9% tra il 2024 e il 2030. A fare da traino sarà soprattutto la domanda di piattaforme software per la telemedicina, per le cosiddette “terapie digitali” (digital therapeutics, con l’uso di app e dispositivi indossabili per il monitoraggio dell’aderenza a stili di vita sani e prescrizioni) e per l’emissione e delle ricet-

Immagine di Freepik

LA RIVOLUZIONE DATA-DRIVEN

“La sanità italiana è pronta per una rivoluzione data-driven. L’analisi dei dati, potenziata dall’intelligenza artificiale, può trasformare il sistema, rendendolo più efficiente, personalizzato e sostenibile. Il Fascicolo Sanitario Elettronico e la crescente apertura degli italiani verso il digitale, come evidenziato dal report 'Outlook Salute Italia 2023' di Deloitte, dimostrano questa propensione al cambiamento. La sfida è creare un ecosistema in cui i dati fluiscono in modo sicuro, alimentando modelli predittivi che permettano di prevedere e prevenire le malattie, di ottimizzare l’allocazione delle risorse e di personalizzare le cure in base alle esigenze individuali di ogni paziente. La Piattaforma Nazionale di Telemedicina è un esempio concreto di questa trasformazione in atto. Il futuro della sanità è data-driven: l’innovazione tecnologica, guidata da una solida strategia di gestione dei dati, è la chiave per cure più efficaci e accessibili a tutti”

Luca Centurelli, public sector manager di Cloudera

te elettroniche. Secondo Deloitte, come si legge nel recente report “Health Care Sector Outlook 2024”, tra le tendenze che plasmeranno il settore nei prossimi anni spiccano l’intelligenza artificiale (che a detta degli analisti aiuterà a democratizzare l’accesso alle prestazioni sanitarie),

l’affermazione della telemedicina e la ricerca di una maggiore sostenibilità. Qualche numero, pur riferito ai soli Stati Uniti, rende l’idea del potenziale da cogliere: l’utilizzo dell’AI potrebbe consentire 360 miliardi di dollari di risparmi in cinque anni, mentre il mercato delle piattaforme

INFRASTRUTTURE PER LA TRASFORMAZIONE

“L’impegno di Google per la salute è profondamente radicato nella sua missione che prevede di organizzare le informazioni del mondo e renderle universalmente accessibili e utili. Questo impegno va ben oltre la semplice fornitura di risultati di ricerca; comprende un approccio olistico alla sanità che responsabilizza gli individui, trasforma l’erogazione dell’assistenza e rafforza la salute della comunità, con l’intelligenza artificiale che svolge oggi un ruolo fondamentale nel guidare il progresso su tutti i fronti. Con questo obiettivo nasce Google Health: uno sforzo a livello aziendale per aiutare miliardi di persone a vivere una vita più sana. Guidato dalla dott.ssa Karen DeSalvo, Chief Health Officer, Google Health è un’iniziativa di Google che sfrutta i punti di forza dell’azienda, tra cui l’AI e i Large Language Model (LLM), per migliorare la salute e il benessere di miliardi di persone a l ivello globale. In questo contesto, Google Cloud gioca un ruolo fondamentale nel supportare l’assistenza sanitaria attraverso un’infrastruttura resiliente e affidabile e una costante innovazione attraverso l’AI. Infatti, Google Cloud fornisce un’infrastruttura robusta e sicura per le organizzazioni sanitarie al fine di scalare l’innovazione, migliorare l’interoperabilità, stabilire solide basi di dati e implementare strumenti di AI generativa consolidando ulteriormente il suo impegno a trasformare il settore sanitario garantendo la massima sicurezza e privacy.

Se pensiamo a casi reali sul nostro territorio, le tecnologie Google Cloud hanno consentito all’Istituto Europeo di Oncologia e al Centro Cardiologico Monzino di sviluppare una clinical data platform basata su soluzioni di intelligenza artificiale che permette ai loro team di ricerca di classificare e analizzare i dati clinici anonimizzati a una velocità 300 volte superiore rispetto ai metodi tradizionali utilizzati in precedenza. L’approccio di Google alla sanità è completo e multiforme, e comprende la responsabilizzazione dei consumatori, il supporto agli operatori sanitari e le iniziative per la salute della comunità. L’AI, inoltre, svolge un ruolo centrale nel guidare l’innovazione e trasformare l’erogazione dell’assistenza sanitaria. L’impegno di Google e di Google Cloud è quello di continuare a sviluppare le migliori tecnologie per garantire soluzioni efficienti, responsabili e incentrate sul paziente per un’assistenza sanitaria più accessibile, equa ed efficace per tutti”.

Google Cloud

V.B.

per l’interoperabilità dei dati clinici quasi raddoppierà di valore nel giro di quattro anni (dai 3,4 miliardi di dollari del 2022 ai 6,2 miliardi stimati per il 2026). Sempre negli Stati Uniti si contano ormai circa 1.500 vendor di intelligenza artificiale per il settore sanitario.

FRA SOSTENIBILITÀ E INNOVAZIONE TECNOLOGICA

Ego, società produttrice di macchinari per il giardinaggio, usa il digitale come leva di business ma anche di impatto ambientale.

Sull’alimentazione a batteria Ego ha costruito la propria strategia di aggressione al mercato dei macchinari per il giardinaggio. La divisione ricerca e sviluppo, nella sede centrale in Germania, ha messo a punto già da qualche anno un sistema brevettato che consente di equiparare le prestazioni dei modelli a batteria a quelle dei sistemi alimentati con i ben più inquinanti motori a benzina. Oggi l’azienda, distribuita in Italia da Brumar, ha conquistato fette di mercato facendo leva proprio sull’innovazione abbinata alla sostenibilità. Dietro, naturalmente, c’è un considerevole apporto delle tecnologie digitali, usate

tanto per affinare la ricerca su nuovi materiali e soluzioni ergonomiche quanto per rendere più efficienti i processi produttivi e organizzativi. Abbiamo approfondito il tema con Otello Marcato, sales manager Southern Europe, Middle East & South Africa di Ego.

Che ruolo ha l’intelligenza artificiale per voi?

Ego è costantemente impegnata ad innovare, il nostro team R&D di oltre 400 tecnici altamente qualificati ne è la testimonianza più efficace. Questi tecnici sono responsabili dello sviluppo e della fornitura di utensili elettrici puliti e af-

fidabili, un’area del business in continua evoluzione dove le applicazioni stanno diventando sempre più numerose. Questo significa un impegno crescente, che riusciamo a soddisfare anche grazie all’utilizzo dell’intelligenza artificiale. La adoperiamo soprattutto nella fase di progettazione vera e propria per accelerare il lavoro (normalmente sarebbe stato un compito manuale) per la gestione della produzione e dei flussi, ma anche per l’attività di analisi della concorrenza e del mercato.

Quali soluzioni tecnologiche vi aiutano a gestire la catena di fornitura?

Il nostro gruppo è altamente integrato verticalmente, gestendo al proprio interno quasi tutti i processi produttivi. Questo permette di minimizzare i rischi dovuti a una catena di fornitura più lunga e complessa. Tuttavia, attualmente sono in atto molte soluzioni per garantire che tutti i sistemi del gruppo abbiano la capacità di operare insieme, sia a livello di produzione sia a livello interregionale. Per la maggior parte i nostri progetti sono incredibilmente complessi e richiedono la collaborazione dei vari team internazionali per progettare strumenti innovativi, durevoli e potenti, con prestazioni di livello superiore. Coinvolgendo tutte le regioni e tutti i dipartimenti, servono autorizzazioni di sicurezza internazionali e la definizione di standard di sicurezza e qualità a livello globale, compito che affidiamo al nostro team professionale di ingegneri di collaudo.

In che modo gli strumenti digitali vi aiutano a migliorare l’impatto ambientale dei vostri prodotti?

Ego è stata fondata con un obiettivo semplice: impiegare tecnologie avanzate per sviluppare un sistema innovativo per utensili a batteria con molteplici vantaggi, uno dei quali è ridurre al minimo l’impatto sull’ambiente. In più di

INDUSTRIA SEMPRE PIÙ DIGITALE

L’industria è sempre più smart. Fortune Business Insights calcola per il mercato dello smart manufacturing, per le sue tecnologie e i servizi associati, un giro d’affari mondiale di quasi 350 miliardi di dollari (349,8 miliardi) nel 2024, in sensibile crescita sui 310,92 miliardi del 2023. Il vero boom è atteso nei prossimi anni, con la previsione di sfiorare i mille miliardi di dollari (998,99 milioni) di valore mondiale entro il 2032. I grandi player del mercato oggi sono in gran parte statunitensi: Hp, Emerson Electric, General Electric, Honeywell International e Rockwell Automation. Accanto a loro e al colosso giapponese Mitsubishi, l’Europa si difende con la svizzera Abb, la francese Schneider Electric e le tedesche Siemens e Robert Bosch. Il modello 4.0, fondato sulla digitalizzazione e sui dati, trova numerose declinazioni sia nell’industria di processo (chimica, farmaceutica, mineraria, metallurgica, lavorazione del legno e della carta) sia nell’industria discreta (manifattura pesante, aeronautica, automotive, armi, macchinari industriali, semiconduttori, elettronica). Pur nella variegata casistica, possiamo dire che tecnologie chiave dello smart manufacturing sono la stampa 3D, l’automazione robotica di processo, i sistemi Mes (Manufacturing Execution System) e Scada (Supervisory Controller and Data Acquisition), i computer per la gestione e il controllo dei processi industriali, i sensori, i sistemi di visione computerizzata (videocamere, software di computer vision, processori), i software di monitoraggio remoto, quelli di analytics, quelli di simulazione e digital twin e quelli per la gestione del ciclo di vita dei macchinari, oltre naturalmente alle infrastrutture necessarie per lo scambio e l’elaborazione dati, quindi reti cablate, Wi-Fi, 5G, cloud computing, connessioni Internet of Things (IoT) e machine-tomachine (M2M). A tutto ciò si aggiunge, poi, l’intelligenza artificiale, le cui applicazioni spaziano dalla manutenzione predittiva, ai digital twin, alla cybersicurezza.

Secondo gli analisti di Fortune Business Insight, i principali fattori di spinta per il mercato saranno il machine learning (incluso il più ristretto ambito dell’intelligenza artificiale), i Big Data, la maggior diffusione di sensori, reti mobili e connettività IoT ed M2M. Precedence Research completa il quadro citando, tra i fattori di spinta, la crescente miniaturizzazione dei sensori, i sempre maggiori investimenti per l’automazione e la domanda di sistemi di robotica industriale nei Paesi in via di sviluppo. A prescindere dal settore in cui operano, molte imprese industriali investiranno in digitalizzazione per ottenere soprattutto due obiettivi: maggiore efficienza e riduzione dell’impatto ambientale. La tecnologia a maggiore impatto sarà comunque, nei prossimi anni, il 5G: non una novità, quindi, ma a fare la differenza sarà la sua diffusione. A detta di Fortune Business Insight, il 5G ha il potenziale per rivoluzionare la progettazione degli ecosistemi Internet of Things, migliorando l’affidabilità, la sicurezza, le prestazioni e le possibilità di gestione delle reti. Dal punto di vista delle applicazioni, a fare da traino saranno quelle per la domotica (come i termostati intelligenti), le smart city (sistemi di controllo dell’illuminazione e del traffico), le automobili a guida autonoma e la medicina. Nonostante le previsioni di crescita, la corsa al 4.0 è tappezzata di ostacoli. Innanzitutto, alcune aziende saranno scoraggiate dai costi della digitalizzazione, associati spesso a una sensazione di incertezza sugli obiettivi ottenibili. Un altro deterrente è la paura di sperimentare incidenti o cyberattacchi in quelli che vengono definiti come “sistemi cyber-fisici”, dove la tecnologia operativa e quella informatica si fondono. Esistono, inoltre, ostacoli di natura tecnica, relativi all’interoperabilità tra sistemi IT e OT.

trent’anni abbiamo registrato decine di innovazioni brevettate e abbiamo svariate novità mondiali a nostro nome. Oggi siamo uno dei principali produttori di utensili cordless per il giardinaggio, con oltre dieci milioni di unità fabbricate ogni anno e disponibili in 65 Paesi. Nello sviluppo del prodotto siamo in grado di ottenere campioni migliori e più finiti con l’aiuto di strumenti digitali: ciò significa realizzare prodotti con un grado di affidabilità sempre maggiore e che richiedono meno tempo per essere sviluppati e introdotti sul mercato. Significa

anche che siamo in grado di effettuare stress test virtuali prima della realizzazione del campione, per garantire di avere un prodotto superiore che duri più a lungo e quindi evitare guasti prematuri del prodotto. Siamo anche in grado di progettare soluzioni più efficaci a disposizione dei centri di assistenza per il supporto tecnico continuo sul prodotto.

Quali sono le principali minacce che vi preoccupano dal punto di vista della sicurezza informatica e come le affrontate?

L’apertura del mondo è piena di rischi e la necessità di condividere informazioni tra regioni e tra funzioni aziendali comporta rischi. Si tratta di un equilibrio delicato e pertanto riesaminiamo costantemente la necessità di una maggiore sicurezza adottando i migliori e più evoluti standard per tutelare al massimo i nostri siti produttivi smart robotizzati e i nostri magazzini automatici che usano Crm, Erp, Supplier Relationship Management, Warehouse Management System o Manufacturing Execution System Roberto Bonino

V.B.

GEMELLI DIVERSI, IN FABBRICA E NON SOLO

Hexagon ha lanciato Digital Factory, una soluzione con cui creare digital twin che aiutano nella produzione, nella gestione del ciclo di vita di macchine e prodotti e nella formazione.

“Catturare la realtà” per poi creare digital twin da cui ricavare insight azionabili e creare valore per le imprese, non solo manifatturiere. Questa è, in estrema sintesi, la proposizione di Hexagon, una proposizione che, tecnologicamente parlando, coinvolge una pletora di diverse soluzioni: sensori, Internet of Things, robotica, edge computing, intelligenza artificiale, piattaforme e applicazioni. Ma che, prima di tutto, mette in primo piano i dati. “Con i digital twin si raccolgono i dati dal campo”, ha detto Burkhard Bockem, Cto di Hexagon,

“dati che poi vengono trattati, tra le altre cose, con algoritmi di intelligenza artificiale. Il passo logico successivo è riportare il digital twin, o meglio le informazioni ricavate dal suo utilizzo, nella realtà, chiudendo il cerchio. In questo modo si possono migliorare gli impianti e i processi, mettendo a frutto il lavoro fatto con i gemelli digitali. Noi di Hexagon siamo in una posizione privilegiata per contribuire a creare questo futuro, con soluzioni già pronte e collaudate, tanto che mi piace pensare al nostro gruppo come un società di visionari e non di futurologi”.

I vantaggi delle repliche digitali

A lanciare la Digital Factory è la divisione Manufacturing Intelligence di Hexagon. Si tratta di una nuova soluzione tecnologica, progettata per aiutare i produttori a creare repliche digitali altamente accurate delle loro fabbriche. La soluzione consente di ottimizzare i layout e di modificare rapidamente le linee di produzione, nonché di progettare fabbriche future più intelligenti e sostenibili grazie a interfacce aperte che collegano i gemelli digitali degli asset del reparto produttivo. Queste soluzioni, secondo una stima della stessa Hexagon,

potrebbero far risparmiare 40 milioni di euro all’anno a un’azienda manifatturiera media, evitando errori e riducendo del 50% i costi di viaggio e di formazione in loco.

Hexagon è in grado di affrontare questo problema grazie alla sua esperienza nella fornitura di sistemi per l’acquisizione e il rilevamento ad alta precisione della realtà, di software avanzati per visualizzare e simulare in 3D qualsiasi ambiente e di flussi di lavoro collaborativi ad alta produttività basati sul cloud. Le tecnologie di digitalizzazione, già ampiamente utilizzate da oltre vent’anni nelle infrastrutture civili, nell’architettura e nella sicurezza pubblica, non hanno invece ancora espresso tutto il loro potenziale nel settore manifatturiero, dove i cambiamenti in atto richiedono ai produttori (in particolare ai proprietari di impianti industriali esistenti) di ripensare le loro attrezzature e l’utilizzo dello spazio. Secondo una ricerca condotta da Forrester e commissionata da Hexagon, il 32% delle aziende industriali ritiene che i processi manuali e i flussi di lavoro obsoleti o inefficaci siano di ostacolo

alla produttività e alla collaborazione. Secondo Hexagon, Digital Factory è un’alternativa moderna alla pianificazione tradizionale delle fabbriche, che consente non solo di incrementare la produttività, ma anche di aumentare l’efficienza nelle ristrutturazioni, prevenendo errori costosi. Inoltre, consente una collaborazione più efficiente tra i team di produzione e quelli operativi, in qualsiasi parte del mondo. Il fulcro di questa soluzione è un migliore accesso a dati aggiornati in ambienti virtuali immersivi che riflettono fedelmente la realtà, superando uno dei principali ostacoli che le iniziative di smart factory si trovano ad affrontare oggi.

Un ecosistema per il digital twin Digital Factory si avvale di un portfolio completo di soluzioni hardware e software, compresa la gamma di tecnologie di acquisizione della realtà a firma Hexagon – come lo scanner laser portatile Leica BLK2GO, il modulo di scansione autonoma Leica BLK Arc per i supporti robotizzati e mobili e gli scanner laser terrestri come Leica RTC360 – che consentono ai produttori di acquisire e ottenere nuvole di punti, dimensionalmente accurate, della superficie della fabbrica. Utilizzando il portfolio software Leica Cyclone e Reality Cloud Studio di Hexagon, alimentato dall’HxDR, i produttori possono collaborare facilmente ed elaborare rapidamente i dati provenienti da Hexagon o dall’hardware di scansione preferito dal cliente, per ricreare spazi 3D aggiornati con velocità ed estrema flessibilità.

La tecnologia Hexagon permette di organizzare flussi di lavoro completi che permettono di trarre il massimo valore dalla scansione dell’intera fabbrica e dalla conversione dei dati in modelli 3D dettagliati e funzionali, fino alla gestione centralizzata dei dati nel cloud, semplificando la collaborazione tra i

membri interni e gli stakeholder esterni, la condivisione di informazioni, feedback e il processo decisionale. Grazie a Digital Factory, le aziende produttrici saranno in grado di realizzare tour virtuali per il monitoraggio remoto della fabbrica, evitando a manager e appaltatori di recarsi sul posto. Possono anche semplificare la collaborazione da remoto tra i team e gli stakeholder in qualsiasi momento, utilizzando strumenti basati su cloud con funzionalità di analisi e modellazione con dati on-demand. I progettisti di fabbrica e i responsabili della produzione, anche da remoto, possono prendere decisioni informate e fornire feedback sulla base di dati affidabili e aggiornati. Con Digital Factory si possono anche acquisire misurazioni precise di una fabbrica, creando un modello digitale esatto e affidabile che può essere consultato in qualsiasi momento e da qualsiasi luogo. I responsabili delle fabbriche possono monitorare regolarmente l’avanzamento delle linee di produzione con minuzioso dettaglio, evitando i costi associati a errori imprevisti. Si possono anche inserire e aggiornare macchinari come centri di lavoro, stampanti 3D, robotica e sistemi metrologici, valutando la loro aggiunta o sostituzione in un modello digitale privo di rischi. In questo modo si evitano errori costosi, come l’ordinazione di parti non corrette o l’impossibilità di disporre di un ingombro o di un accesso sufficienti per l’installazione di una macchina. Infine è anche possibile creare ambienti di test operativi digitali e innovare più rapidamente: testando nuove macchine, layout di fabbrica e flussi di lavoro nell’ambiente virtuale 3D, le aziende possono identificare rapidamente la fattibilità e le considerazioni sulle emissioni. Ciò consente di comprendere meglio i potenziali vantaggi di una nuova tecnologia e di realizzare fabbriche intelligenti, come si suol dire, pronte per il futuro.

Burkhard Böckem

L’INCIDENT RESPONSE È UN’AZIONE COLLETTIVA

La risposta agli incidenti non può essere improvvisata. Le simulazioni – specialmente se non annunciate – migliorano la gestione delle emergenze e la comunicazione interna.

Dotazione tecnologica adeguata, cultura condivisa della cybersicurezza, prontezza di risposta e procedure rodate: tutto questo, e altro, entra in gioco nel momento in cui l’infrastruttura informatica di un’azienda o istituzione viene “bucata” Accade sempre d’improvviso, spesso nei momenti meno opportuni, non di rado a causa di punti deboli trascurati o di cui si è completamente all’oscuro, e negli organigrammi aziendali non c’è dubbio che il peso e la responsabilità di un’adeguata reazione ricadano sul Chief Information Security Officer (Ciso). La crescente sofisticazione degli attacchi, unita a normative europee sempre più stringenti come il Digital Operational Resilience Act (Dora) e la direttiva Nis 2, sta imponendo alle aziende di rivedere le proprie procedure e strategie. Proprio il tema dell’incident response – tra punti di attenzione e sfide che si incontrano nelle attività di rilevamento e risposta – è stato al centro di uno dei quattro tavoli di discussione tra addetti ai lavori all’ultimo “Ciso Panel” organizzato da TIG – The Innovation Group. Nel tavolo di lavoro coordinato da Andrea Licciardi, cybersecurity manager di Maire Group e co-Founder di CISOs4AI, il confronto è entrato nel merito degli scenari più complessi per i professionisti della sicurezza informatica, anzitutto perché richiedono una visione che vada ben oltre le sole questioni hardware e software.

Tra resilienza e compliance

Integrare la resilienza nelle procedure quotidiane aziendali significa costruire una struttura in grado di resistere, adattarsi e reagire efficacemente dagli attacchi informatici. Strategie creative, come l’adozione di incentivi (e viceversa, penalizzazioni) per incrementare la partecipazione dei colleghi ai corsi di formazione sulla sicurezza, possono aumentarne l’adesione e dare qualche garanzia in più sulla preparazione collettiva. Tuttavia, è ormai chiaro a tutti che non basta concentrarsi solo sulla formazione tecnica, in quanto la resilienza dev’essere by design anche nei processi aziendali fondamentali, come la gestione delle risorse critiche, la definizione di piani di continuità operativa e l’implementazione di strategie di risposta rapida. Le procedure, poi, andrebbero costantemente aggiornate, ma anche testate attraverso simulazioni realistiche che valutino la capacità dell’azienda di reagire a situazioni impreviste e gravi. Le più recenti normative hanno ridefinito gli standard di sicurezza per le aziende euro-

pee, ponendo nuove sfide ma anche offrendo opportunità di miglioramento strutturale. Il Digital Operational Resilience Act (Dora) si concentra sulla resilienza operativa digitale,richiedendo alle aziende di garantire la continuità dei servizi anche durante eventi critici.

La direttiva Nis 2, invece, mira ad aumentare la sicurezza delle infrastrutture essenziali, ampliando (rispetto alla precedente Nis) il perimetro delle organizzazioni coinvolte e i requisiti necessari per tutelare la sicurezza interna e gli stakeholder. Molte realtà, tuttavia, non sono ancora pronte per questo cambio di passo: alcune gap analysis (condotte indipendentemente) mostrano che meno del 10% delle aziende europee è adeguato ai requisiti Nis 2.

La necessità, dunque, emerge da sé: interventi strutturali che includano investimenti in tecnologie avanzate e miglioramenti nei processi interni. Senza un adeguamento strategico, le aziende rischiano non solo sanzioni, ma anche un aumento della vulnerabilità agli attacchi.

Organizzato lo scorso 19 settembre a Milano, “Ciso Panel” è uno degli appuntamenti del programma di TIG – The Innovation Group dedicato alla cybersicurezza. Accanto alla sessione plenaria, l’evento propone la formula dei tavoli di lavoro, in cui i Ciso si confrontano su specifici temi per poi condividere i risultati emersi.

Collaborazione inter-funzionale

La gestione degli incidenti di sicurezza non può essere relegata esclusivamente ai comparti IT: gli attacchi informatici più sofisticati richiedono una risposta che coinvolge più funzioni aziendali, inclusa quella legale, quella di comunicazione e delle risorse umane. Il Ciso, in qualità di responsabile della sicurezza dell’infrastruttura tecnologica, deve coordinare le diverse competenze e assicurarsi che le procedure di incident response siano ben definite, condivise e testate regolarmente tramite simulazioni.

Oltre a organizzare esercitazioni non annunciate, è formativo (sia dal punto di vista tecnico sia per migliorare la gestione dello stress) operare nella convinzione che si tratti di un attacco hacker vero e proprio. Per questo, la simulazione può avvenire in orari insoliti, come nel cuore della notte o nei giorni festivi, proprio per stimolare la prontezza e la capacità di risposta dei team. Inoltre, occorre sempre includere il management nelle procedure di risposta, per rafforzare la percezione che la cybersecurity sia una responsabilità condivisa, non una mera questione tecnica. Senza questa integrazione, le aziende rischiano di frammentare gli sforzi, aumentando la vulnerabilità e compromettendo la propria reputazione.

Intelligenza artificiale, responsabilità umana

L’utilizzo dell’AI può bilanciare la carenza di competenze tecniche del settore, dove la domanda di specialisti supera di gran lunga l’offerta, ma non è ancora possibile sostituire completamente il giudizio umano e l’esperienza sul campo dei professionisti. Prendiamo il caso estremo di un incident response completamente affidato all’AI: chi si prende il merito del successo, o soprattutto la responsabilità di un errore? Gli algoritmi possono correlare eventi sospetti su diverse piattaforme, individuare anomalie prima che

I PARTECIPANTI:

• Matteo Corsi, global IT security manager di Bomi Group

• Andrea Licciardi, cybersecurity manager Mba di Maire Group e co-founder di CISOs4AI

• Manlio Longinotti, head of business development del Sans Institute

• Barbara Marmello, group head of Ict&Erp enterprise di Joivy

• Fabio Musso, global IT cyber security director di Rina

• Alessandro Oteri, fondatore di PensieroSicuro

• Massimo Poletti, dirigente sistemi informativi del Comune di Ferrara

• Simone Santini, Ciso di Cnp Vita

• Giampaolo Tacchini, Ciso & software quality manager di Edison

• Samuele Zaniboni, senior manager of presales and tech engineers di Eset Italia

“Nel contesto dell’incident management, l’intelligenza artificiale è già uno strumento a supporto degli analisti, ma la supervisione umana rimane essenziale”.

Andrea Licciardi, cybersecurity manager Mba di

si trasformino in attacchi e persino generare strategie di mitigazione; tuttavia, l’immaturità di alcune tecnologie e la mancanza di interoperabilità tra i fornitori di software rappresentano una sfida per i Ciso e per l’evoluzione della cybersecurity aziendale. Inoltre, il concetto emergente dell’assenza di Security Operations Center (il cosiddetto Soc-less), in cui molte operazioni di sicurezza sono completamente automatizzate, solleva questioni etiche e operative. Sebbene l’AI possa accelerare la risposta e migliorare la precisione, il fattore umano rimane cruciale: supervisori esperti devono interpretare i risultati, prendere decisioni critiche e adattare le strategie in base al contesto.

Fin nel cuore dell’azienda

La cultura della sicurezza deve partire dalla consapevolezza condivisa che la responsabilità non è unicamente del Cisa o del dipartimento IT, ma di ogni singola persona, dal vertice alla base della gerarchia aziendale. È una sfida di business, dove

Maire

Group e co-founder di CISOs4AI

la prevenzione e la risposta agli incidenti rappresentano un equilibrio tra tecnologie avanzate, processi agili e un capitale umano preparato e consapevole. Le aziende più virtuose, in questo senso, stanno trasformando la formazione da obbligo formale a esperienza strategica che anticipi gli scenari più critici, come incentivato anche dal Pnrr. Coinvolgere il middle management, che spesso è l’anello debole, e promuovere simulazioni realistiche sono elementi fondamentali per rendere la cybersecurity una missione condivisa. Insomma, non basta proteggere il perimetro: occorre imparare a pensare come un attaccante, adottando una mentalità proattiva e anticipatoria, capace di svelare le vulnerabilità prima che vengano sfruttate. Inoltre, è cruciale misurare i progressi con Kpi specifici per la cybersecurity, come il tasso di segnalazione degli incidenti e la velocità di risposta, creando un sistema che premi i comportamenti virtuosi e riduca l’indifferenza al rischio

Gianluca Dotti

OCCHI PUNTATI SULLA

SUPPLY CHAIN

Fra rischi crescenti e nuovi obblighi normativi, la sicurezza della catena

di fornitura è problematica.

Prendiamo un dato fra i tanti: Gartner prevede che nel 2025 il 45% delle imprese nel mondo sarà oggetto di attacco attraverso la propria supply chain, tre volte più di quanto accaduto nel 2021. Basterebbe questo per far capire quanto oggi sia sentito il tema e quali elementi di preoccupazione serpeggino fra i responsabili della cybersecurity aziendale a vario livello. Al “Ciso Panel” di Milano, un gruppo di chief information security officer ne ha discusso per mettere a fattor comune esperienze e punti di vista, pur nella diversità del settore di appartenenza (Pubblica Amministrazione, finanza, energia e altro) e dell’eterogeneità della rete di relazioni di business che contraddistingue ogni realtà. La preoccupazione di fondo, che accomuna più o meno tutti, riguarda la necessità di tenere sotto controllo la supply chain senza dover continuamente monitorare lo stato delle cose.

Si cerca il più possibile di ottenere una garanzia duratura nel tempo sull’affidabilità delle procedure che ogni interlocutore di business ha messo in atto per rendere sicuro il proprio ambiente informativo e non costituire, di conseguenza, un anello debole e attaccabile dai malviventi tecnologici.

Non si tratta di un tema nuovo in assoluto e certamente molte delle realtà più complesse in Italia lo hanno affrontato attraverso la richiesta di certificazioni di riconoscibilità internazionale (la ISO 27001 su tutte), la presenza di Soc (Security Operations Center) o altre forme di monitoraggio delle minacce, prassi di formazione continuative nel tempo e altro. Oggi, però, l’entrata in vigore della normativa Nis 2 (dallo scorso ottobre) ha reso obbligatori i controlli di compliance su tutta la catena di approvvigionamento. Catena di cui possono far parte, a seconda dei casi, aziende strutturate e a propria volta sensibilizzate da

tempo sul tema, ma anche realtà più piccole, meno organizzate e meno dotate di budget dedicati.

Approcci eterogenei

L e prassi, a oggi, ancora divergono. Soprattutto nel settore pubblico, complici i dettami di normative specifiche come il Codice degli Appalti, la richiesta di certificazioni è più comune ed è elemento di discrimine nella scelta dei fornitori. In altri comparti prevale una logica di valutazione basata sul rischio (risk-based ), per cui si tende a comparare il peso specifico di ogni interlocutore e la sua postura di sicurezza, arrivando al punto di accettare anche un certo livello di potenziale esposizione, a seconda del grado di criticità dei dati a cui gli esterni hanno accesso. Tipico è il caso dei manutentori di impianti, fondamentali per competenza in ambiti molto verticali, spesso piccoli e poco strutturati sulla cybersecurity, ma integrati comunque nella supply chain poiché accedono a informazioni giudicate non particolarmente critiche. Specie in questi casi, la mappatura dei fornitori è un indispensabile punto di partenza e ci sono realtà che hanno affrontato il tema in tempi anche piuttosto recenti. I Ciso lavorano su liste perlopiù fornite dagli uffici acquisti, non senza difficoltà di dialogo e comprensione delle reciproche esigenze e, talvolta, con attività di formazione specifica su figure con competenze eminentemente amministrative, per una comprensione più approfondita sui rischi associati ai fornitori.

Conformità, un affare complesso C ome abbiamo osservato, la supply chain è un universo molto composito per ogni azienda almeno di una certa dimensione. Ne fanno parte soggetti di recente ingresso o in fase di rinnovo, un po’ più semplici da trattare, poiché la somministrazione dei questionari di

Immagine di vectorjuice su Freepik

qualificazione o la richiesta di documentazione sulle prassi di cybersecurity sono contestuali alla stipula del contratto. Diverso è il discorso per i fornitori già presenti nella rete da tempo e non soggetti a revisioni in questa fase di necessario allineamento alla normativa Nis 2 (oppure, per le banche, all’imminente Dora, il Digital Operational Resilience Act). Qui le pratiche differiscono a seconda dei casi. Prevale la tendenza ad aggiungere requisiti aggiornati ai contratti in essere, a tutela di possibili incidenti derivanti da fonti esterne all’azienda.

Quanto descritto fin qui aiuta a comprendere la complessità delle procedure di verifica di conformità dei fornitori di alle policy di sicurezza aziendali e alle normative. Resta il fatto che l’adesione a questi criteri non è mai uniforme per tutti i soggetti appartenenti a una supply chain.

Stabilita una modalità più o meno standardizzata di controllo e una soglia di rischio accettabile (in base a logiche di enterprise risk management), si può decidere che tutte le realtà non rientranti nei criteri indicati escano dalla rete di fornitura. Questo, tuttavia, porta con sé il pericolo di lasciar fuori aziende che per diversi motivi sono ritenute critiche, per cui la tendenza è quella di instradare soprattutto questo genere di fornitori verso modalità accettabili per l’azienda di interazione con i propri sistemi e reti, facendo in modo che, comunque vada, non sia possibile la fuoriuscita di determinati tipi di dati. La strada più auspicabile potrebbe essere quella di una responsabilità condivisa, nella quale l ’azienda che ha maggiori interessi verso la propria supply chain fa in modo che la sua rete di fornitori sia allineata, con un adeguato supporto in termini di formazione o anche di fornitura di un servizio (per esempio in presenza di un Security Operations Center).

I PARTECIPANTI:

• Simonetta Sabatino, head of cybersecurity & workplace management di Saras

• Andrea Angeletta, Ciso di Aria – Azienda Regionale per l’Innovazione Acquisti

• Pier Paolo Bortone, cybersecurity program manager di Italiaonline

• Raoul Brenna, manager of cybersecurity by design & cybersecurity awareness di Fastweb

• Giovanni Ciano, avvocato di Studio Legale Ciano

• Antonio La Vela, Ciso di Rti – Gruppo Mediaset

• Alberto Manfredi, presidente e country leader di Cloud Security Alliance

• Paola Meroni, global privacy manager di Whirlpool

• Stefano Maccaglia, global practice manager incident response di NetWitness

• Gaia Revelli, sicurezza delle informazioni risk management di Cnp Vita

• Enrico Perotti, regional sales director, Italy and Mediterranean di Delinea

“La

complessità delle supply chain, presente sia nelle aziende pubbliche sia nelle private, rende difficile una qualificazione completa e monitorata con regolarità di tutta la propria rete di relazioni di business. Per pragmatismo, si procede filtrando i fornitori in base all’impatto che ciascuno di loro può creare sui processi aziendali, ma in prospettiva sarebbe auspicabile che almeno le realtà appartenenti allo stesso settore merceologico potessero mettere a fattor comune il lavoro svolto e creare procedure virtuose di riutilizzo di informazioni corrette e validate”.

Simonetta Sabatino, head of cybersecurity & workplace management di Saras

Rischi e responsabilità

L’assunzione di responsabilità sull’accettazione di uno specifico livello di rischio può essere appannaggio dello stesso Ciso o, in presenza di un’adeguata formazione e condivisione di informazione, ai responsabili delle business unit che si servono di determinati fornitori. Nelle aziende quotate in Borsa, poi, esiste l’obbligo di delegare le decisioni a un comitato di rischio appositamente costituito, mentre in altri casi dipende dall’organizzazione interna. Casistica a parte, è emersa una certa con-

vergenza sull’idea di stabilire un insieme di requisiti minimi da chiedere a tutti i fornitori, una sorta di minimum security posture, indipendentemente dai rischi cyber che ciascuno espone o dalle gare di capitolato. Per i nuovi fornitori, i soggetti più virtuosi hanno inserito la cybersecurity all’interno dei processi di procurement, con i responsabili di funzione che intervengono nel momento in cui si attivino procedure di acquisto o di definizione di servizi informatici rilevanti.

Roberto Bonino

IL LEGAME TRA RESILIENZA E COMPLIANCE

La Direttiva Nis 2 è un’opportunità da cogliere per sviluppare, in azienda, una cultura di sicurezza pervasiva.

Il concetto di cyber resilienza si è affermatonelle aziende come un’esigenza prioritaria, anche maggiore della c ybersecurity. Quest’ultima viene oggi vista soprattutto in chiave preventiva, mentre alla cyber resilienza è affidato il compito più importante della “sopravvivenza” dell’organizzazione in caso di incidente informatico grave. Il tema affrontato nel tavolo di lavoro “Cyber resilient organization” era la valutazione degli impatti delle attuali norme, in particolare della Direttiva Nis 2, sui percorsi per rendere le organizzazioni più cyber resilienti. Si è partiti da una riflessione sul termine e sul concetto di cyber resilienza: per i Cio esso implica non solo la capacità di prevenire e rispondere alle minacce, gestendone i rischi associati, ma anche di predisporre la ripartenza e fare in modo che l’organizzazione riprenda a operare senza danni rilevanti.

I PARTECIPANTI:

I temi critici

Dal confronto è emerso che la situazione non è ancora ottimale, in quanto non sempre processi e funzioni interne sono allineati e non sempre è chiaro come si distribuiscano le responsabilità nelle varie strutture. Inoltre, è spesso trascurato il tema della “resilienza umana”, ossia, nella predisposizione di tavoli emergenziali, non si considera il fatto che, se l’emergenza dovesse durare più giorni, si dovrebbe garantire una turnazione del personale per permetterne il riposo.

Il secondo punto di discussione ha riguardato gli impatti della nuova compliance europea. Dai presenti, il riscontro è stato quello di un generale impatto positivo: soprattutto, si osserva oggi una maggiore attenzione del board alla conformità normativa, quindi una maggiore presa di responsabilità dei vertici su questi temi. Anche per quanto riguarda il budget, oggi

• Francesco Corrado, head of cybersecurity di Ferrero

• Alessandro Cosenza, co-founder di AssoCiso

• Massimo Cottafavi, director cyber security & resilience di Snam

• Sergio Insalaco, responsabile governance standard, continuità e sicurezza di Unipol

• Saverio La Pietra, senior partner digital&tech Southern Europe di Haleon Italy

• Alessio Setaro, digital solutions and digital transformation leader di Leroy Merlin

• Raoul Brenna, manager of cybersecurity by design & cybersecurity awareness di Fastweb

• Manlio Longinotti, head of business development di Sans Institute

• Andrea Solaroli, country manager di SailPoint

• Michela Bellio, senior enterprise account executive di OneTrust

il responsabile della cybersecurity ha la possibilità di difendere meglio le proprie esigenze, vista l’obbligatorietà di molte misure richieste dalla norma. Un problema che invece rimane è quello della scarsità di risorse umane per l’area cyber: anche potendo acquisirle, si tratta di persone con competenze difficili da trovare e con elevato turnover (ossia, rappresentano un investimento a breve termine).

Sono anche stati evidenziati alcuni problemi nel recepimento della direttiva Nis 2: emergono una ridondanza normativa e il rischio di uno sperpero di risorse umane ed economiche, oltre alla possibilità che il cambiamento indotto dalla compliance sia solo di facciata. C’è poi il problema della supply chain, il rischio che le piccole aziende della filiera siano abbandonate a sé stesse, non reggano il ritmo di adozione della cybersecurity imposto dalle grandi. Nelle grandi imprese, una possibile soluzione è unire i tavoli sicurezza con quelli E sg, in modo che l’eventuale costo della sicurezza per le terze parti possa essere considerato un investimento per il ranking di sostenibilità e responsabilità sociale.

Un buon allineamento

Il terzo ambito analizzato è stato la verifica dell’allineamento tra le norme e le priorità dei Ciso. Su questo, molti sono stati concordi (con differenziazioni a seconda delle singole realtà) nell’indicare un buon allineamento delle azioni indicate dalla normativa con le priorità che il Ciso si trova ad affrontare in azienda. Un argomento dove si osserva comunanza di vedute è anche quello della cosiddetta security by design, cioè la necessità di prevedere la sicurezza fin dall’inizio, oltre che in generale di diffondere una maggiore cultura su questi temi nelle organizzazioni.

Elena Vaciago

UN RITARDO DA RECUPERARE

L’adeguamento alla normative spinge a considerare i punti deboli dell'OT e a scegliere un approccio basato sul rischio.

Il mondo della Operational Technology, la tecnologia operativa, è sempre più intrecciato con l’IT. Ma il settore industriale deve ancora recuperare un ritardo nella protezione di questi ambienti dagli attacchi informatici. Il tavolo di lavoro “Industrial cybersecurity: impatto dei nuovi requisiti normativi” del “Ciso Panel” è stata occasione per fare il punto sulle iniziative per la messa in sicurezza del mondo OT. La direttiva europea Nis 2 sta favorendo nuovi progetti che puntano a recuperare il suddetto ritardo. Data l’ interconnessione a Internet e al cloud, nell’OT ormai l’analisi del rischio non si può più procrastinare.

Le buone pratiche

Dal tavolo di lavoro sono emerse raccomandazioni su come procedere: può essere utile partire da un inventario degli asset, realizzando una mappatura completa dei dispositivi OT e collegandola al tema della manutenzione da remoto, quindi al rischio legato alle terze parti relativamente agli accessi. La convergenza tra IT e OT e il monitoraggio di questi asset devono essere gestiti dal reparto IT e cybersecurity. A ltre opportunità collegate alla Nis 2 sono: il finanziamento che può derivare da questo adeguamento per realizzare il modello operativo di convergenza IT/ OT; attivare una valutazione risk-based in molteplici impianti e realtà multinazionali; individuare tecnologie di sicurezza specifiche per l’OT. Servirà inoltre definire processi di risposta agli incidenti (incident response) anche per questo mondo, immaturo da vari punti di vista, e definire le responsabilità dei proprietari e gestori degli

impianti. Inoltre è importante continuare a promuovere una formazione di sicurezza e l’allineamento tra le politiche IT e OT.

L’impatto della Nis 2

Con la Nis 2, il mondo OT è investito da una serie di requisiti (la direttiva ne elenca dieci all’articolo 21) tipici della sicurezza informatica, come l’analisi dei rischi, i piani di risposta, di continuità e backup, la gestione delle vulnerabilità, la cifratura dei dati, l’autenticazione multi-fattore per il controllo degli accessi, la formazione del personale. È evidente che serviranno investimenti rilevanti per poter accelerare in quest’area.

Nel recepimento della direttiva Nis 2 emergono zcriticità. La prima è la mancanza di sensibilità sul tema: molte realtà lamentano, ad esempio, che è il dipartimento security a doversi fare promotore della norma all’interno dell’azienda, mentre l’area legale demanda completamente il lavoro all’IT. A livello organizzativo, per adeguare l’azienda anche dal punto di vista dei processi, possono valere le

I PARTECIPANTI:

esperienze pregresse, ad esempio quella del Gdpr. In alcune aziende (specie nelle multinazionali) il regolamento sulla protezione dei dati, in quanto norma europea con ricadute diverse a livello locale, aveva richiesto un coordinamento interno notevole. La creazione di una squadra mista, legale e tecnica, con la partecipazione di compliance e HR, può aiutare a ottenere maggiore appoggio interno. Inoltre alcune organizzazioni, dovendosi confrontare con diversi meccanismi di recepimento a livello di singoli Paesi, hanno puntato a uniformarsi adottando ovunque i requisiti più stringenti.

L’altro tema che preoccupa è la gestione delle terze parti. Le filiere del mondo produttivo sono complesse e comprendono moltissime realtà. Con le piccole aziende, la strada da seguire sarà quella di guidarle nell’adozione di misure di sicurezza più stringenti, in ottica di partnership e quindi anche finanziando questo passaggio ove necessario. I problemi maggiori potrebbero riguardare i fornitori più grandi. Ad esempio, è stato citato il caso di un fornitore che abbia clienti rientranti nel perimetro Nis 2 e altri che ne sono esclusi: tale situazione potrebbe favorire scelte bimodali. Elena Vaciago

• Franco Cerutti, IT director, infrastructure and security di Gmis Carnival Corporation/ Costa Crociere

• Angelo D'Andrea, responsabile Ict security and systems management di Sea Milano

• Michele Fabbri, Ciso di De Nora e consigliere di Aipsa

• Alessandro Marzi, Ciso di A2A

• Luca Moroni, co-founder di Csa – Cyber Security Angels

• Valeria Prosser, cyber security and compliance specialist di e-phors (Gruppo Fincantieri)

• Roberto Puricelli, Ciso Emea di Marelli Europe

• Simone Rizzo, IT cyber and product security director di Haier Europe

• Paolo Scicolone, global IT security operations manager di Campari Group

TECNOLOGIE E STRATEGIE, LA DOPPIA TRASFORMAZIONE

Il settore è segnato dal riassetto societario di Tim, ma anche da sfide legate alle reti, alla gestione dei Big Data e alla personalizzazione dei servizi.

Il mercato italiano delle telecomunicazioni è alle prese con un riassetto legato ad alcune decisioni strategiche prese dai principali operatori, ma anche con le sfide poste dalle evoluzioni tecnologiche in atto. Secondo il più recente report di Mediobanca, il comparto nel 2023 ha raggiunto un valore di circa 27,1 miliardi di euro, crescendo dello 0,8% sul 2022, con un’inversione di tendenza rispetto alla decrescita degli ultimi anni (con una contrazione del 9,7% in cinque anni, il mercato italiano delle telecomu-

nicazioni è un caso unico di andamento negativo in Europa). Dal punto di vista dello scenario competitivo, l’ultimo periodo è stato caratterizzato da alcuni elementi peculiari. Da un lato, la decisione di scorporare la rete in fibra ottica di Tim (affidata a FiberCop) ha aumentato la concorrenza nel mercato, consentendo a nuovi operatori di accedere a un’infrastruttura di qualità e di proporre offerte più competitive. Anche WindTre sembrava dover andare nella stessa direzione, ma la trattativa per la cessione della rete al fondo Eqt si è per ora bloccata. Per altro verso, entro il primo trimestre 2025 si completerà la fusione per incorporazione tra Fastweb e Vodafone Italia, in direzione di un consolidamento di cui per ora si sono visti solo i primi segnali, a differenza di quanto avvenuto in altri Paesi europei.

TIG – The Innovation Group ha realizzato una ricerca qualitativa con l’intento di fotografare l’attuale scenario degli

operatori del mondo telco in Italia, alla luce delle tendenze in corso, sia di tipo strategico sia tecnologico. Abbiamo voluto approfondire, in modo particolare, come gli operatori si stiano attrezzando per sfruttare le potenzialità legate alle evoluzioni verso le offerte wholesale, private network e servizi 5G; quali scelte siano state effettuate in direzione della gestione delle reti e dell’orchestrazione delle infrastrutture; ma anche come si stia procedendo verso la semplificazione del customer service lifecycle.

Strategie a confronto

Avendo interpellato quasi tutti i principali operatori del settore, possessori di infrastruttura, wholesaler e system integrator, emerge innanzitutto un quadro polarizzato tra chi propende per una separazione tra società che gestiscono le infrastrutture (NetCo) e società di servizi (SerCo) e chi, invece, preferisce mantenere un controllo completo su tut-

Immagine di upklyak da Freepik

ta la catena tecnologica e commerciale. È opinione comune che la divisione sia comunque il percorso segnato, a tendere, soprattutto per ragioni di razionalizzazione della matrice dei costi e di organizzazione interna. Fanno eccezione gli operatori wholesale, per ovvie ragioni di coincidenza fra presidio tecnologico e sviluppo del business.

Questione di architetture

Un tema rilevante per l’evoluzione del comparto riguarda la Open Digital Architecture (Oda). Sempre più operatori la stanno adottando, in combinazione con le OpenAPI, per modernizzare le proprie infrastrutture e offrire servizi più innovativi. Questa tendenza è particolarmente evidente in realtà con interessi diretti in ambiti come 5G, IoT e digitalizzazione dei servizi. Tuttavia, nello scenario italiano si tratta ancora di un tema più di prospettiva che di attuazione già avviata. Certamente, guidano il percorso in questa direzione soprattutto la necessità di avere una visibilità completa sulla rete, le esigenze di orchestrazione e la possibilità di offrire accesso a provider esterni, in modo particolare nel caso dei wholesaler. Tuttavia, l’implementazione di Oda e OpenAPI richiede una profonda trasformazione delle infrastrutture e dei processi aziendali e, in diversi casi, le esigenze di razionalizzazione e riduzione dei costi vengono anteposte ad altre scelte.

5G e reti “affettate” Uno dei grandi ambiti di focalizzazione per gli operatori delle telecomunicazioni riguarda il 5G e il suo potenziale di espansione. In questo contesto, il network slicing appare come una delle funzionalità chiave del 5G, poiché consente di suddividere una rete fisica in più reti logiche, ognuna con caratteristiche specifiche per soddisfare esigenze differenziate. Se, tuttavia, le premesse di scenario

appaiono più che promettenti, nella realtà degli operatori italiani prevale ancora una certa prudenza. Il 5G è già un terreno di applicazione concreta in settori come il manifatturiero, l’healthcare o i trasporti, fra gli altri. Tuttavia, guardando al panorama complessivo emerso anche dalla nostra ricerca, se tutti concordano sulla convinzione che saranno le applicazioni business e non il mercato consumer a guidare gli sviluppi, i costi da sostenere e le difficoltà a individuare un chiaro ritorno sugli investimenti stanno ancora frenando l’adozione del 5G.

L’opzione digital twin

Un altro tema caldo per chi deve gestire complesse infrastrutture di rete è la realizzazione di un digital twin che ne possa replicare fedelmente le varie componenti, dalle antenne alle fibre ottiche, passando per i data center. Nel contesto italiano, la situazione appare abbastanza polarizzata tra operatori tradizionali, alle prese con una complessità infrastrutturale che funge ancora da barriera, e soggetti di più recente costituzione, che hanno già implementato un “gemello digitale” dell’infrastruttura. Nei casi più virtuosi, l'avvento dei digital twin sta influenzando la trasformazione del network asset inventory, ovvero dell’elenco dettagliato di tutti gli elementi di una rete, inclusi i loro attributi e la loro posizione.

Sostenibilità, una strada obbligata Un discorso a parte merita il tema della sostenibilità. Tutti gli operatori hanno messo in atto misure volte a ridurre il loro impatto ambientale. La strada da percorrere appare ancora lunga, ma ci sono delle tendenze già ben delineate. La dismissione delle infrastrutture tradizionali in rame è in corso. Per il completamento occorrerà ancora qualche anno, ma c’è ormai una convergenza diffusa verso la tecnologia Fiber to the Home (Ftth). Sempre più operatori, poi, stanno

investendo in fonti di energia rinnovabile per alimentare le proprie infrastrutture, ad esempio con l’installazione di pannelli solari sui siti di trasmissione. Molte delle scelte effettuate o in valutazione, tuttavia, devono fare i conti con gli oneri economici implicati. Inoltre serpeggia una certa difficoltà a individuare il corretto equilibrio fra le informazioni da condividere nei report di sostenibilità che tutti redigono e ciò che, invece, si aspettano gli azionisti in termini di redditività.

Il “viaggio” del cliente

Nel mondo delle telecomunicazioni italiane, il customer lifecycle management è diventato un elemento strategico per gli operatori. Nello scenario analizzato per la ricerca, la declinazione del concetto varia molto a seconda della natura del carrier. Nei rapporti di tipo B2B (o B2B2C) l’interlocutore è più spesso un partner, entro una rete più facilmente controllabile, mentre nel B2C sono state da tempo adottate soluzioni che consentono di seguire il cliente lungo tutto il suo “viaggio” (customer journey, nel lessico del marketing), arrivando per esepmpio a forme avanzate di marketing contestuale. In questo scenario ha assunto un rilievo essenziale il tema dell’omnicanalità, poiché i clienti si aspettano di poter interagire con l’operatore attraverso molteplici strumenti digitali, come app, chatbot o social media. L’intelligenza artificiale viene già utilizzata in diversi ambiti, sia nelle infrastrutture (individuazione di anomalie, ottimizzazione degli interventi tecnici e simili) sia nella gestione della clientela (misurazione dei livelli di soddisfazione, clusterizzazioni geografiche o per categorie). In compenso, l’AI generativa appare per ora un terreno di prime sperimentazioni, con qualche progetto in fase di produzione, soprattutto nella gestione documentale (contratti, documenti tecnici e altro).

Roberto Bonino

PERCORSI COMPIUTI E ANCORA IN DIVENIRE

Sempre più i telco provider si stanno evolvendo in aziende di servizi, con una diversificazione dell’offerta, ad esempio in direzione delle assicurazioni o dell’energia, sfruttando la peculiarità di avere una forte penetrazione nel mercato consumer. La quantità di clienti che ciascun operatore ha a disposizione rappresenta un valore incredibile, da sfruttare al meglio attraverso progetti evolutivi in direzione dell’omnicanalità e della customer experience. Noi stessi abbiamo sviluppato progetti di Contestual Marketing Automation che, basandosi su un’adeguata data strategy, consentono di portare sul mercato in tempo reale offerte mirate alle effettive e peculiari esigenze del singolo cliente.

Luca Quattropani, head of telecom media and technologies di Capgemini

Siamo una realtà che ritiene di generare valore nelle aree suburbane e periferiche, attraverso la miglior infrastruttura di connettività alternativa alla fibra ottica proprio nei territori dove un investimento in quest’ultima direzione non è economico. Siamo dotati di un’infrastruttura completa fino all’accesso con tecnologia Fwa (Fixed Wireless Access) e gestiamo la filiera in modo completo. Nel mondo dove operiamo, una componente fondamentale è la capacità di installare la connessione a casa del cliente, quindi un processo di attivazione efficace permette di valorizzare l’infrastruttura offerta. Antonio Carlini, Cio, e Marco Arioli , head of telecom media and technologies di Eolo

FiberCop, grazie alla capillarità della sua rete in fibra e ai suoi asset, al knowhow delle persone e alla presenza fisica sul territorio, sta creando un’infrastruttura unica a livello nazionale, aperta a tutti gli operatori del settore, tecnologicamente all’avanguardia, caratterizzata da elevati standard di sicurezza e che valorizzi le tecnologie e competenze sia nazionali sia derivanti dalla partecipazione a progetti comunitari nel campo dell’innovazione. La condivisione di questa infrastruttura permetterà alle aziende di settore di focalizzare gli investimenti sui segmenti differenzianti come l’offerta di nuovi servizi, utilizzando i servizi di larghissima banda, di cloud computing, di processamento intelligente dei dati messi a loro disposizione in modo equo e regolamentato. Questo ruolo diverrà ancora più importante se guardiamo il trend per cui in aree locali si assiste alla necessità dei location owner (come aeroporti, stadi, ospedali, campus, parchi) di diventare essi stessi fornitori di servizi per i propri clienti.

Elisabetta Romano, chief technology & operations officer di FiberCop

Ognuna delle nostre 24mila torri contiene all’interno gateway legati a sensori connessi in NarrowBand, per cui la nostra infrastruttura è in grado di abilitare le smart city oppure i sistemi di gestione del controllo del territorio, anche con droni. Questa è la nostra visione della trasformazione digitale del Paese e qui stiamo concentrando gran parte dei nostri investimenti. L’anno scorso abbia-

mo avviato un piano di trasformazione della nostra azienda che ha fatto leva su due perni. Il primo riguarda l’implementazione di una piattaforma IoT che controlla tutti i nostri siti attraverso una rete di sensori, per misurare anche l’energia consumata. Il secondo riguarda l’introduzione di una piattaforma di asset management per la digitalizzazione dei nostri siti. Ci serve per tenere sotto controllo tutti gli aspetti tecnici e contrattuali, ma ci consente anche di fare la progettazione su digital twin. In prospettiva, vorremmo offrire accesso a queste informazioni anche ai nostri stakeholder interni e ai clienti. Andrea Mondo, director technology & operation di Inwit

Da quando siamo nati abbiamo compiuto un notevole sforzo per accelerare in Italia la costruzione della rete Ftth (Fiber to the Home) e in otto anni abbiamo sviluppato oltre 130mila chilometri di infrastruttura in fibra ottica. L’architettura IT, che abilita la digitalizzazione di asset e processi, è basata su piattaforme leader di mercato, in grado di rispondere alle evoluzioni delle tecnologie di rete e dei servizi per i cittadini e le aziende. In questo periodo, stiamo lavorando per portare la fibra anche nelle zone più remote del Paese, dove nessuno aveva progettato di offrire una tecnologia come l’Ftth. Manca ancora, però, la corretta informazione su come utilizzare questa opportunità. Un importante passo nella nostra strategia di supporto allo sviluppo delle aree bianche è l’Easy Delivery, un approccio operativo che, attraverso

SFIDE APERTE, NON SOLO TECNOLOGICHE

Le telco si trovano in un momento cruciale di trasformazione, in cui le scelte strategiche attuate oggi ridisegneranno lo scenario futuro del settore. Tra gli operatori che hanno intrapreso la strada del delayering, separando infrastrutture e servizi, e quelli che puntano su un’offerta diversificata, le sfide principali risultano simili: gestire i costi di implementazione delle nuove tecnologie, che gravano su bilanci già in difficoltà, e integrare le innovazioni con infrastrutture spesso ereditate dal passato.

In questo contesto, il 5G emerge come una tecnologia cardine, capace di abilitare nuovi modelli di business tramite il network slicing e di offrire nuove opportunità di monetizzazione. L’ambizione di un digital twin di rete per governare la crescente complessità si affianca a reti sempre più autonome, supportate da algoritmi avanzati di AI e GenAI per ottimizzare i processi. Architetture non chiuse come Oda e OpenAPI segnano un passo decisivo verso ecosistemi più collaborativi, ma la loro integrazione richiede il giusto equilibrio tra apertura tecnologica e semplificazione operativa.

Un altro tema chiave riguarda la sostenibilità, che si traduce sempre più in un’opportunità di trasformazione strategica. La migrazione verso infrastrutture cloud non solo abilita processi più agili, ma contribuisce a ridurre i consumi energetici rispetto alle soluzioni on-premise, sostenendo gli obiettivi di riduzione delle emissioni.

Federico Naldi, country sales account Telco di Comarch

l’impiego dei Big Data, prevede di categorizzare i numeri civici per identificare quelli dove possiamo garantire un livello di attivazione in tempi brevi. Gli operatori impegnati a livello commerciale in quelle zone possono, così, contare su tempi di attivazione paragonabili a quelli delle città.

Nicola Grassi, direttore technology, e Mauro Accroglianò, direttore mercato residenziale di Open Fiber

Certamente, un’area di grande focalizzazione per noi riguarda il 5G. Come sappiamo, la tecnologia ha mosso i primi passi con l’accesso radio e questo ha generato una concentrazione essenzialmente sulla velocità e non tanto sullo sviluppo di nuovi servizi dedicati al business. Arrivare, invece, all’implementazione di una rete core 5G standalone permette di essere molto più customizzati e destinare fette di capacità per particolari applicazioni. Questo allarga notevolmente le capacità di applicabilità specialmente in contesti di business, perché ad esempio può consentire di coprire in modo completamente wireless

dei campus. Certamente vogliamo creare opportunità di business con questo genere di applicazioni, ma il modello di attuazione è di tipo aperto verso altri player complementari alla nostra proposizione infrastrutturale.

Livio Pogliano, head of roaming & carrier operations di Vodafone Group

WindTre dispone di una rete capillare e performante sulla quale continuiamo a investire, come dimostra l’acquisizione di OpNet, che ci consentirà di potenziare il servizio alla clientela. Per quanto riguarda l’offerta, proseguiamo nella nostra strategia di diversificazione. In ambi-

to B2B, dove registriamo un’importante crescita, abbiamo acquisito l’azienda italiana Rad per rafforzare la proposta di cybersecurity e puntiamo su innovazioni come il network slicing, che consente di creare porzioni di rete con elevati livelli di sicurezza, affidabilità e performance, differenziate in base alle necessità dei singoli clienti corporate. In ambito consumer, abbiamo ampliato la nostra offerta affiancando ai servizi di telecomunicazioni anche energia e assicurazioni, per venire incontro alle esigenze delle famiglie attraverso proposte chiare e trasparenti.

Maurizio Sedita, Chief commercial officer di WindTre

LA GENAI VA SULLE LINEE DI PRODUZIONE

La tecnologia di Userbot.AI ha trasformato le attività di manutenzione e troubleshooting dei macchinari.

In campo industriale l’intelligenza artificiale è stata, finora, sinonimo soprattutto di automazione e manutenzione predittiva, riferite sia ai macchinari sia alle reti di telecomunicazione e ad altri sistemi. Ma anche l’AI generativa è ormai entrata in fabbrica, per così dire, al lavoro di fianco alle linee di produzione. Fondata nel 1969 nel bresciano, Mecolpress è oggi una realtà multinazionale che serve oltre 400 clienti in 58 Paesi, costruendo presse meccaniche, elettroniche, idrauliche e bilancieri per stampare a caldo, coniare e sbavare i metalli. L’azienda cercava un modo per velocizzare le attività di manutenzione e troubleshooting sui macchinari, così da poter ridurre i tempi di assistenza (e anche la dipendenza dall’intervento di operatori quando possibile) e migliorare la soddisfazione dei clienti di tutto il mondo. Malcolpress puntava, quindi, ad automatizzare l’assistenza

LA SOLUZIONE

MIA (Mecolpress Intelligenza Artificiale) è un assistente di intelligenza artificiale basato su Large Language Model e su tecniche di Retrieval-Augmented Generation, che permettono di migliorare l’accuratezza degli output e l’affidabilità del modello.

tecnica, per velocizzare la risoluzione di problemi complessi direttamente sulle linee di produzione e migliorare dell’efficienza operativa degli addetti. A tal fine, era necessario garantire al personale di diversi Paesi un accesso immediato a manuali e guide, indipendentemente dal fuso orario e con un supporto multilingua.

L’azienda si è quindi rivolta a Userbot.ai, società milanese (e marchio di Neuraltech) specializzata in soluzioni di intelligenza artificiale. Quello messo a punto per Malcolpress è un assistente virtuale basato su tecnologie di AI generativa e Retrieval-Augmented Generation (Rag), che supporta i tecnici in loco nella manutenzione e nel troubleshooting delle presse, in modalità continuativa e indipendentemente dal fuso orario, 24 ore su 24 e sette giorni su sette. Battezzato MIA (Mecolpress Intelligenza Artificiale), questo strumento permette di velocizzare le procedure, dato che gli operatori possono risolvere rapidamente le richieste più comuni senza attendere supporto tecnico: l’azienda si aspetta una riduzione dei tempi di assistenza di circa il

60% e conta di poter evitare fino al 40% dei ticket che richiedono intervento umano. MIA fornisce agli operatori un supporto continuativo e multilingue e inoltre ha consentito di digitalizzare le informazioni di un manuale d’uso composto da oltre mille pagine.

“Sono entusiasta del percorso che stiamo intraprendendo con Userbot.AI”, afferma Carlo Contri, direttore tecnico di Mecolpress. “Ho sempre creduto nell’innovazione e grazie a questa soluzione siamo in grado di fornire supporto immediato e continuo ai nostri operatori in tutto il mondo. Ho coinvolto un team altamente qualificato per lavorare sull’integrazione dei manuali delle nostre macchine e, finora, i risultati sono andati ben oltre le aspettative iniziali. Sono convinto che questa tecnologia ci permetterà di migliorare significativamente la nostra efficienza operativa e il supporto tecnico ai clienti”. L’utilizzo dell’assistente virtuale consentirà quindi rendere più efficienti le operazioni di manutenzione e troubleshooting, nonché di migliorare il servizio offerto e l’esperienza dei clienti. “La partnership con Mecolpress dimostra come l’AI generativa e le tecnologie avanzate di Retrieval-Augmented Generation possano rivoluzionare l’assistenza tecnica nel settore industriale”, commenta Antonio Giarrusso, Fondatore di Userbot.AI. “Questo progetto rappresenta un esempio concreto di come l’intelligenza artificiale e i modelli di linguaggio di grandi dimensioni possano potenziare l’efficienza operativa e trasformare radicalmente il modo in cui le aziende affrontano la manutenzione e il supporto tecnico anche in ambienti altamente innovativi e tecnicamente complessi come quello di Mecolpress”. L’azienda bresciana conta di estendere l’impiego dell’assistente di intelligenza artificiale ad altre linee di prodotto e processi. Inoltre sta valutando di utilizzare dei bot per agevolare partner e rivenditori di tutto il mondo nell’accesso a informazioni tecniche e contenuti di formazione sui prodotti Mecolpress.

UN VIAGGIO NELLA NUVOLA

DAVVERO SPAZIALE

L’azienda joint-venture tra Leonardo e Thales ha scelto di migrare da un Erp Sap on-premise al cloud, centralizzando in Italia le attività relative al software gestionale.

Dalla terra allo spazio, dall’onprem alla “nuvola”. Sono di diverso tipo i viaggi affrontati da Telespazio, società fondata nel 1961 a Roma e partecipata da Leonardo e Thales. Con i suoi 3.300 dipendenti in 15 Paesi (di cui 1.500 in Italia) e un fatturato annuo di 700 milioni di euro, è uno tra i principali operatori mondiali nel campo dei servizi spaziali, occupandosi di progettazione e sviluppo di satelliti, gestione delle attività di lancio e controllo in orbita, servizi di osservazione della Terra e ancora comunicazioni integrate, servizi navigazione e localizzazione satellitare e programmi scientifici. Tecnologie di analytics su Big Data e di machine learning (per esempio per studi sul cambiamento climatico) sono il pane quotidiano per un’azienda naturalmente propensa all’innovazione, ma anche l’Enterprise Resource Planning (Erp) è uno strumento essenziale. Fino al recente passato l’azienda utilizzava Sap Ecc, la componente centrale dell’Erp di Sap, poi sostituito dal più evoluto e veloce Sap S/4Hana, che si basa su tecnologia di database in-memory Telespazio ha quindi avviato un percorso di migrazione a S/4Hana Cloud, incluso nell’offerta Rise with Sap, con un obiettivo: poter ospitare in un unico sistema Sap tutte le società estere e controllate. “Dal 2021 lavoriamo a un percorso di digitalizzazione che ha come core Sap S/4Hana Cloud con l’obiettivo di realizzare un’unica soluzione, un solo framework al servizio di tutto il gruppo”, spiega Maria Teresa Basile, senior vice president Digi-

tal Solutions di Telespazio. “L’idea è che il framework offra a ciascuna società controllata la possibilità di avere un proprio sistema informativo tecnologicamente avanzato, basato sul cloud e gestito in maniera moderna”.

Sono stati messi a confronto i requisiti delle due alternative, partendo dagli aspetti di cybersicurezza e protezione dei dati e valutando, poi, anche i costi di gestione delle infrastrutture. Il fornitore cloud scelto è Aws, che al momento della decisione era l’unico hyperscaler con data center in Italia sia per l’infrastruttura principale, sia per le attività di disaster recovery.

Al momento sono in corso attività di implementazione per le sedi di Telespazio ubicate in Francia e Romania. “Oggi”, prosegue Basile, “l’organizzazione dell’area di soluzioni digitali al servizio dei processi gestionali è centralizzata ed è gestita dall’Italia da un pool di circa quaranta persone che si occupa di assicurare a Telespazio e a tutte le controllate sia la gestione del proprio sistema informativo sia la pos-

LA SOLUZIONE

Sap S/4Hana è un software Erp progettato per l’esecuzione sulla piattaforma di database in-memory Sap Hana. Consente insight in tempo reale, con la possibilità di trattare dati transazionali e analitici in un unico sistema.

sibilità di sviluppare processi intraziendali per rendere più efficienti le attività che attualmente vengono svolte extra sistema, con il rischio di causare errori che grazie al nuovo progetto Sap andremo a eliminare”. Oggi a livello locale sono circa 1.400 gli utenti che accedono al nuovo sistema, ma una volta terminato il passaggio nelle altre realtà controllate si arriverà a 3.300. “Tutti hanno notato da subito la semplificazione e la rapidità di esecuzione dei processi e delle transazioni, migliorando quindi i risultati operativi e riducendo il tempo richiesto per la gestione delle attività”, conclude Basile.

L’RFID SPAZZA VIA GLI ERRORI

DA MAGAZZINI E LOGISTICA

L’azienda milanese usa i computer palmari e le stampanti per etichette Rfid di Zebra Technologies, ottenendo efficienza e precisione.

L’Rfid è ormai una tecnologia consolidata in ambiti come la logistica, l’interlogistica e la distribuzione, ma il suo utilizzo estensivo e combinato con altre soluzioni digitali può fare la differenza. Lo dimostra il progetto realizzato da Jas Jet Air Service, società di trasporti internazionali fondata nel 1978 a Milano, che oggi conta più di 500 dipendenti, 22 filiali operative in Italia e una presenza in 47 Paesi del mondo. Lavorando anche per aziende del settore automobilistico, dell’aerospaziale, dell’energia e del farmaceutico, Jas era intenzionata a migliorare la qualità dei propri servizi e per fare ciò doveva ottenere una maggiore visibilità sull’inventario e ridurre gli errori nelle attività di magazzino e spedizione. Fino

a quel momento, la gestione delle attività di magazzino si basava sui controlli visivi delle marcature della merce, con successiva verifica su documenti di carico stampati dal sistema operativo. “Maneggiamo centinaia di migliaia di pacchi nella sola sede di Segrate”, racconta Paolo di Tullio, business process management specialist e membro del nuovo team IT and Digital Transformation Emea di Jas Italy. “Il rischio di errore è molto concreto. Avevamo bisogno di un modo per gestire le operazioni di magazzino automaticamente e digitalmente, interfacciandole con il nostro attuale sistema operativo”. L’azienda ha quindi deciso di abbandonare l’ispezione manuale di pacchi e documenti per passare a un metodo più automatizzato.

LA SOLUZIONE

I dispositivi Zebra MC3300 e TC52 sono palmari Android con schermo tattile (e tastiera fisica, nel primo caso), funzionalità di scansione per la lettura di codici a barre ed etichette Rfid, connettività Wi-Fi e Bluetooth. Zebra ZT411 può stampare tag Rfid su vari tipi di supporto, compresi i metalli.

HT Stone, partner tecnologico di Jas, ha quindi proposto le soluzioni di Zebra Technologies per la tracciabilità e l’etichettatura. Il progetto ha previsto l’adozione dei terminali portatili Zebra MC3300 e Zebra TC52 in otto magazzini, nonché delle stampanti per etichette Zebra Rfid ZT411, in sostituzione dei dispositivi usati fino a quel momento. Ora l’azienda può stampare e codificare in autonomia le etichette Rfid, con strumenti che hanno consentito di azzerare gli errori di conteggio del magazzino di ottenere una totale precisione nel caricamento dei colli. “Grazie ai controlli Rfid immediati che possiamo effettuare ora, siamo in grado di confermare con assoluta certezza che un carico sia stato effettuato correttamente”, assicura di Tullio. “Abbiamo la certezza del 100%. "Con la verifica in tempo reale e le nuove procedure, siamo in grado di identificare in modo univoco ciascun collo che passa dai nostri magazzini e di verificarne ogni movimento. Il feedback dei colleghi è stato estremamente positivo e hanno sperimentato un alleggerimento del carico di lavoro, che aumenta notevolmente la nostra competitività aziendale”.

IL DIGITAL TWIN È UN CAPOLAVORO

Microsoft e la startup francese Iconem hanno realizzato una replica digitale, dettagliata e immersiva, della Basilica di San Pietro.

Cento anni per realizzarla e due per creare il suo gemello digitale. Un nuovo tassello si aggiunge alla plurisecolare storia della Basilica di San Pietro, per contornare l’esperienza del Giubileo sia per chi sarà in visita a Roma sia per chi resterà dietro lo schermo di un Pc o telefono. Fabbrica di San Pietro, cioè l’ente deputato alla gestione della Basilica capolavoro del Rinascimento e del Barocco, e Microsoft hanno collaborato per creare un gemello digitale in grafica 3D immersiva, potenziato dall’intelligenza artificiale, che consente di esplorare l’opera in tutti i suoi angoli, anche quelli normalmente nascosti, e da diversi punti di vista. L’uso delle tecnologie di scansione digitale, fotogrammetria (ricostruzione della posizione spaziale e della forma di oggetti a partire da due o più immagini fotografiche) e grafica 3D non sono una novità nel panorama dell’arte e dell’architettura, ma il pro -

LA SOLUZIONE

Il digital twin della Basilica si basa su oltre 400mila immagini ad alta risoluzione di interni ed esterni. I dati di fotogrammetria sono stati elaborati nel cloud di Microsoft Azure. L’intelligenza artificiale ha permesso di ottenere precisione millimetrica e di creare un ambiente 3D immersivo ed esplorabile.

getto “Basilica di San Pietro: AI-Enhanced Experience” fa un passo ulteriore, attingendo alle più evolute tecnologie di intelligenza artificiale di Microsoft.

L’iniziativa è partita due anni fa. “Siamo giunti a definire un piano coordinato di servizi e di attività di comunicazione per una Basilica in uscita”, racconta il cardinale

Mauro Gambetti, arciprete della Basilica e presidente della Fabbrica di San Pietro. “Abbiamo così potuto strutturare un sistema informativo della Fabbrica, mettere a servizio degli Uffici un Enterprise Resource Planning e avviare il processo di informatizzazione della gestione documentale, archivistica e delle risorse umane; inoltre, abbiamo realizzato il primo step del Building Information

Modeling della Basilica”.

Per tre settimane droni, fotocamere e laser hanno catturato all’interno della Basilica più di 400mila immagini ad alta risoluzione, utilizzate poi per creare un modello 3D dettagliato. Con tecniche di fotogrammetria il team della startup francese Iconem ha potuto identificare la posizione e forma di ogni elemento degno di nota. La divisione AI for Good Lab di Microsoft ha poi lavorato sui dati di fotogrammetria, ospitati ed elaborati sul cloud di Azure, per ottenere un digital twin preciso al millimetro. L’intelligenza artificiale ha completato l’opera, migliorando la visualizzazione degli interni e degli esterni e creando una ricostruzione virtuale fruibile senza interruzioni. Ma l’AI gioca un ruolo anche nelle attività di restauro e conservazione, avendo aiutato a rilevare e mappare le vulnerabilità strutturali della Basilica, come crepe e tessere di mosaico mancanti, per orientare al meglio i futuri interventi. “L’intelligenza artificiale ci permette di ammirare questa Basilica in una modalità unica e innovativa mai vista in precedenza”, ha commentato Brad Smith, vice chairman e presidente di Microsoft. “Questa partnership, che unisce istituzioni e innovazione tecnologica, ha creato un’esperienza memorabile per tutti coloro che vogliono approfondire storia e significato di questo luogo straordinario”. Per la fruizione del gemello digitale sarà attivato un sito Web dedicato, accessibile a tutti. Al digital twin si affiancheranno due mostre immersive permanenti, Petros Eni e Petros Eni Octagon, curate dallo studio di design lituano Dadada. Pensate come espansione dell’esperienza di visita della Basilica, sono fruibili in loco.

CONSUMER ELECTRONIC SHOW (CES)

Quando: 7-10 gennaio

Dove: Las Vegas, Convention Center

Perché partecipare: è uno dei maggiori eventi mondiali dedicati alla tecnologia. La scorsa edizione ha conteggiato più di 138mila visitatori e più di 4.300 aziende nell’area esibitori. Nell’edizione 2025 ospite sul palco anche Jensen Huang, amministratore delegato di Nvidia.

MOBILE WORLD CONGRESS

Quando: 3-6 marzo

Dove: Barcellona, Fiera Gran Via

Perché partecipare: all’appuntamento annuale dedicato al mondo dei dispositivi mobili e delle reti sono attesi più di 101mila partecipanti e 2.700 tra esibitori, sponsor e aziende partner.

CIO LEADERS SUMMIT

Quando: 13-15 marzo

Dove: Stresa, Regina Palace Hotel

Perché partecipare: l’evento è rivolto ai Chief Information Officer, a cui è riservata la partecipazione (insieme ai rappresentanti delle aziende sponsor). Dopo la sessione plenaria, si prosegue con una serie di tavoli di lavoro tematici.

CYBERSECURITY SUMMIT

Quando: 19-20 marzo

Dove: Milano, Hotel Magna Pars

Perché partecipare: tra i molti temi in agenda, si parlerà dell’uso della GenAI nella cybersicurezza, di compliance a Dora e Nis 2, di governance dei dati, gestione del rischio.

Quando: 24-27 marzo

Dove: Milano, MiCo Milano Congressi Perché partecipare: la conferenza dell’Institute of Electrical and Electronics Engineers quest’anno ha un focus sui nuovi orizzonti della tecnologia 6G.

LEGGIAMO I BISOGNI, ANTICIPIAMO LE ESIGENZE

Da 30 anni studiamo, progettiamo e governiamo le tecnologie. Tre aree di business per affiancare le imprese nei processi di innovazione digitale. CREATIVE AND DIGITAL AGENCY B2B EVENTS, CONTENTS AND RESEARCH

www.tig.it

CYBER SECURITY summit

19-20 marzo

MAGNA PARS EVENT SPACE Milano

PER INFO SULLE SPONSORSHIP

sales@theinnovationgroup.it www.theinnovationgroup.it

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.