Technopolis 60

Page 1

www.technopolismagazine.it

STORIE DI ECCELLENZA E INNOVAZIONE

NUMERO 60 | DICEMBRE 2023

LE GRANDI PROMESSE E LE INCOGNITE DELL‘A.I. L‘intelligenza artificiale generativa continua la propria corsa, trovando numerose applicazioni in azienda e scatenando emozioni contrastanti.

ITALIA DIGITALE

L‘evoluzione di Italo, che sta portando i propri dati sui “binari” dell'alta velocità per migliorare il servizio e la relazione con i clienti.

CYBERSICUREZZA

L‘approccio Zero Trust è quasi una direzione obbligata per le aziende, ma non semplice. Parola agli esperti sulle previsioni per il 2024.

DIGITAL TRANSFORMATION

Le infrastrutture IT sono in continuo divenire, fra cloud e data center tradizionali, percorsi virtuosi e scogli ancora da superare.



SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

N° 60 - DICEMBRE 2023 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012 Direttore responsabile: Emilio Mango Coordinamento: Valentina Bernocco Hanno collaborato: Roberto Bonino, Stefano Brigaglia, Stuart Hubbard, Arianna Perri, Elena Vaciago Foto e illustrazioni: 123rf.com, Burst, Freepix, Pixabay, Unsplash

La rivoluzione che affascina e spaventa Un futuro di specializzazione per l’AI in azienda Molto dibattito, poca strategia L’AI va in fabbrica, nelle auto, nei negozi

12 IN EVIDENZA Un anno carico di promesse di ripresa Microsoft, obiettivi fissati per il Copilot in Italia Vmware, evoluzione tecnologica e alleanze per il multicloud Sap: tecnologia e persone per l’azienda a prova di futuro Fujitsu e Finix aiutano a orientarsi nel mondo Sap Appian e la via “privata” dell’AI interna alle aziende Juniper verso il futuro della gestione dei data center Cloudera: una data platform per superare la frammentazione Yolo, il digitale in supporto agli intermediari assicurativi Il difficile lavoro degli analytics secondo Piwik Pro Sophos: nella cybersicurezza, vederci bene è importante Matrimonio tra cloud e GenAI nella strategia di Aws

26 ITALIA DIGITALE

In corsa verso il futuro Italo: dati sui binari dell’alta velocità

30 CYBERSICUREZZA Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it Pubblicità: The Innovation Group S.r.l. tel: 02 87285500 Stampa: Ciscra SpA - Arcore (MB) © Copyright 2021 The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.

Nuovo anno, nuovi pericoli (e difese) Il difficile percorso verso la “fiducia zero”

36 TELCO

La lunga marcia del 5G Sostenibilità e nuove applicazioni nelle reti di domani

40 EXECUTIVE ANALYSIS Le infrastrutture IT inseguono l’evoluzione Percorsi comuni, approcci differenziati

46 ECCELLENZE

Canale 50 Bcc Iccrea Group Gruppo Barilla Area Marina Protetta Isole Ciclopi

50 APPUNTAMENTI


Immagine di rawpixel.com su Freepik

STORIA DI COPERTINA | INTELLIGENZA ARTIFICIALE

LA RIVOLUZIONE CHE AFFASCINA E SPAVENTA Tra entusiasmi e cautele, attese e paure, il mercato dell’AI generativa si popola rapidamente di nuovi servizi e capacità.

N

ell’ultimo anno l’intelligenza artificiale generativa ha scatenato reazioni estreme, tra chi la esalta come una rivoluzione tecnologica al servizio dell’umanità e chi la teme, paragonandola a una “minaccia esistenziale”. Oltre ai risvolti della GenAI sull’occupazione, sulla cybersicurezza e sull’informazione, c’è chi crede che i più evoluti large language model possano, in futuro, sostituirsi all’uomo nelle decisioni più cruciali, dentro alle aziende, negli ospedali, nelle istituzioni e nelle stanze del potere. Pa4 | DICEMBRE 2023

rallelamente a tutto ciò, nel giro di un anno ChatGPT (il prodotto di OpenAI che ha innescato l’hype) è passato dall’essere un’applicazione chatbot che suscitava curiosità al simboleggiare una battaglia non solo tecnologica ma politica, combattuta sui tavoli dei Cda. Nel mese di novembre l’azienda di San Francisco ha prima congedato il suo fondatore e Ceo, Sam Altman, per poi richiarmarlo due giorni dopo sull’onda della protesta dei dipendenti e, probabilmente, delle pressioni dell’alleato Satya Nadella, Ceo di Microsoft. Senza ad-

dentrarci qui nel gossip delle motivazioni e dei tira e molla (ma vi accenniamo più avanti), è significativo notare come nel mercato dell’AI, più che in altre rivoluzioni tecnologiche, stia emergendo il protagonismo di alcuni informatici e imprenditori che osano spingere sul pedale dell’acceleratore. Intanto, una certezza è che sta diventando sempre più difficile star dietro alle novità. Nelle sole ultime settimane si sono susseguiti numerosi annunci, tra cui quello di GPT-4 Turbo, la più recente evoluzione del modello fondativo di OpenAI, capace di fornire risposte più coerenti e anche corrette (essendo stato allenato sullo scibile umano aggiornato ad aprile 2023). Questo modello farà


Immagine di rawpixel.com su Freepik

fare il salto di qualità al Copilot di Microsoft, lo strumento di AI integrato, ormai, nelle principali applicazioni della società di Redmond e nel sistema operativo Windows: saprà fornire risposte migliori, gestire attività più complesse e anche generare immagini di maggiore qualità, grazie all’integrazione del più recente modello di Dall-E (altra applicazione di OpenAI). Ma sono due esempi tra tanti. È sotto gli occhi di tutti il fatto che la GenAI stia colonizzando un po’ tutto il panorama dei servizi digitali, di tipo business e consumer, sia tramite prodotti fatti e finiti sia attraverso strumenti rivolti agli sviluppatori. Non

a caso, in questo numero di Technopolis l’intelligenza artificiale fa irruzione in tutte le sezioni che compongono la nostra rivista. Un boom annunciato

Ad ascoltare le voci di autorevoli analisti, il giro d’affari dell’intelligenza artificiale generativa è destinato a esplodere. Nell’ultimo report di Idc si ipotizza che la spesa complessiva del 2023 in hardware, software e servizi per l’implementazione di soluzioni di AI generativa ammonti a 16 miliardi di dollari. Non è che l’inizio: nel 2027 si arriverà a 143 miliardi di dollari. In sostanza, un valo-

re decuplicato nel giro di quattro anni. Il tasso annuo di crescita composto pari al 73,3% sarà superiore a quello degli investimenti in intelligenza artificiale, considerata in tutte le sue varianti e tipologie. Inoltre sarà 13 volte superiore al Cagr previsto per la spesa IT nel suo complesso tra il 2023 e il 2027. Sul totale degli investimenti in intelligenza artificiale, attualmente la GenAI rappresenta il 9% ma la quota salirà oltre il 28%. “L’AI generativa non è un semplice trend passeggero né puro hype”, ha commentato Ritu Jyoti, group vice president per la divisione AI e automation di Idc. “È una tecnologia trasformativa

ALLA CONQUISTA DI NUOVI TERRITORI La marcia espansionistica non si ferma. Per l’intelligenza artificiale generativa il 2023 è trascorso fra continue novità rivolte a utenti finali e aziende. Per i primi, l’offerta di chatbot si è allargata oltre al prodotto di OpenAI, con le analoghe proposte di Google (Bard), di Microsoft (Bing Chat per l’esperienza Web e Copilot su Windows e Office) e di Baidu (Ernie). Microsoft sta procedendo nell’integrazione delle funzionalità Copilot nel proprio ecosistema software, potendo anche sfruttare il più recente modello di OpenAI, GPT-4 Turbo. Nel mondo dei social media l’apripista è stata Meta, che ha portato su Facebook e Instagram, per ora in beta, dei chatbot dotati della “personalità” e di un avatar che ricorda personaggi del mondo dello spettacolo e influencer. L’azienda di Mark Zuckerberg si muove anche sul piano B2B, con un large language model (Llama, ora alla seconda versione) già preallenato ma che può essere affinato con dati proprietari. Nel mese di novembre Meta ha anche presentato nuovi strumenti di AI che permettono di generare un video a partire da immagini e didascalie. Sempre in area social su X, la nuova Twitter, si sperimenta un servizio simile ma capace di raccogliere dati dalla piattaforma oggi controllata da Elon Musk. Oltre a fornire risposte, consigli, testi confezionati ad hoc in base a prompt testuali, l’AI generativa ha anche spalancato a tutti le porte della creazione di contenuti visuali, con buona pace di fotografi, artisti e creativi, e si è ormai perso il conto delle applicazioni emuli di Dall-E, Midjourney e Stable Diffusion. Ancor più difficile è dipingere un quadro completo degli strumenti rivolti alle aziende, ma sicuramente vanno citate le tante funzionalità di Copilot integrate da Microsoft in Windows in molte applicazioni di produttività, e le corrispondenti novità di Google Workplace: si va dalla scrittura di testi su programmi editor e posta elettronica, alla creazione di presentazioni, ai riassunti delle riunioni in videochiamata. In parallelo a tutto questo, i grandi cloud provider come Amazon Web Services, Microsoft Azure e Google Cloud hanno introdotto servizi di GenAI per aziende e sviluppatori, e nuove funzioni di chatbot e copilota sono state integrate in software di grande diffusione, come quelli di Sap, Oracle e Salesforce. Quali altri ambiti potrà conquistare, nel prossimo futuro, l’AI generativa? Un buon candidato, nonostante i non del tutto prevedibili rischi associati, è il mondo della scuola. Si è già discusso, fin dal boom di ChatGPT di fine 2022, del problema dell’uso dei chatbot come facile scorciatoia per studenti svogliati, ma i potenziali utilizzi sono anche altri e non necessariamente deleteri per la didattica. OpenAI ha avviato progetti interni e collaborazioni con enti filantropici per sviluppare soluzioni al servizio degli insegnanti. In ambito scolastico e universitario, ancor più che altrove, saranno necessarie salvaguardie per proteggere il diritto d’autore dal plagio, ma anche per tutelare le prossime generazioni di studenti dal rischio di un appiattimento intellettuale.

5


STORIA DI COPERTINA | INTELLIGENZA ARTIFICIALE

la quota di aziende che usa l’AI generativa “in produzione”, come si suol dire, cioè in applicazioni già uscite dalla fase di sviluppo o di test. Assisteremo però a una rapida ascesa e nel 2026 oltre l’80% delle aziende utilizzerà la GenAI, o acquistando servizi già confezionati o portandola nelle proprie applicazioni tramite interfacce di programmazione applicativa (API). “L’AI generativa è entrata tra le massime priorità per i C-suite”, ha scritto Arun Chandrasekaran, distinguished vice president analyst di Gartner, “e ha portato un’incredibile innovazione all’interno di nuovi strumenti, al di là dei modelli fondativi. La

Immagine generata con Pixlr

con implicazioni e impatti sul business di lunga portata. Con una implementazione etica e responsabile, la GenAI è pronta per ridefinire i mercati, cambiare il modo in cui si lavora, ci si diverte e si interagisce con il mondo”. Secondo Idc, nei prossimi anni si verificherà una naturale maturazione dei progetti centrati sull’AI generativa: dalle iniziali sperimentazioni, le aziende passeranno a un utilizzo più massiccio, declinato su casi d’uso specifici. Inoltre questa tecnologia si sposterà anche nell’edge, ovvero i calcoli di AI saranno eseguiti direttamente sui dispositivi, oltre che in cloud. Secondo Gartner oggi si limita al 3%

6 | DICEMBRE 2023

domanda sta crescendo in molti mercati, come la sanità, le scienze della vita, l’ambito legale, i servizi finanziari e il settore pubblico”. Potenziali ostacoli

Nella prevista ascesa non mancano, tuttavia, alcuni fattori frenanti. Fino al 2025 le aziende saranno condizionate dall’esigenza di razionalizzare il budget, di selezionare i progetti su cui investire. Inoltre per consentire un’ampia adozione dell’AI generativa serviranno investimenti in infrastrutture di data center e di rete, nonché in sviluppo software (per migliorare l’affidabilità dei modelli fondativi) e in competenze. “Altri fattori che potrebbero limitare il tasso di investimento includono i costi, preoccupazioni sulla privacy e sulla sicurezza e la possibilità di una crisi esistenziale che inneschi grandi ostilità nei consumatori o interventi governativi”, ha scritto Rick Villars, group vice president, worldwide research di Idc. A proposito dei potenziali rischi, Gartner ha definito un modello di adozione battezzato AI Trism (acronimo di Trust, Risk and Security Management) e teso a garantire l’affidabilità, l’equità, la solidità e la explainability dei modelli sottostanti alle applicazioni, nonché a salvaguardare la protezione dei dati. “Le aziende che non gestiscono costantemente i rischi dell’AI sono esponenzialmente sbilanciate su esiti di esperienza negativa, come fallimento dei progetti e violazioni”, è il monito dell’analista di Gartner Arun Chandrasekaran. “Esiti non accurati, non etici o involontari, errori di processo e interferenze di attori malevoli possono causare problemi di sicurezza, perdite o responsabilità finanziarie e di reputazione, oltre che danni alla società”. Un noto problema, oggi come oggi, è quello delle cosiddette “allucinazioni”: di fronte ad alcune domande, imprevedibilmente, un chatbot può dare rispo-


IL FANTASMA DELLA DISINFORMAZIONE Il celebre “To be, or not to be?” di Amleto riecheggia in una nuova domanda (se non un dilemma esistenziale, quantomeno un dilemma gnoseologico) che potremmo ritrovarci sempre più spesso a formulare: “AI or not AI?”. Si chiama proprio così il nuovo servizio che aiuta a riconoscere se un’immagine digitale sia il frutto di uno scatto fotografico oppure una creazione dell’intelligenza artificiale. Ed è probabile che strumenti di questo tipo spunteranno come funghi nel prossimo futuro per aiutare ad arginare il rischio di disinformazione associato all’AI generativa. Ma se già oggi questi strumenti di debunking sono tutt’altro che infallibili, dovranno poi negli anni continuare a rincorrere le evoluzioni dell’intelligenza artificiale, diventando anch’essi sempre più evoluti e sofisticati. Il vero problema, forse, è che la lotta tra vero e falso sarà una lotta fra tecnologie, in cui l’essere umano (o almeno l’utente comune, non addetto ai lavori) sarà un semplice spettatore. In sostanza, per dribblare i rischi della tecnologia dovremo per forza affidarci ad altra tecnologia. La trasparenza sulla natura reale o artificiale di immagini, testi e video è uno dei principi difesi dall’AI Act, il regolamento sull’intelligenza artificiale già approvato dall’Unione Europea e destinato a entrare in vigore nel 2024. Chi diffonde contenuti generati dall’AI dovrà in qualche modo, con un watermark o altro metodo, segnalare che non si tratta di immagini reali. Il principio della trasparenza è una risposta sia al problema del plagio sia alla disinformazione, ma il lato oscuro delle applicazioni di GenAI non si limita a questo. C’è il rischio che, come sta già accadendo, si possa abusare di questi strumenti per diffondere pornografia, razzismo o violenza, nonché per realizzare attacchi informatici basati su video deepfake, immagini o audio manipolati. Per affrontare il problema del copyright e del plagio, le aziende sviluppatrici, come OpenAI (in GPT-4) e Meta (in Llama 2), stanno inserendo nei propri modelli dei meccanismi di controllo per riconoscere e declinare le richieste inopportune. Questi meccanismi sono, però, ancora fallaci. A titolo dimostrativo, ricercatori della Johns Hopkins University e della Duke University hanno creato un metodo di jailbreaking con cui è possibile “raggirare” i modelli di Dall-E e Stable Diffusion per ottenere raffigurazioni di persone nude, cadaveri e altre immagini disturbanti.

ste errate, che non trovano apparentemente giustificazione nei dati usati per il training dell’algoritmo. Ma il vero, più inquietante rischio legato agli sviluppi dell’AI è che possano essere sfruttati per scopi militari. Il futuro di questa tecnologia è anche legato a doppio filo con gli sviluppi e le dinamiche del mercato dei semiconduttori. I perduranti divieti del governo statunitense sulle importazioni con la Cina si inseriscono nel quadro geopolitico attuale. Tenendo lontana la Repubblica Popolare dalle più avanzate tecnologie di Intel, Nvidia e Amd, la Casa Bianca cerca di tutelarsi da una potenziale minaccia futura, quella di una guerra di cui da mesi analisti e politologi discutono. Ma in tutto questo vanno considerati anche gli interessi economici dei vendor, per i quali la Cina è stata fino a ieri un importante mercato di sbocco. Una forma di escamotage alle restrizioni

vigenti è quella di produrre le tecnologie direttamente in Cina, con partner locali: Nvidia, per esempio, ha imboccato questo percorso, annunciando lo scorso ottobre di voler realizzare delle “fabbriche di AI” insieme a Foxconn. L’AI “forte” è ancora lontana

Di intelligenza artificiale “generale” o “forte”, capace di svolgere in modo autonomo attività e di ragionare come un cervello umano, si discute da ben prima dell’exploit di ChatGPT. Tuttavia il dibattito si è recentemente riacceso dopo le indiscrezioni di Reuters secondo cui OpenAI starebbe sviluppando un modello capace di risolvere problemi matematici. Il progetto, noto con il nome in codice Q* (pronunciato “Q star”) sarebbe stato segnalato dagli stessi ricercatori di OpenAI al consiglio di amministrazione dell’azienda, messo in guardia del potenziale pericolo. I detta-

gli scarseggiano, ma si è speculato che sia stata questa la ragione, o una delle ragioni, del repentino licenziamento di Sam Altman (poi rientrato in azienda a distanza di due giorni, dopo un rimpasto del Cda). Il presidente di Microsoft, Brad Smith, forse in risposta a questi rumors ha escluso che una “super intelligenza artificiale” possa essere creata nel breve periodo. “Non c’è assolutamente alcuna probabilità che vedremo la cosiddetta Artificial General Intelligence, in cui i computer sono più abili delle persone, nel giro di dodici mesi. Ci vorranno anni, se non molti decenni, ma credo comunque che già oggi ci si debba focalizzare sulla sicurezza”, ha dichiarato Smith alla stampa britannica. Ciò di cui abbiamo davvero bisogno, ha detto, sono dei “freni di emergenza”, come quelli di un ascensore o di un autobus, controllati dalle persone. Valentina Bernocco 7


UN FUTURO DI SPECIALIZZAZIONE PER L’AI IN AZIENDA Per il 2024 si prevede il debutto di software specifici per settori di mercato e proposti in forma di servizio.

N

el 2023, il settore dell’intelligenza artificiale generativa (GAI) è stato caratterizzato da un’intensa fase di sperimentazioni e Proof of Concept (PoC). Questi test, guidati sia dalla curiosità sia dallo stupore, hanno avuto l’obiettivo di esplorare i limiti e le potenziali applicazioni dell’AI, cercando di distinguere le vere capacità dalla semplice euforia generata dall’impatto iniziale di questa tecnologia. Durante questo periodo, le aziende hanno esplorato e testato le potenzialità dell’AI generativa in 8 | DICEMBRE 2023

vari contesti, valutando la sua capacità di mantenere le promesse iniziali. Per il 2024 si prevede un cambiamento significativo in questo panorama. Le aziende iniziano a prevedere un impatto diretto e misurabile dell’AI generativa sul conto economico e sulle performance aziendali. Questa transizione segna un passo importante verso l’integrazione più profonda e strategica della tecnologia AI nelle operazioni e nelle strategie aziendali, passando da semplici esperimenti a un impiego concreto che influisce sui risultati finanziari e operativi.

Nell’anno nuovo si prevede un’ampia diffusione dell’intelligenza artificiale generativa in aziende di varie dimensioni. Tuttavia, la sua adozione nelle imprese potrebbe non essere così rapida come in altri settori, principalmente a causa delle sfide uniche che le grandi organizzazioni affrontano nell’integrare nuove tecnologie. Queste sfide includono la necessità di adattare la GAI alle specifiche esigenze aziendali, oltre a considerazioni riguardanti la privacy, la sicurezza dei dati e la scalabilità. Nonostante queste potenziali difficoltà, il valore che la GAI può aggiungere in termini di efficienza e innovazione stimola un crescente interesse nel suo impiego. La GAI sarà prevalentemente utilizzata per la crea-

Immagine di Tung Nguyen da Pixabay

STORIA DI COPERTINA | INTELLIGENZA ARTIFICIALE


Immagine di Tung Nguyen da Pixabay

zione di contenuti, ma non per operazioni complesse come la produzione o la gestione della catena di approvvigionamento. Si prevede inoltre che l’adozione della GAI nelle grandi aziende continuerà a crescere gradualmente. Attualmente, una minoranza degli utenti di chatbot AI, circa il 13%, lavora in aziende da oltre mille dipendenti. Per i Large Language Model (Llm) la percentuale è ancora più ridotta, intorno all’8%. Questo trend suggerisce che nel 2024 l’uso della GAI in organizzazioni di grandi dimensioni diventerà più diffuso, ma con una crescita graduale. Infine, è prevedibile che le società di servizi professionali saranno tra le principali ad adottare la GAI, con benefici chiave nell’ottimizzazione di processi come la generazione di contenuti, la programmazione, la comunicazione aziendale e l’elaborazione di report. Questo indica un impiego crescente della GAI in aree che richiedono personalizzazione e competenze tecniche avanzate. Tra le principali sfide per l’adozione della GAI a livello aziendale vi sono preoccupazioni relative alla privacy e alla sicurezza dei dati, la mancanza di interpretabilità e trasparenza e questioni di scalabilità. Per rendere la GAI pronta per l’uso aziendale, i software vendor devo-

Stefano Brigaglia

no concentrarsi su partnership con altri fornitori di dati e intelligence di mercato, devono anonimizzare dati aziendali sensibili mantenendo informazioni di valore e, inoltre, personalizzare l’AI generativa in base alle esigenze specifiche dell’impresa. Tuttavia, la complessità di queste sfide e il basso tasso di adozione attuale probabilmente renderanno la GAI pronta per l’uso aziendale non prima del 2025. La nascita di SaaS verticale (vSaaS, software basato su cloud realizzato su misura per specifici settori) è parte di una tendenza più ampia in cui gli utenti finali richiedono prodotti tecnologici superiori e specifici per risolvere i loro problemi aziendali. L’AI si sta evolvendo su tre livelli: modelli fonda-

GAP DI COMPETENZE DA COLMARE Il 79% delle aziende Global 2000 ha già acquistato tecnologie o ha avviato iniziative di GenAI: è quanto emerso dal recente “Benchmark Report sull’Intelligenza Artificiale Generativa”, realizzato da Enterprise Technology Research per conto di Qlik. Inoltre il 31% delle realtà del campione è intenzionato a spendere più di 10 milioni di dollari in iniziative di GenAI nel 2024. L’interesse è elevato, ma non poche aziende sembrano ancora disorientate: il 44% degli intervistati ha ammesso di non avere una strategia ben definita in merito, mentre il 60% ritiene che l’azienda non possieda adeguate competenze in organico e debba quindi affidarsi a partner esterni.

zionali, infrastruttura AI e applicazioni AI, con l’ipotesi che la prossima evoluzione dei vSaaS saranno le piattaforme AI verticali, costruite su modelli formati su dataset specifici per l’industria. I modelli fondazionali (come GPT) sono la base dello stack AI, e rappresentano un componente essenziale nell’architettura dell’AI generativa. Questi modelli sono responsabili della generazione di contenuti e del processamento delle informazioni su vasta scala. Tuttavia, a causa delle elevate richieste di capitale per costruirli e addestrarli, il numero dei fornitori in questo spazio rimane limitato. L’infrastruttura AI, che include aspetti come l’arricchimento dei dati, il fine-tuning, i database e gli strumenti per l’addestramento dei modelli, gioca un ruolo cruciale nel supportare e amplificare le capacità dei modelli fondamentali. Questa infrastruttura è in fase di rapida adozione, poiché fornisce le risorse e gli strumenti necessari per trasformare modelli e dati in prodotti tangibili e applicazioni efficaci. In sintesi, il 2024 sarà un anno di transizione per l’intelligenza artificiale generativa nel panorama aziendale. Le aziende si aspettano che la GAI non solo migliori l’efficienza e la produttività, ma influenzi anche in modo significativo le performance finanziarie e operative. Questo segna un passo importante verso l’adozione di soluzioni AI più verticali e specializzate, adatte a soddisfare le peculiari esigenze di ogni settore e funzione aziendale. Con le sfide di privacy, sicurezza, interpretabilità e scalabilità ancora da superare, l’adozione della GAI a livello aziendale diventa un percorso in evoluzione, richiedendo soluzioni innovative e personalizzate per sfruttarne appieno il potenziale. Stefano Brigaglia, AI, data science & location intelligence partner di Jakala 9


STORIA DI COPERTINA | INTELLIGENZA ARTIFICIALE

MOLTO DIBATTITO, POCA STRATEGIA IN AZIENDA Poche imprese italiane, l’8%, sono già pronte a sfruttare le tecnologie di AI disponibili. Uno studio di Cisco. A circa un anno dal debutto di ChatGPT, si moltiplicano gli studi e i sondaggi intorno ai possibili sviluppi del mercato dell’AI generativa. Anche Cisco, nel suo “AI Readiness Index”, ha analizzato il livello di preparazione delle aziende in trenta Paesi, compresa l’Italia: come si sta affrontando il salto tecnologico dal punto di vista delle strategie, delle infrastrutture, della gestione dei dati, della governance, delle competenze e della cultura aziendale? Le principali conclusioni non offrono clamorose sorprese (non lo è certo il senso di urgenza espresso dal 97% complessivo e legato alla tendenza degli ultimi sei mesi), ma possono quantomeno inquietare. A maggior ragione se ci si concentra sulle duecento aziende censite in Italia. Infatti solo l’8% appartiene al “plotone di testa”

Gianmatteo Manghi

10 | DICEMBRE 2023

di chi si considera pronto a utilizzare e implementare l’AI. Tuttavia, il 94% ha indicato di avere già approntato o in via di sviluppo una strategia definita e il 31% (dato sopra la media globale del 28%) viene descritto come “pacesetter”, ovvero ben posizionato nella direzione corretta. Le note si fanno più dolenti se si esamina il livello di adeguatezza infrastrutturale richiesto dagli sviluppi dell’AI. Qui le aziende italiane espongono un livello di adeguatezza inferiore alla media: sono l’11% (contro il 13% di media) i pacesetter, ma soprattutto sono il 18% (contro 8%) le realtà oggi ancora al palo. Il dato appare basso anche se esaminato a livello globale e si denunciano, in modo particolare, carenze di scalabilità e difficoltà a procurarsi le Gpu necessarie per le applicazioni di

intelligenza artificiale. Non va meglio, anzi, se si considera la qualità dei dati, indispensabile per poter impostare progetti di AI che restituiscano risultati utili. Il 27% delle aziende italiane (versus 17% nel mondo) si ritiene del tutto impreparato e l’82% lamenta problemi di integrazione e frammentazione. A questo corrisponde una governance ancora tutta da costruire, con un 23% posizionato al livello più basso (è l’11% su scala globale). Dal punto di vista delle competenze necessarie per affrontare la nuova fase imposta dall’intelligenza artificiale, in Italia il 94% ha investito soprattutto nel reskilling, alla luce della difficoltà di reperire giovani talenti già adeguatamente formati. Da noi, come nel mondo, sembra però che top manager e membri dei consigli di amministrazione siano più consapevoli e pronti al cambiamento. Tuttavia, pare esserci una buona disposizione all’accettazione culturale dei cambiamenti che si stanno concretizzando. Commentando i risultati dello studio, Gianmatteo Manghi, amministratore delegato di Cisco, ha posto l’accento non solo su quanto l’azienda sta facendo in termini di aggiornamento dell’offerta, ma anche sulle applicazioni concrete e sulla necessità che il cambiamento sia guidato anche dalla corretta etica. “Tutti saremo in qualche modo toccati ed è opportuno stabilire da subito come l’AI vada applicata”, ha detto Manghi. “I nostri principi sono pubblici e li applichiamo anche nei rapporti con i clienti. Abbiamo molti esempi già realizzati, dall’automobile a guida autonoma che ha percorso un tratto della Mille Miglia 2023 al telecontrollo per la distribuzione del gas con Snam”. Roberto Bonino


L’AI VA IN FABBRICA, NELLE AUTO E NEI NEGOZI Il punto di vista di Zebra Technologies sul ruolo dell’hardware e sulle applicazioni verticali presenti e future. L’hardware rende l’AI accessibile e utilizzabile in contesti lavorativi reali grazie a sistemi che permettono l’elaborazione AI edge sul dispositivo e tramite il cloud. Quando parliamo di hardware, noi di Zebra ci riferiamo ai dispositivi e alle dashboard che mettiamo a disposizione dei lavoratori in prima linea, come mobile computer, fotocamere, tablet, dispositivi indossabili. Grazie a questi strumenti, gli operatori possono così beneficiare di strumenti potenti che forniscono loro la connettività, la mobilità e le funzionalità di intelligenza artificiale di cui hanno bisogno per svolgere al meglio il proprio lavoro. La realtà aumentata e la machine vision basata sull’AI hanno permesso a Zebra di creare un “enterprise spatial computing” per gestire le attività che richiedono la comprensione dell’ambiente circostante (sia a livello di spazio sia tempo) piuttosto che basarsi esclusivamente su ciò che viene visto sullo schermo o sulla fotocamera. Le soluzioni di machine vision disponibili sul dispositivo permettono di rilevare e riconoscere centinaia di migliaia di oggetti in condizioni reali, senza il ritardo temporale e i costi che si dovrebbero affrontare con l’uso del cloud. Inoltre, è importante poter inviare in tempo reale al cloud le informazioni raccolte dagli operatori in prima linea sui dispositivi, per ottenere analisi e trend utili. Per questo è meglio disporre di dispositivi con tecnologie di connettività come piattaforme per la comunicazione degli

operatori, Wi-Fi6 e 5G, in modo che la condivisione dei dati e l’analisi AI tra sistemi e operatori possa avvenire in modo affidabile, sicuro e rapido. Secondo il “Global Shopper Study”, pubblicato da Zebra nel 2022, il 96% dei retailer adotterà l’intelligenza artificiale entro il 2027, mentre l’83% ha affermato che l’analisi prescrittiva sarà un’importante tecnologia emergente per la propria attività nei prossimi cinque anni. L’“Automotive Vision Study” mostra invece che il 44% dei decisori aziendali prevede di utilizzare la machine vision industriale entro il 2027 (un aumento dell’83% rispetto al presente) e il 52% si affiderà a soluzioni di computer vision (+73%). I settori e le aziende si trovano in fasi diverse del proprio percorso di transizione tecnologica. Per questo, l’automazione e l’intelligenza artificiale devono essere implementate quando l’azienda si sente pronta. Inoltre, è necessario educare il mercato sulle soluzioni disponibili e calcolare il ritorno sull’investimento e risultati da ottenere.

Stuart Hubbard

Le aziende vogliono risparmiare tempo e denaro, aumentare la produttività della propria forza lavoro, rendere i processi più efficienti, acquisire migliori informazioni, aumentando al contempo il numero e la soddisfazione dei clienti. È compito del fornitore di soluzioni mostrare come questi obiettivi possano essere raggiunti con la soluzione corretta, che può includere o meno l’intelligenza artificiale. Dove ci porterà l’AI nelle aree in cui opera Zebra? Riteniamo che trasformare gli attuali “sistemi di registrazione” in “sistemi di realtà” sia l’unico modo per raggiungere il livello di intelligence aziendale di cui le aziende hanno bisogno per migliorare la velocità e l’efficacia di ogni flusso di lavoro, creando una supply chain perfettamente orchestrata, in grado di adempiere agli ordini senza ostacoli, dalla fabbrica alla porta di casa del cliente o al negozio. E riteniamo che l’intelligenza artificiale abbia un ruolo importante in questa trasformazione. Penso che possiamo prevedere una maggiore adozione dell’intelligenza artificiale nelle aziende e un maggiore utilizzo di soluzioni di AI pronte all’uso per i non specialisti. Verranno creati nuovi posti di lavoro e i lavori attuali verranno modificati tenendo conto dell’intelligenza artificiale, incluso il modo in cui gli sviluppatori utilizzano la GenAI, cosa che stiamo già vedendo. Sulla scia dell’entusiasmo per la GenAI, saranno sviluppati nuovi tipi e versioni più avanzate di intelligenza artificiale e casi d’uso. Inoltre, i modelli saranno più maturi dal punto di vista etico, sia per l’uso dei sistemi sia dei dati generati dall’intelligenza artificiale. Stuart Hubbard, senior director of AI and advanced development di Zebra Technologies

11


IN EVIDENZA

l’analisi UN ANNO CARICO DI PROMESSE DI RIPRESA

12 | DICEMBRE 2023

cellulari, numero in crescita del 4% sul 2023. La ripresa sarà sostenuta da diversi fattori, tra cui la crescita di domanda nei mercati emergenti e il lancio di nuovi modelli di fascia alta con migliori fotocamere, processori più potenti e batterie a più lunga durata. Per quanto riguarda il cloud computing, gli analisti scommettono che il 2024 sarà un anno di crescita alimentata dal proseguimento di progetti di “migrazione” ma anche, ancora una volta, dall’intelligenza artificiale generativa. Il cloud e in particolare l’Infrastructure as-a-Service (IaaS) permette di soddisfare i requisiti di potenza di calcolo, memoria e storage necessari sia per l’allenamento degli algoritmi sia per il funzionamento delle applicaFoto di stokpic da Pixabay

Non bisogna avere la sfera di cristallo per poter scommettere che il 2024 sarà, un po’ come lo è stato il 2023, l’anno dell’intelligenza artificiale generativa. Delle molte attese e previsioni su questo argomento abbiamo già discusso nelle pagine precedenti, mentre delle tendenze di cybersicurezza parliamo a pagina 30. Intelligenza artificiale e cybersicurezza saranno molto probabilmente due temi caldi nel 2024, ma altri eventi tecnologici sono all’orizzonte. Uno di questi è la ripresa delle vendite di personal computer, pronosticata da diversi analisti e dai vendor di semiconduttori e di Pc. “Il mercato dei Pc aziendali è pronto per il prossimo ciclo di sostituzioni, spinto dagli aggiornamenti a Windows 11”, ha dichiarato Mikako Kitagawa, director analyst di Gartner, ma il suo è un pensiero comune tra gli addetti ai lavori. “La domanda di Pc consumer dovrebbe ripartire anch’essa, perché i dispositivi acquistati durante la pandemia stanno entrando nelle fasi iniziali del ciclo di sostituzione”. Gartner pronostica per il 2024 una crescita complessiva del mercato pari al 4,9%. Un’altrettanto attesa ripartenza sarà, si stima, quella degli smartphone: dopo due anni di forte rallentamento delle vendite, a detta dei principali osservatori anche questo mercato dovrebbe ripartire. Canalys, per esempio, ha calcolato che nel 2024 saranno immessi in distribuzione 1,17 miliardi di telefoni

zioni di AI. Forbes prevede che l’anno prossimo la spesa mondiale in IaaS supererà per la prima volta la soglia dei mille miliardi di dollari, e che si consoliderà un fenomeno già battezzato come “AI-as-a-Service”, ovvero l’acquisto di servizi di infrastruttura destinati ad attività di intelligenza artificiale. Sempre a detta di Forbes, salirà dall’attuale 76% all’85% la percentuale di grandi aziende che seguono una strategia multicloud, cioè mescolano servizi di differenti fornitori a seconda del caso d’uso e della convenienza. Proseguirà, inoltre, lo spostamento sul Software as-a-Service (SaaS) anche per le applicazioni aziendali “core”, come l’Erp, il Crm e le piattaforme per la gestione delle risorse umane e dei fornitori. Più difficile è pronosticare l’andamento delle vendite semiconduttori, perché questo mercato ha forti interdipendenze con la geopolitica e la guerra commerciale che negli ultimi anni si è giocata tra Stati Uniti e Cina. Possiamo comunque guardare alle ultime trimestrali di aziende come Samsung, Qualcomm e Tsmc, che indicano ancora una tendenza calante nelle vendite di componenti destinati a Pc, smartphone e server “commodity”. Di contro, i colossi del cloud computing mondiale (come Amazon, Microsoft, Google, Meta) si stanno contendendo le forniture di processori destinati ad applicazioni di intelligenza artificiale, e la forte crescita del market cap di Nvidia degli ultimi mesi lo dimostra. In questo scenario restano, ovviamente, le incognite della geopolitica, delle supply chain e dell’inflazione. Ma ci sono tutte le premesse per un anno di ripresa per i più importanti mercati dell’Ict. Valentina Bernocco


MIRCOSOFT, OBIETTIVI FISSATI PER IL COPILOT IN ITALIA Oltre 600 aziende hanno avuto accesso anticipato a questa tecnologia. Nel radar non solo le grandi, ma anche le Pmi. Microsoft sta puntando con decisione sulla tecnologia del Copilot, con obiettivi fissati anche per l’Italia. Ne abbiamo parlato con Igor Salvoni, Direttore della Divisione Specialist Team Unit di Microsoft Italia. In quali attività il Copilot per M365 può essere più utile per le persone e aziende? Copilot per M365 è il nostro copilota, un assistente per le attività quotidiane in grado di amplificare il nostro lavoro e di liberare il nostro tempo da tutte quelle operazioni a basso valore aggiunto. Copilot può renderci più produttivi e creativi, accelerando quindi la crescita dell’intero Paese. Abbiamo calcolato insieme a The European House – Ambrosetti che una diffusione pervasiva dell’AI generativa in Italia può portare a una crescita del PIL del 18%. Copilot ci può aiutare nello svolgimento delle attività di routine: riassumere i punti chiave discussi in un meeting su Teams; in thread di mail articolati suggerire le risposte sulla base delle interazioni già avvenute; analizzare documenti complessi come contratti, schede tecniche, manuali operativi; fare traduzioni multilingua accurate; analizzare dati su Excel o PowerBI; creare presentazioni efficaci partendo dalla documentazione aziendale. Possiamo immaginare di avere un assistente che su richiesta può aiutarci a svolgere in modo semplice una parte delle nostre mansioni. Quale curva di adozione vi aspettate in Italia? I risultati delle prime sperimentazioni ci hanno davvero sorpreso per la facilità con cui le aziende sono riuscite in poche set-

timane a integrarlo nei loro processi. Nel mondo sono 600 le aziende che hanno avuto un early access, in Italia abbiamo lavorato sin da subito con A2A, Cnh, Iveco Group, Maire, Nexi e Saipem. Vediamo un forte interesse da parte delle imprese italiane e ci aspettiamo un 2024 di grande accelerazione. I nostri partner sono fondamentali per raggiungere in maniera capillare le aziende sul territorio e accompagnarle in questo percorso di trasformazione digitale e acquisizione di nuove competenze, fornendo tecnologia, soluzioni e percorsi ad hoc di formazione e apprendimento: 4wardPRO, Reply e Avanade sono tra i primi partner a supportare le aziende nell’integrazione di Microsoft Copilot all’interno delle loro attività di business. Quali sono gli elementi differenzianti di Copilot per M365? Copilot per M365 si basa sull’unione dei più avanzati modelli di AI generativa messi

Igor Salvoni

a disposizione da OpenAI e su Microsoft Graph, insieme a tutte quelle misure, metaprompt e filtri, per garantire sicurezza e protezione da eventuali usi impropri, in linea con l’approccio etico di Microsoft all’AI. Questa unione consente a Copilot di sfruttare tutte le skill dei foundational model come GPT-4 con i dati delle applicazioni M365 usati dall’utente, perciò riesce a essere contestuale alle attività di ognuno di noi, aumentando in modo impressionante l’efficacia dei modelli. Che obiettivi ha AI L.A.B., in particolare sul tema dello skill gap? È pensato anche per le Pmi o solo per le grandi aziende? AI L.A.B. nasce per accelerare l’adozione responsabile dell’AI generativa nel nostro Paese, attraverso un programma di implementazione e formazione: dall’identificazione dei casi d’uso fino alla realizzazione di progetti su larga scala. Il nostro obiettivo, insieme all’ecosistema dei partner, è di aiutare le aziende a orientarsi in questi nuovi scenari e creare un network per la condivisione di esperienze, best practice e opportunità, contribuendo sul medio-lungo termine a ridurre il gap di competenze e di innovazione che caratterizza il nostro Paese, stimolando la crescita e la competitività del tessuto economico e sociale italiano. AI L.A.B. offre percorsi personalizzati per diversi target: grandi aziende, professionisti e studenti ma anche le Pmi, con AI L.A.B. for Digital Entrepreneurs, un percorso specifico per quelle piccole realtà già avanzate dal punto di vista dell’adozione delle tecnologie digitali e che vogliono ulteriormente accelerare e scalare. AI L.A.B. è un catalizzatore di competenze d’eccellenza sulle tematiche dell’AI e mette a disposizione una piattaforma e un percorso di collaborazione per implementare soluzioni di intelligenza artificiale, usando gli strumenti e i servizi di Microsoft in modo responsabile e in totale sicurezza. E.M.

13


IN EVIDENZA

EVOLUZIONE TECNOLOGICA E ALLEANZE PER IL MULTICLOUD Molte le novità annunciate da Vmware in occasione della conferenza Explore di Barcellona. Si rafforza il legame con Intel. Il Vmware Explore di Barcellona dello scorso novembre è stato teatro di numerosi aggiornamenti, che testimoniano l’apertura della società verso ambiti più o meno complementari al proprio ambito storico di competenza, ovvero quella virtualizzazione che ormai è stata adottata su larga scala dalle aziende e rappresenta, preso a sé stante, un mercato ormai maturo. L’intelligenza artificiale e gli sviluppi multicloud hanno catalizzato la messe di annunci, che qui proviamo a sintetizzare. Sul primo fronte, si registra il rafforzamento del concetto di Private AI, che aveva già caratterizzato l’edizione di Las Vegas di Explore. L’idea di Vmware è muoversi in proprio, ma soprattutto con partner tecnologici, per favorire l’adozione dell’AI generativa nelle imprese senza trascurare la protezione dei dati e della relativa pro-

14 | DICEMBRE 2023

prietà intellettuale. Per questo, il vendor ha rafforzato la collaborazione con Intel per arrivare all’introduzione sul mercato di uno “stack AI” basato su Vmware Cloud Foundation, sui processori Xeon con acceleratori integrati, sulle Gpu Max Series e sulla suite di software Intel per l'AI. Di fatto, questa alleanza fa il paio con quella annunciata in agosto con Nvidia. Insieme a questi partner, Vmware intende garantire che i clienti possano creare ed eseguire modelli di intelligenza artificiale in modo più rapido e sicuro nel proprio ambiente multicloud. In parallelo, Ibm e Kyndryl si sono unite al modello Private AI e questo consentirà di portare la piattaforma Watsonx in ambienti on-premise. La combinazione con Red Hat OpenShift dovrebbe aiutare ad abilitare funzionalità di intelligenza artificiale generativa in questi contesti.

Durante il suo intervento alla conferenza di Barcellona, il Ceo Raghu Raghuram ha presentato anche Vmware Cloud Foundation 5.1. Rispetto alla versione precedente, rilasciata ad agosto, questo aggiornamento intende migliorare la semplicità d’uso, mentre la capacità della Gpu è stata raddoppiata. Oltre agli sviluppi legati a Private AI, le nuove funzionalità includono Data Services Manager 2.0 e l’integrazione nativa del database Google Cloud AlloyDb Omni, compatibile con PostgreSql. Vmware ha poi introdotto nuovi aggiornamenti per il framework di sviluppo Java Spring (arrivato al ventesimo anno di vita) e della piattaforma applicativa Tanzu. Quest’ultima ora vede integrate le metriche Dora, per consentire ai team di sviluppo di tracciare e confrontare le prestazioni nella distribuzione del software. Inoltre, Tanzu Application Service 5.0 offre un nuovo tile Postgres per DBaaS e un tile AI (in versione beta) con incluso un large language model già addestrato. In direzione della sicurezza degli ambienti di lavoro ibridi si muovono, invece, l’introduzione della gestione degli ambienti macOs di nuova generazione su Anywhere Anytime Workspace e una alleanza con Intel su WorkspaceOne per automatizzare il rilevamento delle vulnerabilità a livello di hardware, firmware e driver. Da segnalare, infine, che l’iniziativa Sovereign Cloud (già forte di oltre cinquanta partner a livello globale) include novità per sviluppatori, i dati e la sicurezza, come i servizi dati integrati attraverso Vmware Cloud Director e i partner dell'ecosistema e l'ampliamento delle funzionalità all'interno di strumenti developer-centric. Roberto Bonino


PER L’AZIENDA “A PROVA DI FUTURO” SERVONO TECNOLOGIE E PERSONE Le innovazioni di intelligenza artificiale possono davvero trasformare il mondo del business, ma non da sole. La visione e le ultime novità di Sap. Come ci si prepara agli imprevisti e ai cambiamenti futuri, in un’epoca di “permacrisi” ma anche di nuove opportunità create dai rapidi sviluppi di tecnologie dirompenti? La visione di Sap si riassume in tre parole: “Innovazione, insight e intelligenza sono le tre chiavi di lettura con cui crediamo si debba guardare al futuro”, ha detto Carla Masperi, amministratore delegato della filiale italiana, a margine dell’evento Sap Now svoltosi a Milano. Prevedibilmente, l’intelligenza artificiale generativa è stata protagonista del dibattito e degli annunci, e in particolare l’ultima novità è Joule, un’applicazione “copilota” basata su large language model. A differenza delle soluzioni generaliste, come ChatGpt, la proposta di Sap è indirizzata specificamente alle aziende e presenta determinate caratteristiche di

livello enterprise. Prima tra tutte, l’addestramento su basi di dati pertinenti al contesto. Joule utilizza i dati esperienziali e operativi delle applicazioni Sap ma anche quelli di fonti terze, per restituire risposte pertinenti e calate nel contesto aziendale specifico. Il copilota di Sap “sa di che cosa parla, perché conosce i processi di business e il contesto dei dati”, come sottolineato da Masperi. Di fronte a una domanda, l’assistente può fornire risposte precise e fattuali perché accede a un patrimonio di dati specifico. Può, inoltre, produrre dei report o automatizzare attività ripetitive. Se anche questa è la tendenza del momento, in cui è quasi d’obbligo tuffarsi, l’impegno di Sap nell’intelligenza artificiale non nasce oggi.“Contiamo già 27mila clienti che nel mondo utilizzano soluzioni intelligenti”, ha spiegato l’am-

Carla Masperi

ministratore delegato. “Da qualche anno abbiamo applicato il machine learning e l’AI ai nostri processi. Oggi Joule nasce non come tecnologia su cui basare prototipi e sperimentazioni, ma come tecnologia già pronta all’uso e integrata nei processi di business”. Oltre al nuovo copilota, l’azienda ha presentato altre funzionalità di intelligenza artificiale integrate nelle soluzioni Sap Cx (Customer Experience), utili per attività come la gestione dei cataloghi dei prodotti (con estrazione e arricchimento dei tag e generazione di testi descrittivi), identificazione e risposta alle domande dei clienti, creazione di riassunti per gli addetti al customer service (su storico degli ordini e profilo dei clienti), tracciamento del ticketing e altro ancora. “L’AI è una tecnologia potentissima”, ha ribadito Masperi, “ma se non viene applicata a una base di dati consistente e affidabile, allora non può dare i benefici che ci aspettiamo”. Le tecnologie che stanno nascendo rapidamente, anche in casa Sap, possono aiutare le aziende a fare il salto di produttività e a ottenere insight utili per i processi decisionali. Ma da sole non sono garanzia del successo. Secondo uno studio di Sap Insights, il 37% dei manager C-level italiani (326 quelli inclusi nel campione, complessivamente composto di 4.200 aziende piccole, medie e grandi) pensa che la difficoltà di abbandonare gli attuali modelli di business sia il primo ostacolo all’innovazione. Un analogo 37% ha citato l’annoso problema dei “silos”, i compartimenti stagni tra le divisioni e i dati delle aziende. “Per far fronte al futuro occorre reinventarsi, riplasmare i modelli di business”, ha sottolineato l’Ad di Sap Italia. “Ma le persone hanno una naturale resistenza al cambiamento e occorre creare le condizioni affinché possano abbracciarlo con entusiasmo e vederlo come un’opportunità”. V.B.

15


IN EVIDENZA

FUJITSU E FINIX AIUTANO A ORIENTARSI NEL MONDO SAP Partito il reclutamento di partner specializzati, con cui realizzare progetti di ottimizzazione delle infrastrutture. Le scelte di infrastruttura non sono mai scontate e l’equilibrio ottimale tra cloud e on-premise dipende da molte variabili, che le aziende da sole non sempre sanno ponderare. Se poi ci addentriamo nel mondo di Sap, su cui poggiano molte delle applicazioni mission-critical di aziende di ogni settore, la complessità aumenta. “Quando un’azienda sceglie Sap, sceglie i migliori sistemi gestionali disponibili”, ci ha spiegato Mehul Doshi, chief datacenter evangelist, director business development CLC Emea di Fujitsu. “Sap sta spingendo i clienti a migrare su Sap S/4Hana entro il 2027, quindi è necessario cominciare ad affrontare la questione già oggi. La migrazione non è semplice, può avere costi significativi e va gestita in modo da salvaguardare la continuità del business. La maggior parte dei clienti

Mehul Doshi

16 | DICEMBRE 2023

che incontriamo ci parla delle spese elevate che sta sostenendo per questo passaggio: noi di Fujitsu agiamo come un vero e proprio consulente per offrire loro le giuste soluzioni per la migrazione, l’implementazione e la gestione del loro panorama SAP. Inoltre, alcuni dati potrebbero dover restare on-premise”. In quanto storico fornitore hardware per soluzioni Sap sempre più orientato verso l’offerta di software e servizi, Fujitsu ha sicuramente voce in capitolo in questa sfida, con i suoi 124.000 dipendenti al servizio dei clienti in oltre 100 Paesi nel mondo. “Possiamo mettere a disposizione soluzioni di infrastruttura per la migrazione, cioè l’hardware, ma anche servizi di progettazione e di process outsourcing. Inoltre, possiamo garantire la delivery del cloud end-to-end, grazie ad accor-

Manuela Chinzi

di con i principali fornitori di Cloud e non solo”, ha aggiunto Doshi. Oltre al tema della migrazione, una sfida più ampia per le aziende è quella dell’utilizzo ottimale delle risorse di infrastruttura, siano esse dei server di proprietà o delle istanze cloud. La risposta di Fujitsu è Sap Inspection Tool, uno strumento basato su machine learning che analizza il funzionamento delle applicazioni Sap in uso per scoprire eventuali inefficienze (spreco di memoria, sottoutilizzo o sovraccarico, consumi e altro ancora). I dati raccolti vengono inviati al laboratorio Fujitsu in Germania per essere analizzati da un algoritmo di intelligenza artificiale sviluppato in collaborazione con l’Università di Magdeburgo e addestrato su circa 8,9 miliardi di transazioni Sap. Sulla base del report prodotto dall’algoritmo, gli ingegneri Fujitsu formulano raccomandazioni e consigli su come poter ottimizzare l’ambiente applicativo, on-premise (anche su macchine non Fujitsu) o in cloud. Il Sap Inspection Tool è disponibile in Italia esclusivamente attraverso Finix Technology Solutions, che insieme a Fujitsu sta reclutando partner tecnologici con cui proporre questo servizio alle aziende. “Il mondo Sap è una delle nostre aree di focalizzazione”, ha illustrato Manuela Chinzi, sales director di Finix. “Ci rivolgiamo sia a clienti che già hanno un parco installato e vogliono affrontare la migrazione sia a quelle che non hanno ancora compiuto questa scelta. Dalla scorsa primavera abbiamo iniziato un piano di reclutamento di partner specializzati su Sap, interessati a collaborare con noi su questa opportunità. Insieme a Fujitsu stiamo cercando di creare sinergie tra operatori diversi,


LA STAMPA IN SANITÀ CHE SEGUE IL DNSH In questo momento storico, grazie ai fondi del Pnrr, il settore sanitario può cogliere l’opportunità di un rinnovamento tecnologico che riguardi anche la stampa e l’acquisizione documentale. “Nell’ambito del Pnrr ci collochiamo come un player che può aiutare nei processi di digitalizzazione”, ha dichiarato Luca Pandolfi, corporate & PA sales supervisor di Epson. “Con le nostre soluzioni, per esempio, siamo in grado di gestire il processo di accettazione, che nel caso di pazienti residenti in Italia può essere digitalizzato, mentre per turisti e visitatori impone di acquisire tramite scanner e stampare documenti identificativi cartacei. Ma le nostre soluzioni servono anche per la produzione dei referti su carta e per la loro archiviazione in digitale”. Epson fa leva anche sul principio Do No Significant Harm (Dnsh), che è una prerogativa per accedere ai fondi del Dispositivo per la ripresa e la resilienza (Recovery and Resilience Facility, parte del più ampio piano NextGenerationEU). Questo significa, in parole semplici, che gli interventi realizzati nell’ambito del Pnrr non devono arrecare alcun danno significativo all’ambiente. “Epson”, ha proseguito Pandolfi, “si avvale di una tecnologia di stampa a freddo che permette di ridurre consumi energetici ed emissioni di CO2 rispetto alle stampanti laser, e questo è molto importante per ridurre l’impatto ambientale. Nel campo sanitario intendiamo come ambiente a cui non bisogna arrecare danno anche il contesto ospedaliero, gli spazi in cui si trovano pazienti e persone spesso in condizioni di fragilità”. locali e internazionali, anche specializzati su mercati verticali. Abbiamo già stretto accordi con grandi società partner di Sap”. La consolidata presenza dell’hardware di Fujitsu nelle aziende, anche italiane, è un trampolino di lancio per i servizi di consulenza e migrazione proposti da Finix. “Il cloud è una realtà di fatto e Sap sta spingendo in tale direzione”, ha proseguito Chinzi. “Nelle scelte di infrastruttura non esiste la formula perfetta per tutti, ma esiste la formula perfetta per ciascun cliente. E noi di Finix aiutiamo a trovarla, partendo da un’analisi oggettiva dell’infrastruttura ottenuta mediante una fotografia dinamica realizzata da un software, il Sap Inspection Tool. Su questa base identifichiamo le falle e gli ambiti di miglioramento e proponiamo ai clienti dei cambiamenti”. Per quanto riguarda l’on-premise, naturalmente la scelta preferenziale di Finix è l’hardware di Fujitsu, mentre per il cloud l’azienda si avvale di tutte le alleanze strette a livello internazio-

nale tra Fujitsu e i principali fornitori. Nel nostro Paese, inoltre, la partnership con ReeVo offre un’ulteriore opzione per migrare i dati in cloud conservandoli sul territorio italiano. “Nel tema della modernizzazione Sap rientra quello più ampio del passaggio al cloud. Se ogni azienda deve comunque avere una struttura cloud-ready, indipendentemente dal tipo di cloud che sceglie, i nostri clienti vogliono infrastrutture ibride e noi li aiutiamo a dimensionarle in maniera corretta. ReeVo è il partner perfetto per farlo insieme a noi, pensando in particolare alle esigenze delle aziende italiane in quanto cloud provider locale”, ha aggiunto Chinzi. Le alleanze di ecosistema sono strategiche anche per Fujitsu a livello globale. “Nell’ingaggiare un nuovo partner”, hanno spiegato Doshi e Chinzi, “ci adoperiamo per introdurlo nel mondo di Fujitsu e Finix, per portarlo a capire la nostra filosofia e poi, a seconda delle sue caratteristiche, facciamo formazione tecnica, di vendita,

prevendita e postvendita. In base alla nostra esperienza sul mercato, possiamo dire che solo il 30% o 40% delle aziende ha la capacità e la scala necessarie per adottare le tecnologie più innovative, come oggi l’intelligenza artificiale. I partner possono aiutare a cogliere queste occasioni”. Fujitsu ha già tratteggiato le priorità da portare avanti nell’anno nuovo. “Sostenibilità, intelligenza artificiale e cybersicurezza saranno i nostri principali focus nel 2024”, ha svelato Doshi. “Per quanto riguarda la sostenibilità, in particolare, ci stiamo impegnando a ridurre i consumi energetici dei data center e di conseguenza l’impatto ambientale, anche grazie al lavoro della nostra divisione ricerca & sviluppo, di cui siamo orgogliosi. Con il nuovo server Primergy M7 abbiamo creato una soluzione che, rispetto al sistema di generazione precedente, raddoppia le prestazioni in termini di teraflop riducendo però i consumi energetici di 2,8 volte”. V.B.

17


IN EVIDENZA

LA VIA “PRIVATA” DELL’AI INTERNA ALLE AZIENDE Appian abbraccia la rivoluzione della GenAI, ma con un focus sulla privacy e sulla sicurezza dei dati. L’intelligenza artificiale è una forza potente, ma non si regge in piedi da sola. Piuttosto, è uno dei vertici di un triangolo che include altri due importanti elementi: i dati e i processi. I primi alimentano e informano i modelli di AI, i secondi fanno fa “collante” tra l’elemento tecnologico e l'elemento umano. Questa la visione di Appian, illustrata a Londra lo scorso novembre durante l’annuale conferenza europea Appian Europe. La multinazionale statunitense non si sottrae alla corsa verso l’AI generativa, ma la riporta all’interno delle proprie specialità, ovvero l’integrazione dei dati, l’automazione dei processi e lo sviluppo low-code. In un’espressione, all’interno del data

Silvia Speranza

18 | DICEMBRE 2023

fabric di cui Appian è portabandiera, ovvero un’architettura che fa confluire i dati delle diverse applicazioni aziendali (Erp, Crm, gestione risorse umane, amministrazione, controllo produzione, supply chain e via dicendo) permettendo di eseguire query sull’intero patrimonio informativo. “Il data fabric è come un potente database virtuale che permette di eseguire query in modo più veloce e sicuro, da tutte le fonti di dati. E questo sarà estremamente importante per l’AI”, ha detto il Ceo di Appian, Matt Calkins, dal palco londinese. “La maggior parte dei dati oggi è sprecata, non viene usata dalle aziende per prendere decisioni, spesso perché questi dati non vengono resi disponibili in tempo reale e non possono essere usati quando servirebbero”. Appian invita ad aprire le porte all’AI, ma con cautela. E propone l’alternativa della Private AI, un’intelligenza artificiale “privata”, che si appoggia al data fabric per garantire maggiore sicurezza, privacy dei dati ed efficacia. Non si tratta un singolo prodotto bensì di metodo di implementazione: gli algoritmi vengono allenati solo sui dati aziendali (in modo da fornire risposte pertinenti) e tali dati non vengono condivisi all’esterno né utilizzati per allenare i large language model delle società fornitrici di servizi (come OpenAI, Microsoft, Amazon o Google). “Non ci interessa estrarre dati dai nostri clienti, innanzitutto perché diamo priorità alla privacy”, ha spiegato

Calkins ai giornalisti. “Inoltre il nostro approccio non è solo più favorevole alla privacy ma anche più sicuro, più accurato e soprattutto più efficace”. “Siamo stati tra i primi a parlare di Private AI”, ha sottolineato Lorenzo Alegnani, area vice president Sud Europa di Appian “Questo non significa preclusione alle diverse tecnologie di AI disponibili sul mercato. Offriamo la nostra soluzione, specifica per certe esigenze, ma siamo anche aperti alle altre frontiere dell’AI generativa, che sono per noi degli elementi interessanti di integrazione”. L’importanza di controllare il training degli algoritmi è stata rimarcata anche da Malcolm Ross, senior vice president, product strategy: “L’AI è allenata per funzionare come un cervello umano: se anche un dato viene cancellato, il sistema non può dimenticarlo, ha ancora certe correlazioni e può usarle per fare deduzioni e predizioni”. Ross ha sottolineato, in merito all’AI, le questioni etiche e legali ancora da risolvere e l’esigenza di compliance alle normative che entreranno in vigore l’anno prossimo, come l’AI Act europeo. Intanto l’azienda sta continuando a espandersi nel mercato italiano. “Nel nostro Paese da anni Appian ha una crescita di ricavi importante anno su anno, e nel 2023 è stata intorno al 25% e trasversale alle vendite di software e servizi”, ha detto Silvia Speranza, regional vice president Italy dell’azienda. “Che cosa ci fa crescere? Innanzitutto abbiamo costruito un team importante di addetti commerciali, prevendita e customer success, e inoltre siamo molto focalizzati sui partner e in particolare su Ey, Deloitte, Kpmg e Pwc”. Valentina Bernocco


VERSO IL FUTURO DELLA GESTIONE DEI DATA CENTER Non più solo focalizzata sulle reti, Juniper spinge sull’innovazione, sull’AI e sulle alleanze tecnologiche. Per Juniper Networks, il data center è la nuova singola unità di computazione. Questo significa avere una visione olistica della gestione, anziché focalizzarsi sulle singole componenti. James Kelly, product management senior director dell’azienda americana, chiarisce come dalla rete e dalla connettività passi l’evoluzione del posizionamento di Juniper, verso una capacità di automazione e controllo di conformità costruita sull’intelligenza artificiale. “Il paradigma è ormai definito”, ha detto Kelly, “anche se restano da risolvere alcuni aspetti, che spaziano dal corretto addestramento dei modelli alla gestione dei costi, in particolar modo generati dall’uso di Gpu”. Per dar corso alla propria strategia, Juniper ha attivato già da qualche tempo a Sunnyvale gli AI Labs, recentemente diventati i Beyond Labs, per esplicitare

meglio la propria missione di identificare e mettere a terra di progetti e sperimentazioni volti a modellare il futuro dell’IT e del networking. Qui gli esperti dell’azienda, in partnership con istituzioni accademiche e player tecnologici come Nvidia, Intel, Amd, Dell, Fujitsu e Pure Storage, lavorano sulla ricerca in ambiti come il 5G/6G, l’AI, le Gpu, le Wan e l’automazione per creare innovazioni d’avanguardia nelle tecnologie di rete. La collaborazione con Intel, per fare un esempio, intende facilitare l’espansione delle capacità di trasformazione del 5G attraverso l’integrazione dell’architettura di riferimento Intel FlexRan, delle reti 5G private, del controller intelligente Ran Juniper e del router cloud-nativo del costruttore su processori Xeon. Gli sviluppi più concentrati sullo sfruttamento dell’AI fanno leva su tecnologia hardwaJames Kelly

re oggi a 400 Gb, ma già pronta a evolvere verso gli 800 Gb. L’azienda intende trarre vantaggio dalla crescente domanda di virtualizzazione dei data center, cloud computing e convergenza packet/optical del traffico mobile. “Con il crescente utilizzo di smartphone e tablet, il traffico dati mobile è aumentato”, ha sottolineato Kelly. “Ciò ha comportato una maggiore domanda di architetture di rete avanzate, portando i fornitori di servizi a spendere di più in router e switch”. Allo stato attuale, la soluzione che Juniper posiziona con maggior convinzione verso la gestione delle infrastrutture tecnologiche aziendali è Apstra, arrivata alla versione 4.2.0. La release include sonde di analisi intent-based per la telemetria e la visibilità della rete, nonché il supporto per lo strumento di provisioning della rete Terraform di HashiCorp. Apstra funziona mantenendo un repository in tempo reale di informazioni di configurazione, telemetria e convalida, in modo tale che le aziende possano utilizzare le funzionalità di automazione per fornire policy di rete e sicurezza coerenti per i carichi di lavoro su infrastrutture fisiche e virtuali. All’orizzonte c’è già il rilascio della versione 4.2.1, che migliorerà la raccolta e visualizzazione dei flussi di dati, avrà una nuova interfaccia utente e impiegherà la tecnologia di AI sviluppata per Marvis. Quest’ultimo è un assistente virtuale capace di lavorare in linguaggio naturale per supportare i tecnici nella gestione delle operazioni di rete. Con le evoluzioni tese verso l’AI (soprattutto nella declinazione più operativa dell’AIOps, l’intelligenza artificiale nelle operazioni di rete) e l’automazione nell’amministrazione delle infrastrutture tecnologiche, Juniper intende posizionarsi come contendente nel mercato delle soluzioni per la scalabilità e la gestione ottimizzata del traffico dati. R.B.

19


IN EVIDENZA

UNA DATA PLATFORM PER SUPERARE LA FRAMMENTAZIONE Molte aziende sono ancora alle prese con silos di dati ed elevati costi di integrazione. Uno studio e la strategia di Cloudera. I silos di dati sono ancora un problema. Secondo una ricerca commissionata da Cloudera a Coleman Parkes Research e condotta tra marzo e aprile scorsi su 850 decisori IT di aziende da oltre mille dipendenti (fra cui un centinaio di italiane), il 66% teme che nella propria organizzazione i dati siano “fuori controllo” e il 63% vede nella frammentarietà un ostacolo al alla compliance. Molto spesso, nel 79% dei casi, è difficile integrare le diverse soluzioni di gestione dei dati e analytics in uso. “La frammentazione dei dati è ancora un tema attuale”, ha detto Fabio Pascali, regional vice president Italy di Cloudera, commentando i risultati della ricerca. “Ogni divisione aziendale tende a sviluppare strumenti e analytics ad hoc, e questo genera una complessità che porta da un lato a costi incrementali e dall’altro alla difficoltà di collegare tra loro questi dati. Per superare questo vincolo è spesso richiesto un impegno importante in termini di lavoro, budget e integrazioni, quindi magari le aziende rimandano la soluzione del problema più in là nel tempo”. Secondo questo studio, le aziende italiane risultano essere in fase di maturità avanzata nella gestione dei propri dati. Ma i costi sono notevoli: un’azienda su tre dedica alla gestione dei dati tra il 20% e il 30% del proprio budget IT annuale; una su cinque spende tra il 30% e il 40%; una su sei addirittura più del 50%.

20 | DICEMBRE 2023

Fabio Pascali

Di fronte a queste sfide, la risposta di Cloudera è la data platform, ovvero un’architettura per dati strutturati e non, che permette di integrarli, gestirli e analizzarli. “Senza un modello di dati non si può estrarre valore”, ha spiegato Pascali. “Prendiamo il caso dell’industria 4.0: si può fare manutenzione predittiva solo se si raccolgono e si analizzano con algoritmi di machine learning tutti i dati continuamente prodotti dagli ambienti di fabbrica intelligente. Il dato ha un valore duplice nel tempo: è importante quando viene generato e in un momento successivo”. Altri esempi citati dal manager italiano sono la gestione delle reti informatiche, la telemedicina, il settore farmaceutico, la finanza. Cloudera funziona come una piattaforma, posta a un livello intermedio dall’infrastruttura e le applicazioni di analytics, Business Intelligence, data science o intelligenza artificiale. Mentre i dati restano nella rispettiva sede

di origine, i log prodotti dalle varie applicazioni o sistemi vengono catturati ed esportati nella data platform. A seconda del caso d’uso, si possono introdurre dati esterni, come quelli relativi al meteo, al traffico o dati tratti dal Web. “Il cliente è completamente libero di scegliere se e quali dati conservare on-premise, se spostarli nel cloud di qualsiasi fornitore o se tenerli in un ambiente ibrido”, ha sottolineato il regional vice president. Cloudera collabora con i principali cloud provider mondiali ma ha una relazione speciale con Amazon Web Services. La soluzione di data lakehouse di Cloudera è disponibile sul marketplace di Aws e può essere utilizzata direttamente in public cloud, con tutti i vantaggi di scalabilità che ne derivano. Tale soluzione si basa su Apache Iceberg, un formato open source per la gestione di tabelle dati di grandi dimensioni. “Il data lakehouse è una fusione tra il mondo tradizionale dei data warehouse, utilizzati per attività di Business Intelligence, e quello più moderno dei datalake, utili per la data science”, ha illustrato Pascali. “Grazie ad Iceberg le aziende possono creare un unico ambiente per differenti team, che utilizzano gli stessi dati per finalità diverse. L’unicità di Cloudera è che mettiamo a disposizione questo strumento sia on-premise sia in cloud, senza costringere i nostri clienti in una direzione o nell’altra”. In Italia la società sta crescendo soprattutto nel settore della Pubblica Amministrazione, in particolare quella centrale, che è oggi il quarto mercato più importante dopo finanza, telecomunicazioni ed energia. “Siamo siamo presenti nell’80% delle applicazioni della PA centrale”, ha detto Pascali. Valentina Bernocco


IL DIGITALE IN SUPPORTO AGLI INTERMEDIARI ASSICURATIVI Crescono le attività di Yolo, società insurtech che si definisce come un “abilitatore” e aiuta i broker e le aziende del settore a innovare la propria offerta. Siamo abituati a pensare che le assicurazioni digitali siano una forma di disintermediazione destinata a erodere spazio alle classiche agenzie. Yolo prova a sostenere il contrario con un modello di insurtech basato sull’innovazione delle proposte, che sfrutta la tecnologia per ampliare il raggio d’azione di chi opera sul mercato. “Siamo convinti che esista una domanda di prodotti e servizi assicurativi, esplicita o latente, ma l’offerta attuale non appare adeguata alle aspettative di famiglie e imprese”, ha affermato la chief communication officer di Yolo, Roberta Pazzini. Nata nel 2017 e quotata in Borsa dallo scorso anno su Euronext Growth, l’azienda ha chiuso il primo semestre 2023 con ricavi pari a 3,9 milioni di euro, in crescita del 157% rispetto allo stesso periodo dell’anno precedente. Certo, il risultato netto resta negativo, ma l’incidenza percentuale sui ricavi è scesa in un anno dal -79% al -47%. Yolo opera con un modello di tipo B2B2C proponendo servizi insurtech a operatori interessati a integrare assicurazioni digitali nella propria offerta. Inoltre distribuisce prodotti assicurativi realizzati in collaborazione con le compagnie, tra cui ad esempio Genertel, Axa, Net Insurance, Helvetia ed Europ Assistance. “Siamo un abilitatore digitale”, ha spiegato Pazzini. “Abbiamo soluzioni che possono essere siglate anche dai clienti finali, ma il nostro scopo principale

è aiutare chi opera sul campo a far crescere la propria proposizione e andare oltre le polizze tradizionali”. L’esempio che meglio sintetizza l’approccio riguarda le micropolizze, strumenti legati a esigenze specifiche dei clienti, che possono avere durate anche molto limitate e vanno a coprire aree poco considerate dalle compagnie. Yolo ne ha messe a punto diverse, in ambiti come i viaggi, la salute, lo sport, la casa e la mobilità. Per fare qualche esempio, è possibile assicurarsi per il tempo di un viaggio o per gli infortuni generati da cadute sulle piste di sci, ma anche coprire le cure degli animali domestici e le riparazioni di elettrodomestici o smartphone o, ancora, fruire

Roberta Pazzini

di prestazioni mediche domiciliari o in remoto. Yolo lavora oggi in partnership con circa 450 intermediari assicurativi professionali e una sessantina di partner distributivi attivi, ai quali propone consulenza e sviluppo di servizi che richiedono flessibilità e velocità di esecuzione. Gli intermediari del network di Yolo, tipicamente strutture di piccole e medie dimensioni, sono per il 57% società di persone e per il 43% società di capitali e sono distribuiti uniformemente su tutto il territorio nazionale (32% al nord, 37% al centro e 31% al sud). “Possiamo abilitare un partner alla distribuzione attraverso la nostra piattaforma in white label in un periodo compreso fra le tre e le sei settimane”, ha illustrato Pazzini. “Ma la nostra è anche una piattaforma che offre funzionalità di customer engagement e fa leva sulle capacità di data analytics integrate e su un metodo brevettato di profilazione degli utenti, modellato con l’apporto dell’intelligenza artificiale”. L’azienda svolge anche un ruolo di broker e per accelerare in quest’ambito ha recentemente acquisito la maggioranza di AllianceInSay Broker. Un altro segmento di forte potenziale riguarda gli operatori non assicurativi, come banche, utilities o telco, che sono abilitate alla distribuzione di polizze e sono alla ricerca di soluzioni digitali innovative. Roberto Bonino

21


IN EVIDENZA

l’intervista

IL DIFFICILE LAVORO DEGLI ANALYTICS TRA PRIVACY E NORMATIVE Nell’ambito della raccolta e del trattamento dei dati, non è sempre facile operare nell’orbita della compliance. Il punto di vista di Piwik Pro.

I dati, la loro raccolta e il loro trattamento, sono al centro di numerose normative e commettere errori, anche in buona fede, ha un costo in termini di reputazione e di possibili sanzioni. Non soltanto in Europa le aziende devono tener conto del Gdpr (General Data Protection Regulation) ma anche del Trans-Atlantic Data Privacy Framework, che regola i trasferimenti di dati fra Unione Europea e Stati Uniti. Ne abbiamo parlato con Piotr Korzeniowski, Ceo di Piwik Pro, azienda che propone soluzioni di analytics per esperti di makerting e analisti. Come spieghereste il Trans-Atlantic Data Privacy Framework ai non addetti ai lavori?

Il Trans-Atlantic Data Privacy Framework è un accordo che definisce una base per il trasferimento legale dei dati tra l’Unione Europea e gli Stati Uniti. Per la sua attuazione gli Stati Uniti hanno introdotto alcune modifiche alle loro politiche di sorveglianza, limitando ad esempio il modo in cui le loro agenzie di spionaggio possono raccogliere informazioni e introducendo nuove condizioni per la raccolta dei dati delle persone, tra cui la garanzia che vengano raccolte solo specifiche tipologie di dati. Inoltre l’accordo stabilisce che le aziende statunitensi possano aderire al Data Privacy Framework solo accettando di rispettare le responsabilità in materia di privacy che includono la can-

22 | DICEMBRE 2023

cellazione dei dati personali quando non più necessari e la loro protezione quando vengono condivisi con terze parti. E infine devono attenersi ai principi di minimizzazione dei dati, limitazione delle finalità e proporzionalità. Questi passi avanti, però, non sono ancora sufficienti e molti punti del nuovo quadro normativo e delle azioni statunitensi per esso, purtroppo, presentano le stesse problematiche degli accordi precedenti. Un fatto, a nostro avviso, piuttosto sconcertante che denota una mancanza di responsabilità da parte degli enti governativi e minaccia la crescita dell’economia digitale transatlantica. Ci sono particolari aspetti critici?

Siamo grandi sostenitori dell’accordo sul trasferimento dei dati, per-

Piotr Korzeniowski

ché riconosciamo il suo ruolo cruciale per la prosperità delle imprese, ma crediamo che sia necessario un accordo duraturo e, purtroppo, la versione attuale non sembra esserlo. Come evidenziato anche dal Noyb, il Centro Europeo per i Diritti Digitali, nonostante il parere negativo della Corte di Giustizia dell’Unione Europea (Cgue) non vi è stata ad esempio una revisione da parte degli Stati Uniti sia della sezione 702 del Fisa (Foreign Intelligence Surveillance Act) sia dell’Ordine Esecutivo 12333. Ciò significa che i diritti dei non residenti negli Stati Uniti non sono ancora tutelati come previsto dal Quarto Emendamento americano e dalla Carta dei diritti fondamentali dell’Unione Europea (Cfr). Sempre il Noyb critica poi la Corte


TROPPI ALERT, SCARSO CONTROLLO SULLE RISORSE IT Il rischio informatico continua a crescere. Non soltanto aumentano gli attacchi, ma una buona fetta delle risorse informatiche aziendali sfugge alla capacità di controllo e gestione dei team IT. Da una ricerca commissionata da Armis a Vanson Bourne emerge che solo il 60% degli asset aziendali (considerando l’hardware fisico e le risorse virtuali) viene monitorato con attività, strumenti e servizi di cybersicurezza. Questa è certo una grave lacuna, ma le aziende d’altra parte sono già sommerse da una quantità sempre meno gestibile di alert di sicurezza e di dati di threat intelligence. Il 29% degli intervistati dichiara che il proprio team di cybersecurity è sommerso dalle informazioni sulle minacce informatiche. Quasi metà delle aziende (45%) raccoglie dati sulle minacce informatiche da dieci o più fonti differenti, e una buona parte dei processi di raccolta e analisi di questi dati è ancora non automatizzata. Per di più, nel mare di dati di threat intelligence e alert prodotti ogni giorno, mancano le informazioni utili per innescare azioni concrete. In media, solo il 58% delle informazioni raccolte dalle fonti di threat intelligence è, come si suol dire, “azionabile”. Appena nel 2% delle aziende tutte le informazioni raccolte dalle fonti di threat intelligence risultano utilizzabili. Sul campione d’indagine (responsabili della sicurezza informatica e responsabili IT di Stati Uniti, Regno Unito, Germania, Francia, Singapore, Australia e Nuova Zelanda) il 61% delle aziende ha subìto una o più violazioni informatiche nel corso di 12 mesi. di revisione della protezione dei dati, composta da membri esterni al governo statunitense per indagare e risolvere i reclami dei cittadini europei, affermando che non si tratta in realtà un vero tribunale come definito dalla legge statunitense. Vengono sottolineate, in aggiunta, le somiglianze tra la Corte, il responsabile della protezione delle libertà civili e l'istituzione del “difensore civico” introdotta nello scudo per la privacy, che secondo la sentenza della Cgue non era conforme all'articolo 47 del Cfr. Come si concilia la tutela della privacy con le esigenze delle aziende di raccogliere sempre più informazioni sugli utenti e clienti?

Crediamo che un’azione cruciale per conciliare al meglio queste due necessità sia restare costantemente aggiornati sulle normative vigenti relative alla privacy e alla protezione dei dati. E visti i continui cambiamenti a cui sono sottoposte, consigliamo ai team che si occupano di analytics di col-

laborare a stretto contatto con l’ufficio legale dell’azienda per conoscere i requisiti di conformità e per tradurre definizioni complesse in un linguaggio semplice. Imprescindibile, poi, l’adozione di una Consent Management Platform per raccogliere un valido consenso dellutente prima dell’elaborazione dei suoi dati personali come imposto delle leggi in materia. La posta in gioco è molto alta in termini non solo economici ma anche reputazionali. E infine è utile considerare la provenienza dei dati e la loro archiviazione, tenendo conto ad esempio della loro residenza. Per un'organizzazione con sede nell’Ue, la soluzione migliore è affidarsi a piattaforme di analytics europee che offrono opzioni di hosting nel Vecchio Continente così da essere conformi al Gdpr e ad altre normative locali. A quali aziende si rivolge Piwik Pro e per quali casi d’uso?

Piwik Pro è il partner ideale per tutte le organizzazioni che vogliono otti-

mizzare la loro presenza nel mondo digitale. Ci definiamo con orgoglio l’alternativa privacy-friendly ad altri prodotti, primo fra tutti Google Analytics. Una conformità che garantiamo con successo nelle varie analisi del customer journey che offriamo ai nostri clienti. Operiamo a livello di Web, app, e-commerce e prodotto, ma non solo. Grazie alla nuova Customer Data Platform, copriamo, infatti, anche il targeting comportamentale e la data activation. Sul fronte prodotto, è in programma un ulteriore sviluppo per incrementare il valore dell’offerta e per adattarla a un maggior numero di casi d'uso, mentre a livello commerciale prevediamo da una parte il potenziamento sia della rete interna che di quella dei partner nei mercati già presidiati e dall’altra l’aumento della nostra presenza in Danimarca e negli Stati Uniti. Ultimo ma non per importanza, per il nuovo anno miriamo anche all’espansione della nostra community di utenti. V.B.

23


IN EVIDENZA

NELLA CYBERSICUREZZA È IMPORTANTE VEDERCI BENE Nel 42% degli incidenti informatici mancano i log di telemetria. Il punto di vista di Sophos. Quello della scarsa visibilità sui rischi cyber è un problema noto: gli ambienti IT sono sempre più complessi, le tecnologie in uso sono troppe e gli addetti all’incident response si trovano quotidianamente sommersi dagli alert da vagliare. Di contro, non di rado dati importanti vengono trascurati. Uno studio di Sophos, “Active Adversary Report for Security Practitioners”, mostra che in circa quattro incidenti su dieci i log di telemetria non sono disponibili (l’analisi si basa su 232 casistiche di Incident Response gestite dal personale Sophos per aziende di 34 Paesi e 25 settori). “È stato un po’ scioccante scoprire in che misura la telemetria sia assente”, ha commentato John Shier, field Cto di Sophos. “In circa il 42% degli incidenti, in fase di investigazione non erano disponibili i log che sarebbero stati utili per comprendere l’accaduto”. Più spesso sono gli autori dell’attacco a disabilitare o eliminare i log, ma altre volte la loro “scomparsa” è dovuta a impostazioni di autocancellazione o ad azioni di reimaging. “Gli attaccanti spesso cercano di renderci ciechi, cancellando le proprie tracce in modo che sia più difficile scoprire

John Shier

24 | DICEMBRE 2023

l’attacco. Ma a volte sono le aziende stesse a rendersi cieche”, ha sottolineato il field Cto. Avere a disposizione dati di telemetria è importante, ma bisogna anche monitorarli (possibilmente senza pause nei weekend o in orario notturno, come succede in molti Security Operations Center) e saperli comprendere. “A nostro parere è necessario avere un equilibrio tra capacità di prevenzione e risposta agli incidenti”, ha proseguito Shier. “Senza un livello di prevenzione si viene totalmente travolti dal rumore, dai falsi positivi”. Una tendenza evidenziata dal report è la riduzione del cosiddetto dwell time, il tempo di rilevamento dell’attacco. Per i ransomware, in particolare, nell’ultimo anno è calato del 44%, assestandosi su una media di cinque giorni. Si osserva, però, una polarizzazione: ransomware, violazioni di rete e attacchi loader si dividono quasi equamente tra “veloci” (rilevati in cinque giorni o meno) e “lenti” (più di cinque giorni). Sophos sta anche osservando un incremento delle violazioni di rete il cui punto d’ingresso è un dispositivo non monitorato. “Il Network De-

Marco D'Elia

Dave Mareels

tection and Response sta diventando sempre più importante”, ha sottolineato Dave Mareels, senior director, product management di Sophos. “Le reti possono includere dispositivi datati. Le nostre statistiche ci indicano che, sul totale degli incidenti rilevati, un terzo ha origine da dispositivi non gestiti”. “Stiamo osservando, sia nelle aziende clienti sia nel canale, una consapevolezza sul fatto che oggi un approccio puramente tecnologico alla cybersicurezza non è più sufficiente”, ha raccontato il country manager italiano, Marco D’Elia. “Serve la capacità di fare threat hunting e di rispondere agli incidenti. E i clienti hanno capito di non poter fare tutto da soli, che è necessario in una certa misura l’outsourcing di risorse umane, processi e tecnologie”. Attualmente sono circa 18mila le aziende clienti dell’offerta Managed Detection and Response di Sophos, che prevede servizi gestiti di prevenzione degli attacchi, rilevamento e risposta, operativi 24/7. “La capacità di threat hunting e di risposta agli incidenti è direttamente proporzionale al numero di clienti e al livello di visibilità che il vendor detiene”, ha proseguito D’Elia. “Sophos opera nel mercato della cybersecurity dal 1985, è l’azienda più longeva, e monitora centinaia di milioni di utenti e dispositivi. Questo è fondamentale: fare threat hunting significa essere allenati a farlo e capire l’evoluzione del mercato”. Valentina Bernocco


MATRIMONIO TRA CLOUD E GENAI NELLA STRATEGIA DI AWS L’azienda ha annunciato novità nel servizio Bedrock, rafforzate alleanze con Nvidia e Salesforce e il nuovo assistente virtuale Amazon Q. L’AI generativa è protagonista negli annunci di Amazon Web Services snocciolati da Las Vegas nel corso dell’annuale convention Aws re:Invent di fine novembre. Non potrebbe forse essere altrimenti, perché anche gli altri colossi del cloud computing, e in particolare Microsoft Azure e Google Cloud, stanno spingendo su questo tasto. Una delle novità presentate a Las Vegas è Amazon Q, un assistente virtuale basato sui modelli fondativi disponibili su Bedrock (un servizio cloud gestito che racchiude API e altri strumenti per sviluppatori). Attualmente disponibile in versione preview, Amazon Q nasce con la promessa di aiutare le aziende in numerose attività, dalla ri-

Adam Selipsky

cerca di informazioni e suggerimenti alla generazione di contenuti testuali o di altro tipo, dal contact center (integrandosi con Amazon Connect) fino alle analisi di Business Intelligence (attraverso Amazon Quicksight) e allo sviluppo software. Un ulteriore caso d’uso, prossimamente disponibile, è nella gestione della catena di fornitura all’interno di Aws Supply Chain. L’applicazione è stata progettata con un occhio di riguardo alle necessità di sicurezza e privacy: le query formulate e i contenuti degli utenti non vengono sfruttati per allenare i modelli sottostanti. Amazon Q può personalizzare le interazioni a seconda dell’identità dell’utente, del suo ruolo in azienda e dei dati e processi a cui può accedere. Più scelta in Amazon Bedrock “Abbiamo un modo distintivo di pensare ai nostri clienti e al loro potenziale, e questo ci ha portati a reinventarci continuamente, a spingere in avanti i confini di ciò che si riteneva possibile”, ha detto il Ceo di Aws, Adam Selipsky nel discorso di apertura, citando la rivoluzione del cloud e annunciando le nuove istanze di storage a oggetti Amazon S3 Express One Zone, che garantiscono accesso ai dati in pochi millisecondi. Si tratta, anzi, della soluzione di object storage su cloud con la più bassa latenza disponibile, fino al 50% inferiore a quella delle istanze S3 Standard. Molti gli annunci relativi ad

Amazon Bedrock, servizio gestito che rende disponibili modelli fondativi di diversi sviluppatori e le API utilizzabili per integrarli in applicazioni terze. Si amplia, innanzitutto, l’offerta dei modelli presenti, con l’aggiunta degli ultimi software di Anthropic, Cohere, Meta, Stability AI e della stessa Amazon. Inoltre debuttano un nuovo strumento di comparazione e valutazione dei modelli (che aiuta a scegliere quello più adatta per il caso d’uso di destinazione), una serie di knowledge base, guide per impostare criteri di sicurezza personalizzati e altro ancora. Le alleanze con Nvidia e Salesforce Amazon Web Services ha anche annunciato quella che ha definito come una “collaborazione strategica” con Nvidia, tesa a offrire nuove infrastrutture di supercomputing, software e servizi per l’AI generativa. Le due aziende, in realtà, lavorano insieme da anni ma ora nei data center di Aws entrano nuovi sistemi multi-nodo di Nvidia con Gpu, Cpu e software di AI di ultima generazione: funzionando insieme al sistema di virtualizzazione e sicurezza di Aws Nitro, all’interconnessione Elastic Fabric Adapter e alla scalabilità di UltraCluster, saranno una piattaforma ideale per l’addestramento dei modelli fondativi e lo sviluppo di applicazioni di GenAI. Altra alleanza che si espande è quella con Salesforce: per la prima volta alcuni suoi prodotti saranno disponibili tramite Aws Marketplace. L’obiettivo dichiarato è quello di aiutare i clienti a gestire i dati delle applicazioni Salesforce anche in cloud, in modo sicuro e senza interruzioni. Ora i modelli disponibili su Amazon Bedrock si potranno integrare in Salesforce usando un’unica Api. V.B.

25


EXECUTIVE ITALIA DIGITALE ANALYSIS | Networking

IN CORSA VERSO IL FUTURO Il Paese fa passi avanti nella digitalizzazione di imprese e PA. Interoperabilità tecnologica e competenze le sfide principali.

L

’Italia fa progressi nella digitalizzazione. Nel 2020 eravamo al 25esimo posto dell’indice di digitalizzazione dell’economia e della società (Desi) della Commissione Europea, che tiene conto del posizionamento dei Paesi Ue in fatto di capitale umano, connettività, uso delle tecnologie nelle aziende e servizi pubblici digitali. Siamo saliti al 20esimo posto l’anno seguente e nell’edizione 2022 abbiamo scalato altri due gradini, al 18o posto. Il merito di questi progressi spetta anche agli investimenti mirati e all’impegno politico sempre più incisivo nel campo digitale, sostenuto anche da un maggior afflusso di finanziamenti europei: basti pensare che il 25% del totale delle risorse Piano Nazionale di Ripresa e Resilienza (Pnrr) è destinato a sostenere riforme e investi26 | DICEMBRE 2023

menti per la digitalizzazione del Paese. In un contesto che potremmo definire di “incertezza sistemica”, dovuta al convergere di importanti fattori di instabilità economica e geopolitica che caratterizzano l’attuale situazione, il digitale è l’elemento chiave che può spingere la competitività dell’Italia. Da numerosi studi, sintetizzati nell’“Economic Bullettin” della Banca Centrale Europea di qualche anno fa, emerge con chiarezza come l’aumento della diffusione del digitale possa contribuire a contrastare l’inflazione (per ogni incremento del 10% nell’adozione del digitale si può ridurre l’inflazione dell’1%). Ciononostante, in Italia e in Europa, il digitale è stato spesso utilizzato per preservare le utilities locali anziché per spingere la competitività. La

politica europea sembra orientata, negli ultimi anni, a un approccio regolatorio (come si è visto con l’AI Act) ma non sembra saper essere un propulsore di innovazione. Questo è quanto emerso durante l’evento Digital Italy Summit, organizzato da The Innovation Group a Roma gli scorsi 14, 15 e 16 novembre, alla presenza di rappresentanti delle istituzioni, del mondo della politica e delle imprese. Per ritagliarsi uno spazio significativo nel mercato mondiale Ict, l’Italia deve puntare sull’unità europea e concentrarsi sugli investimenti che permettano di ridurre la dipendenza (oggi molto marcata) da fornitori esteri di prodotti e servizi digitali. Nell’attuale contesto le piccole realtà vengono rapidamente inglobate dalle Big Tech, non favorendo di conseguenza l’innovazione e lo sviluppo del mercato digitale in Italia. Come evidenziato dal recente report “2023 Digital Decade” della Commissione Europea, l’Italia è indietro sulle competenze digitali dei cittadini, ma sta migliorando per quanto riguarda le infrastrutture e la connettività (la copertura 5G sulla banda di frequenza 3,4-3,8 GHz è arrivata all’80% delle famiglie). Il nostro Paese dovrebbe, tuttavia, continuare a intensificare gli sforzi sulle infrastrutture, in particolare per quanto riguarda la connettività Gigabit. Relativamente al livello di digitalizzazione delle Pmi italiane, il documento mostra come il 70% abbia almeno un livello base di intensità digitale, dato grossomodo in linea con la media dell’Unione Europea (69%, dato riferito al 2022), mentre siamo al di sopra della media per quanto riguarda l’adozione del cloud, usato dal 52% delle nostre aziende (versus 34% dell’Ue). Per quanto riguarda, infine, la digitalizzazione dei servizi pubblici, l’Italia ottiene un punteggio di 68 inferiore alla media europea (77) per quelli rivolti ai cittadini e di 75 (versus 84) per quelli rivolti alle imprese.


L’interoperabilità è un requisito

Un tema cruciale su cui la PA si sta focalizzando è quello della interoperabilità tra le piattaforme e le banche dati. Per raggiungere l’obiettivo dell’interoperabilità, Istat collabora con la Presidenza del Consiglio nel progetto “Catalogo Nazionale Dati”, finanziato dal Pnrr, per la descrizione semantica dei dati della PA. Questo costituisce un elemento strategico per evitare duplicazioni di dati, aderendo al principio cosiddetto once only (per cui i cittadini non saranno costretti a fornire i propri dati più volte a diversi enti). Al centro delle discussioni c’è stato anche quello che è stato definito come il “pensiero digitale del cittadino”, un cittadino ormai abituato a fruire delle informazioni in modo intuitivo e semplice. Ripensando i servizi pubblici secondo l’approccio once only e tramite piattaforme user-friendly sarà, quindi, possibile avvicinarsi al cittadino. Anche l’Istituto Poligrafico e Zecca dello Stato sta intensificando gli sforzi per raggiungere questo obiettivo: è attualmente impegnato nella creazione del wallet digitale, collaborando con l’app IO per garantire l’ingresso, il caricamento e la verifica dell’attualità delle informazioni. Il suo ruolo coinvolge anche la produzione e gestione della Carta d’Identità Elettronica (Cie) che è ora nelle mani di 40 milioni di italiani e che ha visto un notevole aumento delle valutazioni positive da parte dei cittadini: negli ultimi mesi il rating è passato da un punteggio medio di gradimento pari a 3,3 a un punteggio di 4,4. Anche il Ministero della Giustizia è orientato verso l’interoperabilità, dialogando con la Piattaforma Digitale Nazionale Dati (Pdnd) per inserire i dati del casellario. Entro fine anno, inoltre, si aprirà al cittadino attraverso la creazione di una banca dati di decisioni civili accessibile a tutti tramite Cie e Spid. La digitalizzazione della Pubblica Amministrazione centrale, quando guidata da progetti strategici

DIGITALIZZAZIONE DEI SERVIZI PUBBLICI

Servizi pubblici ai cittadini

68

77

Servizi pubblici alle imprese

75

84

Fonte: 2030 Digital Decade, Report on the state of the Digital decade 2023, Commissione Europea, 2023

e dalla volontà di migliorare l’esperienza del cittadino, si configura dunque come un pilastro per il progresso e l’efficienza dell’intero sistema pubblico. Il problema delle competenze

Mentre la PA centrale sta affrontando la sfida dell’interoperabilità, nel contesto delle amministrazioni locali le principali criticità riguardano la carenza di competenze specializzate e di risorse interne. Come stanno affrontando le PA locali le sfide e le opportunità legate ai finanziamenti del Pnrr? Secondo i dati forniti nel corso del Digital Italy Summit, il Dipartimento per la Trasformazione Digitale ha già stanziato 2 miliardi di euro per la PA locale. Un dato interessante è che il 93% dei Comuni ha accettato finanziamenti per migrare in cloud le proprie applicazioni. Inoltre, l’83% sta rinnovando i propri siti Web secondo gli standard richiesti dal Pnrr per garantire un’esperienza uniforme ai cittadini, mentre quasi l’80% ha aderito alla Pdnd. Questi sono i segnali positivi di un impegno diffuso verso l’obiettivo della digitalizzazione. Nonostante i traguardi raggiunti, un aspetto tuttora problematico è la carenza di competenze digitali: il 70% dei Comuni ha meno di 5.000 abitanti e, come segnalato dal Ministero dell’Economia e delle Finanze, nel 2023 un terzo dei municipi, pari a 2.437, ha meno di cinque dipendenti a tempo pieno indeter-

minato, e ben 400 Comuni non hanno alcun dipendente con questa tipologia di contratto. Inoltre, ad oggi mancano circa mille responsabili della transizione digitale nei Comuni italiani. Questa lacuna impatta direttamente sulla capacità di valorizzare gli investimenti nel lungo periodo. Nell’insieme, questi dati evidenziano una chiara vulnerabilità strutturale, caratterizzata da territori fragili dal punto di vista delle risorse e competenze. Un’altra sfida è rappresentata dalle dimissioni: tra il 2015 e il 2021 hanno raggiunto il numero preoccupante di 14.548. La fuga di competenze dal settore pubblico al privato è legata al tema del compenso: è difficile trattenere talenti nella PA quando il settore privato offre retribuzioni notevolmente superiori per ruoli simili. In Italia, dunque, la strada è ancora lunga prima di poter dire che il Paese abbia effettivamente consolidato una leadership digitale e ridotto la dipendenza estera nei settori legati ai prodotti, servizi digitali e infrastrutture. Questo è soprattutto vero specie se poniamo attenzione alle difficoltà che tuttora incontra la PA. Va da sé che il successo nel percorso verso una leadership digitale non possa prescindere da una modernizzazione efficace e completa di quest’ultima. Anche il digitale diventa un tema politico, perché la sua regolamentazione richiede scelte chiare da parte degli attori politici. Arianna Perri 27


EXECUTIVE ITALIA DIGITALE ANALYSIS | Networking

DATI SUI BINARI DELL’ALTA VELOCITÀ Con la tecnologia informatica Italo può tracciare le vendite su tutti i canali, per meglio comprendere i processi di acquisto e per contrastare le frodi.

G

arantire la business continuity attraverso l’osservabilità delle applicazioni. Su questa base, Italo ha avviato un percorso di evoluzione tecnologica che oggi si è esteso al controllo di molte variabili di business. L’azienda di trasporti, principale competitor di Trenitalia sull’alta velocità, non usa la tecnologia solo per controllare il traffico sulla propria rete e per la manutenzione del parco, ma anche per trasformare attività a supporto diretto dell’IT in risposte alle esigenze del business. In un contesto come quello dei trasporti ferroviari, la possibilità di far leva su dati consistenti e su sistemi affidabili gioca un ruolo fondamentale. 28 | DICEMBRE 2023

Qualche tempo fa, il reparto IT di Italo ha pensato di dotarsi di una piattaforma in grado di monitorare costantemente le prestazioni delle applicazioni. “Ci interessava garantire la business continuity, ma un’osservabilità a 360° ha consentito di tenere sotto controllo anche processi di business”, racconta il Cio della società, Daniele Deligia. “In questo modo, abbiamo potuto non solo disporre di tool di supporto per il miglioramento delle performance, ma siamo stati anche in grado di integrare meccanismi di automazione, ad esempio per contrastare le frodi sul fronte dell’e-commerce”. Quando il business ha richiesto all’IT di poter disporre di strumenti utili per

poter agire più velocemente, la piattaforma Splunk, già impiegata per l’osservabilità appena descritta, è stata utilizzata per fornire le risposte richieste. Con il supporto del partner Moviri, è stata sviluppata una dashboard che oggi consente di monitorare in tempo reale tutti i canali di vendita, sostanzialmente minuto per minuto, in modo da poter individuare rapidamente eventuali criticità ed effettuare confronti puntuali. “Ci sono risultati concretamente misurabili, che riguardano, per esempio, una riduzione delle restituzioni nell’ordine del mezzo milione all’anno oppure la possibilità di gestire correttamente il credito alle agenzie di viaggio, riducendo l’esposizione con un monitoraggio proattivo sul comportamento di ognuna di loro”, illustra Deligia. Le evoluzioni su questo fronte stanno tuttora proseguendo. Dal 2022, per


IL CAMMINO DI SPLUNK, IN ATTESA DI CISCO Osservabilità e cybersecurity sono fra le problematiche più stringenti oggi per i Cio e IT manager delle aziende. Di questo si occupa oggi Splunk, in un percorso evolutivo che dalla sicurezza e dalla gestione dei dati di sistema si è progressivamente spostato verso le soluzioni che permettono di misurare e tenere sotto controllo le performance, la disponibilità e la consistenza dei sistemi informativi, rilevando e intervenendo sui possibili incidenti. Il cammino è stato avviato da qualche tempo e sta proseguendo, come conferma il country manager e area vice president, Gian Marco Pizzuti: “Ci siamo fatti conoscere per l’offerta in ambiti come Siem (Security Information and Event Management, NdR) e log management, ma ci siamo evoluti dall’osservazione degli attacchi a quella dei processi e delle infrastrutture. Sappiamo di avere competitor riconosciuti, come Dynatrace o AppDynamics, ma non a caso si tratta di realtà che oggi stanno cercando di allargarsi verso la cybersecurity, dove invece noi siamo già presenti e non è molto facile accreditarsi da neofiti”. Certo, lo scenario è destinato a mutare nel medio termine, in seguito all’accordo di acquisizione di Splunk da parte di Cisco, annunciato lo scorso settembre.“Ci vorrà almeno un anno per capire come si configurerà la nuova realtà”, prevede Pizzuti. “Di certo, la combinazione delle Gian Marco Pizzuti due aziende appare promettente e per noi significa diventare un big player anche in termini dimensionali”. Splunk è sul mercato da un ventennio e si è ricavata uno spazio riconosciuto nella capacità di raccogliere tutti i log dai sistemi informativi, per consentire all'IT di esplorarli alla ricerca di anomalie, ottimizzazioni e visibilità su ciò che accade all'interno delle macchine. “La nostra piattaforma è la base della nostra proposizione, ma non siamo mai stati una vera azienda di prodotto”, commenta Pizzuti. “Lavoriamo sui progetti e proponiamo una soluzione molto personalizzabile, tant’è vero che esistono sul mercato quasi 2.900 applicazioni con un connettore per Splunk”. In Italia l’azienda è presente da diversi anni e procede lungo un percorso di crescita consolidato con l’assegnazione di gare importanti nella Pubblica Amministrazione, in particolare con Consip e con il Polo Strategico Nazionale. “In realtà a Roma siamo arrivati da poco”, racconta Pizzuti. “Siamo più radicati nel settore finance, nelle telco e soprattutto nel manifatturiero, dove lavoriamo anche sulla protezione degli impianti, che rappresentano la parte più delicata per quanto riguarda l’esposizione agli attacchi”.

esempio, Italo ha iniziato a vendere anche i biglietti dei treni regionali di Trenitalia, in modalità digitale. Con la tecnologia già esistente, è stato possibile costruire un vero e proprio sistema analitico, che aiuta a far comprendere i comportamenti d’acquisto dei clienti, su tratte in precedenza poco conosciute. “Oggi siamo in grado di capire se esistano aree di vendita poco coperte, ma richieste dalla clientela, in modo da poter agire per ritarare l’offerta”, specifica Deligia. La soluzione adottata per il momento funziona in modalità on-premise. “Stia-

mo valutando il cloud, ma non vogliamo spostarci in semplice modalità lift & shift e, quindi, vogliamo dotarci delle competenze necessarie”, indica il Cio. “Abbiamo però iniziato con qualche sperimentazione. Da poco, per esempio, abbiamo acquisito la startup nativa digitale Itabus e lì stiamo testando i nuovi moduli per l’osservabilità in cloud in ambiente Aws”. Nel frattempo, sull’infrastruttura di Splunk Italo sta costruendo anche il proprio Siem (Security Information and Event Management, NdR). Il rilevamento delle anomalie (anomaly detec-

tion) viene sfruttato per far sì che l’IT sia in grado di reagire su problematiche tecniche specifiche, ma anche per fornire spiegazioni più circostanziate e, in generale, per comunicare meglio con il business.“Abbiamo ridotto fino al 90% il flusso di ticket verso l’IT per segnalazioni di malfunzionamenti”, evidenzia Deligia. “La piattaforma è integrata con ServiceNow per il trouble ticketing e questo serve per informare su problemi di vario genere, che possono riguardare anche i rapporti con l’esterno, ad esempio nei casi di blocco dell’utilizzo delle carte di credito”. Roberto Bonino 29


NUOVO ANNO, NUOVI PERICOLI (E DIFESE)

I

l cybercrimine è sempre proiettato verso il futuro, sa cavalcare le tendenze (come i temi di attualità, sfruttati per campagne di phishing) e le nuove tecnologie (come l’AI generativa), oltre far leva sulle debolezze note e irrisolte negli ambienti IT delle aziende (vulnerabilità software, mancanza di visibilità, errate configurazioni, scarsa sensibilità del personale sulle buone pratiche di sicurezza). Negli ultimissimi anni sono emersi fenomeni

come il ransomware-as-a-service e hanno preso piede gli attacchi cosiddetti di supply chain, che colpiscono a monte o nel mezzo della catena di fornitura tecnologica (per esempio un software o un fornitore di servizi) per danneggiare un l’obiettivo finale che sta a valle (aziende e utenti). Che cosa succederà nel 2024 è difficile dirlo con esattezza, ma abbiamo raccolto alcune delle più interessanti previsioni degli addetti ai lavori.

“Nell’ambito dell’Extended Detection and Response (Xdr) l’intelligenza artificiale generativa è un modo per abbassare la barriera tecnica e rendere gli strumenti più facili da usare. Per esempio può aiutare nelle investigazioni sui dati con domande in linguaggio naturale, può evidenziare correlazioni sui dati e generare riassunti. Nell’ambito dell’Mdr, invece, può aiutare i nostri analisti a diventare più veloci ed efficienti, fornendo insight e suggerimenti su cui poi l’analista dovrà trovare conferme”. Dave Mareels, senior director, product management di Sophos

“Come confermato dalle Nazioni Unite, il 2023 è stato l’anno con il maggior numero di conflitti armati dalla Seconda Guerra Mondiale. Questa situazione di conflitto, unita agli strascichi della pandemia e alle calamità naturali, ha creato terreno fertile per le truffe nel campo della beneficienza. Guardando al 2024 ci aspettiamo un aumento significativo di questo tipo di truffe, sull’onda dell’impatto di queste situazioni critiche”. Kaspersky

“Un pericolo in crescita sono gli attacchi basati su immagini, ovvero l’esempio perfetto della natura mutevole delle minacce informatiche. Sono inclusi in questa categoria i payload che sfruttano tecniche di steganografia, che permette di nascondere informazioni quali codici, testi o file malevoli all’interno di immagini; un altro metodo è il watermarking malevolo: in questo caso, gli aggressori aggiungono sulle immagini un watermark impercettibile alla vista e contenente informazioni o link verso contenuti malevoli. Infine, non vanno dimenticati i file poliglotti, creati in modo da essere interpretati sia come immagini valide sia come file eseguibili, con cui gli hacker possono eludere alcuni controlli di sicurezza”. Sheila Hara, senior director, product management Email Protection di Barracuda

30 | DICEMBRE 2023

Immagine di B A da Pixabay

CYBERSECURITY


“Nel 2024 le soluzioni di analitycs e intelligence sulle minacce di prossima generazione porteranno a una graduale eliminazione dei sistemi Siem (Security Information and Event Management). Queste soluzioni moderne consentono ai team di sicurezza di estendere le capacità oltre l’analisi dei log per accedere al contesto fornito da una gamma più ampia di modalità di dati e diversi tipi di intelligenza artificiale, comprese tecniche generative, causali e predittive, che lavorano insieme”. Dynatrace

“Un numero ancor maggiore di aziende passerà alla gestione degli accessi senza password, dai passkey alla autenticazione multifattoriale (Mfa), per contrastare gli attacchi. Gli autori delle minacce faranno evolvere le proprie tattiche di pari passo per ingannare utenti e terze parti, rubare i cookie di sessione e aggirare i meccanismi di autenticazione forte. La loro creatività darà i suoi frutti: entro il 2024, l’hijacking delle sessioni rappresenterà il 40% di tutti i cyberattacchi. La vigilanza continua sulla protezione, il monitoraggio e la risposta all’abuso/ compromissione delle sessioni degli utenti e dei cookie saranno fondamentali, soprattutto con l’incoraggiante promessa di Google di eliminare definitivamente i cookie”. Cyberark

“Le aziende abbracceranno l’intelligenza artificiale generativa in modo tempestivo o gli autori delle minacce la sfrutteranno più rapidamente per ottenere un vantaggio? Sfortunatamente, l’ago della bilancia penderà a favore del lato oscuro poiché gli autori delle minacce superano le aziende nell’adozione dell’intelligenza artificiale generativa. Preparatevi a un assalto implacabile di deepfake, sofisticate campagne di phishing e payload furtivi che eludono le misure di sicurezza degli endpoint. Queste sfide metteranno alla prova le capacità dei difensori della sicurezza informatica come mai prima d’ora”. Aleksandr Yampolskiy, cofondatore e Ceo di SecurityScorecard

“Possiamo ipotizzare che le compromissioni su supply chain continueranno anche nel 2024. Quanto alle minacce legate all’intelligenza artificiale generativa, possiamo dire che dal punto di vista della creazione di malware non esiste ancora una capacità comparabile a quella degli esseri umani. In compenso l’AI viene già usata e potrà fare altri danni nello scamming”. John Shier, field Cto di Sophos

“I Cio hanno lottato con lo ‘shadow IT’ in passato e ora si troveranno ad affrontare la ‘shadow AI’, ovvero soluzioni utilizzate o sviluppate all'interno di un'organizzazione senza un'autorizzazione ufficiale o un monitoraggio da parte dell'IT. Alcuni dipendenti continueranno a utilizzare strumenti di IA generativa per aumentare la produttività e i Cio si interrogheranno quotidianamente su quanto debbano implementare questi strumenti a e su quali siano le barriere da mettere in atto per salvaguardare le loro organizzazioni dai rischi associati”. Jay Upchurch, chief information officer di Sas

“Gi assistenti personali si faranno strada diventando mainstream nel 2024, che si tratti di funzionalità presenti nei dispositivi indossabili o negli smartphone [...]. Gli assistenti personali potrebbero essere il fattore che motiva e incoraggia attacchi reali contro l’AI, come iniezione di prompt e attacchi di inferenza. Altre tecniche, come l’ottimizzazione per i motori di ricerca (Seo), giocheranno un ruolo nei piani degli avversari. Ingannare l’AI per farla funzionare male o per ottenere risultati fuorvianti sarà una proposizione allettante per chi attacca. E se l’interfaccia risponde a comandi vocali e l’utente non può scorrere il mouse per verificare il contenuto che sta per aprire, allora sarà molto più facile ingannare le persone su link e documenti malevoli”. Andy Patel, ricercatore di WithSecure

“L’AI generativa eroderà l’efficacia della sicurezza email. Inoltre, il suo utilizzo in attacchi di social engineering fungerà da campanello d’allarme sul fatto che le attuali linee di difesa sono inadeguate. Di conseguenza mi aspetto che le aziende si orienteranno su approcci di sicurezza a valle, come lo Zero Trust, la microsegmentazione e meccanismi di rilevamento e risposta”. Oliver Tavakoli, chief technology officer di Vectra AI

31


Immagine di Freepik

CYBERSECURITY

IL DIFFICILE PERCORSO VERSO LA “FIDUCIA ZERO” Verifica costante delle identità, analisi del contesto e concessione del privilegio minimo: sono alcuni dei principi di questo modello. A che punto sono le aziende italiane nel percorso di adozione?

32 | DICEMBRE 2023

T

utte le organizzazioni oggi devono confrontarsi con elevati rischi di cybersecurity. Nel farlo, sono chiamate ad adottare soluzioni tecnologiche ma anche, soprattutto, misure organizzative. La scelta della migliore “postura” di sicurezza dipende da molte considerazioni, in primis da un’analisi dei rischi specifici per la singola realtà. Ma anche da altri aspetti: lo stato delle infrastrutture IT, il percorso verso ambienti ibridi e multicloud, l’adozione di modelli di smart working e flexible working. Di recente, è emersa come prioritaria la gestione del rischio legato alle terze parti, sia per lo

scambio di dati sia per l’esternalizzazione di interi processi, non ultimi quelli Ict. Per elevare la sicurezza e assicurare i futuri processi di trasformazione digitale, sono sempre più numerose le realtà che si affidano a un modello cosiddetto “Zero Trust”. Questa filosofia si basa sull’idea che, dal punto di vista informatico, non bisognerebbe fidarsi di nulla o di nessuno all’interno o all’esterno di un’organizzazione. In pratica, nessuna parte, nessun utente o dispositivo dovrebbe essere considerato automaticamente attendibile o degno di fiducia, ma al contrario tutte le transazioni e gli accessi a sistemi


e dati dovrebbero essere gestiti con un controllo e un’autenticazione continua. In sostanza, i principi chiave del modello Zero Trust sono: verifica costante delle identità digitali; limitazione dei privilegi (l’accesso ai dati e alle risorse deve basarsi sul principio dell’accesso minimo necessario); monitoraggio e audit (le attività degli utenti e dei dispositivi devono essere costantemente monitorate e registrate); microsegmentazione (la rete è suddivisa in segmenti più piccoli e separati, in modo che eventuali compromissioni localizzate di un utente o dispositivo non si estendano ad altre parti della rete); politiche basate sul contesto (le decisioni di accesso si basano sul contesto dell’utente, del dispositivo e delle risorse); isolamento delle risorse critiche (i dati più sensibili sono isolati ulteriormente e protetti con misure di sicurezza come la crittografia). Vista l’importanza che il tema sta acquisendo, The Innovation Group ha intervistato i chief information security officer (Ciso) di importanti realtà italiane, per comprendere quali sono gli approcci adottati e quali i percorsi seguiti per una più ampia implementazione di Zero Trust. I primi passi da compiere

Il tema della “fiducia zero” ha avuto negli ultimi due anni una grandissima eco. La sua applicazione in azienda risulta però piuttosto complessa, quindi un punto critico è decidere da dove partire. “Noi abbiamo intrapreso un’analisi molto dettagliata che ha portato alla definizione di una strategia pluriennale che, prendendo in considerazione sia la situazione attuale sia i progetti in corso, ha disegnato un percorso Zero Trust sostenibile nel lungo termine, ma allo stesso tempo che permette di raggiungere un alto e solido livello di readiness”, ha detto Luigi Guaragna, head of global cyber security di Eni. Lo Zero Trust è oggi uno dei cinque pilastri che com-

pongono la strategia di cybersecurity di Eni, insieme al tema della cultura e della sensibilizzazione delle persone, alla cyber resilienza, all’introduzione di misure e processi di cybersecurity nel mondo industriale, e al tema regolatorio, che è in continuo sviluppo in Europa e ha un impatto rilevante sulle infrastrutture critiche nazionali. “Per noi Zero Trust è una trasformazione da incentrare su aspetti di processo e tecnologici”, ha aggiunto Guaragna. “Attraverso l’analisi di benchmarking, abbiamo identificato il percorso di evoluzione verso gli obiettivi a cui tendere. Poiché l’azienda è caratterizzata da complessità intrinseche, abbiamo definito e disegnato una roadmap implementativa, qualificando le diverse attività e valorizzando quanto già intrapreso e salvaguardando gli investimenti fatti. Ad esempio, Zero Trust in relazione al networking vuol dire implementare soluzioni che consentano maggiore visibilità del traffico Intranet/ Internet unitamente alla possibilità di implementare un rafforzamento centralizzato di policy di firewalling. Avevamo già previsto un progetto di questo tipo (Secure-SDWan), così come avevamo già intrapreso un percorso di migrazione verso un Identity provider che permette la gestione centralizzata, dinamica e continua degli accessi (Adaptive Trust), basata sulla verifica costante delle autorizzazioni dell’utente e sui rischi effettivi (risk-based), attuando meccanismi appropriati di accesso alle risorse (autenticazione multifattoriale, accesso condizionato e passwordless). Abbiamo molte altre iniziative a piano, ci è servita però questa operazione di sistematizzazione dei diversi progetti, che ora li traccia e dà loro un disegno organico. La nostra esperienza è che non si tratta di un viaggio di breve durata, ma piuttosto di un piano pluriennale: bisogna traguardare obiettivi di medio termine, da raggiungere con una serie di inter-

venti e progettualità per migliorare la propria readiness capitalizzando quanto già implementato. Ulteriori attività ci consentiranno poi, negli anni successivi, di evolvere ulteriormente verso modelli più avanzati. Sappiamo poi che lo scenario tecnologico è in continua evoluzione, andrà monitorato in modo costante, e non è detto che tutto quello che è stato immaginato sarà poi realizzato. Bisognerà contestualizzare e aggiornare periodicamente l’intero quadro”. Un’adozione graduale

Lo Zero Trust di fatto è un percorso che non si arresta mai, che richiede una continua verifica e, una volta impostato, una costante manutenzione. “L’obiettivo del nostro programma Zero Trust è quello di proteggere l’accesso alle informazioni aziendali ovunque queste risiedano a prescindere dal fruitore e dal luogo da cui si accede ai servizi digitali”, ha commentato Nadia Bertone, deputy IT director - Technology Area e Ciso di Brt. “Per questo motivo, è fondamentale iniziare dal processo di security-bydesign, che affrontiamo fin dall’avvio di una nuova iniziativa digitale, partendo dai requisiti di confidenzialità, integrità e disponibilità espressi dal business owner, basandosi sulle misure di sicurezza delle informazioni applicabili all’architettura scelta e sull’analisi dei rischi che si corrono. Quindi il modello si applica attraverso misure organizzative e tecniche, fra le quali: il governo dell’intero ciclo di vita dell’identità basato sui principi di least privilege e need to know, l’autenticazione multi-fattore, la micro-segmentazione della rete, l’accesso sicuro da remoto alle risorse digitali on-premise o nel cloud, e infine la formazione per la security awareness. Una volta impostato, Zero Trust è un impegno continuo, nella gestione ordinaria e nel disegno di nuovi servizi. Tutto questo richiede notevoli sforzi a livello di organizzazione, 33


CYBERSECURITY

ed è indispensabile il commitment del vertice aziendale. Nel nostro caso, nel corso del tempo la sensibilità sul complesso tema della cybersecurity si è ampliata e la proficua collaborazione con i colleghi ha semplificato l’adozione delle misure di sicurezza”. Caratteristiche peculiari

Il successo di un programma così ampio e impegnativo, oltre che prolungato su più anni e molto impattante sulle persone, richiede naturalmente una serie di accortezze. “In Cassa Depositi e Prestiti abbiamo affrontato Zero Trust in modo puntuale e preciso, inserendo questo stream nel piano della sicurezza di gruppo e facendolo approvare dal nostro consiglio di amministrazione”, ha detto Nicola Vanin, chief information security officer di Cassa Depositi e Prestiti. “Si tratta di un programma rilevante, con associato potere decisionale e budget. Sarà sviluppato in step: nel 2022 è stata effettuata un’approfondita analisi tecnologica e di processi già in essere in Cdp, nel 2024 termineremo una prima fase importante di implementazione per poi proseguire con lo sviluppo di un monitoraggio costante del nuovo modello.

L’analisi ha riguardato molti aspetti: il controllo accessi, tutte le caratteristiche infrastrutturali, le policy e le procedure, in particolare quelle relative al controllo delle identità. Quello che più offre l’adozione di questo framework, in perenne sviluppo, è la continua autenticazione. C’è una curva importante di maturità per cui l’autenticazione continua (quindi la fiducia guadagnata attraverso di essa) avviene tramite un dialogo instaurato con l’utente. Per limitare frizioni e difficoltà che possono nascere da questo controllo sugli utenti, è molto importante instaurare con loro un buon dialogo, far capire che l’autenticazione continua è necessaria per attività con un livello di rischio particolare. Profilando il rischio legato agli utenti, consideriamo le possibilità di accesso a diversi ambienti applicativi e da differenti workplace, ottenendo così un monitoraggio continuo basato sul rischio”. Il fattore umano rappresenta quindi il primo elemento critico da considerare in un percorso di questo tipo. “Come azienda abbiamo intrapreso un percorso basato su un modello di security-by-design dove l’approccio Zero Trust è fondamentale”, ha spiegato Stefano San-

dri, corporate infrastructure e security director di Mapei. “Questo ha richiesto e continua a richiedere un vero cambio di paradigma. Nella sua prima fase, ha richiesto un forte investimento su aspetti culturali per i team che si occupano direttamente di security, su infrastrutture, workplace e applicazioni, ma che stiamo cercando di estendere anche alle funzioni di business. Il team di cybersecurity in Mapei è focalizzato su operations (attraverso un Security Operations Center), architetture e remediation di sicurezza. È attivo, tramite il nostro Soc, un response team dedicato alle attività da svolgere in caso di compromissione e incidenti. All’interno della squadra di cybersecurity, abbiamo oggi un’area dedicata alla governance, che sta attuando un processo di adozione del framework NIST e che sviluppa e porta avanti queste best practice. Nell’ultimo anno stiamo investendo molto nella revisione del modello organizzativo e di gestione della sicurezza, cercando di ampliare e includere sempre più funzioni aziendali all’interno dei processi di cybersecurity. In parallelo sono iniziati i percorsi di studio, di valutazione e in taluni casi di adozione di soluzioni tecnolo-

Fonte: The Innovation Group e Csa, “Zero Trust 2023 Survey”, ottobre 2023

34 | DICEMBRE 2023


Sfide ancora da superare

“Come tutte le organizzazioni abbiamo cambiamenti importanti sempre in corso legati a diverse progettualità, in questo caso il paradigma Zero Trust ci permette di essere più efficaci ad ogni nuova sollecitazione”, ha detto Nicola

Immagine di Kerfin7 su Freepik

giche tese in direzione di logiche Zero Trust, quali ad esempio soluzioni Casb (Cloud Access Security Broker) e alcune componenti Ztna (Zero Trust Network Access). Questo percorso ci vedrà impegnati in modo continuativo anche nei prossimi anni, considerando le evoluzioni e gli incessanti mutamenti degli scenari legati alla cybersecurity. Base fondamentale per un corretto percorso verso lo Zero Trust è ovviamente la gestione e protezione delle identità, tema su cui siamo sempre impegnati in termini sia di soluzione tecnologiche sia di costante miglioramento dei processi di gestione. Basilare è l’investimento fatto e che continua nella formazione e nella security awareness estesa a tutti i dipendenti dell’azienda”. “La corretta protezione delle identità è essenziale nel mondo moderno aiuta ad affrontare sfide di security che sono sempre più frequenti”, ha affermato Enrico Riccardi, group Ciso di Chiesi Farmaceutici. “Non è concepibile, come avviene oggi, che gli attaccanti possano utilizzare credenziali con cui riescono ad accedere ai nostri sistemi, magari anche con privilegi elevati. Noi abbiamo adottato un percorso che ci sta portando a completare l’adozione dell’autenticazione multifattoriale ovunque, sia esternamente sia internamente. È un primo passo, a cui seguirà la gestione di account privilegiati, ossia la riduzione al minimo dei privilegi secondo il concetto need to know e need to do, per poi passare a un’ampia attività di identity governance e administration. Questo programma andrà a toccare l’intera organizzazione”.

Vanin. “Serve una capacità di mutamento e adattamento continuo rispetto a tutte le innumerevoli derivate che un’organizzazione assume nel suo percorso, sia organizzativo, sia applicativo e tecnologico. Il nostro vantaggio è quello di poterci interfacciare con altre istituzioni internazionali, istituti statunitensi ed europei, oltre che con i corrispettivi peer europei (in Francia Casse Depot, in Germania Kfw). Interagiamo con loro in modo costante su vari temi in ambito security e su milestone importanti che abbiamo sui rispettivi processi di adozione su Zero Trust. È fondamentale che ogni soluzione adottata abbia un suo piano di deployment ben preciso, un budget dedicato, tenendo traccia delle milestone raggiunte. Vanno considerate più fasi nella progettualità: analisi, attivazione, implementazione del servizio, addestramento e verifica dei risultati. Serve inoltre una correlazione importante di dati: dagli strumenti arrivano informazioni di cui la security è il primo beneficiario, ma ci sono dati preziosi anche per i colleghi dell’IT, ad esempio per le attività di manutenzione ordinaria, utile per il mantenimento del modello Zero Trust. Molti strumenti tengono continuamen-

te traccia del comportamento e delle interazioni di device e persone, avere un Soc integrato con il modello Zero Trust adottato è elemento imprescindibile”. “Molte sono le misure di sicurezza presenti nella nostra cybersecurity roadmap, già progettate e implementate, e che ora richiedono gestione e monitoraggio costante”, ha aggiunto Nadia Bertone. “Altre ancora ne serviranno per essere sempre all’altezza delle sfide in un panorama tecnologico che cambia rapidamente. Due temi nevralgici, in particolare, su cui continueremo a investire sono la security governance, attraverso la definizione di politiche, processi e procedure, e la verifica delle terze parti in modo che siano allineate ai nostri requisiti di sicurezza”. “L’attuale frammentazione degli ecosistemi digitali, on cloud e on-premise, richiede l’adozione di una Cybersecurity Mesh Architecture”, ha affermato Luigi Guaragna. “In attesa di un consolidamento del mercato, e considerata l’attuale parcellizzazione delle soluzioni disponibili, è necessario orientarsi verso quelle che offrono maggiore interoperabilità per attuare processi di sicurezza più efficaci”. Elena Vaciago 35


LA LUNGA MARCIA DEL 5G

Sono 1,6 miliardi, oggi, gli abbonamenti a servizi telefonici e dati su reti di quinta generazione. Il consumo di dati è destinato a triplicare, o quasi, in sei anni.

36 | DICEMBRE 2023

C

irca 1,6 miliardi di abbonamenti telefonici 5G e un consumo di dati pro capite che arriva, in media, a 21 GB al mese: sono due dei numeri che fotografano l’attuale scenario delle comunicazioni mobili, secondo l’ultimo “Mobility Report” di Ericsson (giunto ormai alla 25esima edizione e basato su una molteplicità di fonti, dati proprietari e non, misurazioni e statistiche demografiche). Solo quest’anno sono stati attivati 610 milioni di nuovi abbonamenti al 5G, il 63% in più rispetto a quelli attivati nel 2022. Il numero surclassa di circa 100 milioni le precedenti stime, segno del fatto che il 5G è cresciuto a dispetto dei pro-

Immagine di Fredrik Solli Wandem da Pixabay

EXECUTIVE ANALYSIS | Networking TELCO

blemi dell’economia e del giro di vite alle spese voluttuarie che ha caratterizzato molti mercati. Peraltro il 2023 è stato ancora un anno difficile per gli smartphone, quindi i progressi del 5G sono ancor più degni di nota. Nell’ultimo trimestre, le regioni che hanno registrato il maggior numero di nuovi abbonamenti sono la Cina, l’India e gli Stati Uniti. Ericsson sottolinea, tra le altre cose, che la distribuzione del 5G standalone (5G SA, tecnologia con cui lo smartphone si collega a un’unica rete anziché a due) sta contribuendo a risolvere le lacune di connettività in un mercato gigantesco e popoloso come quello indiano.


COMPETIZIONE SERRATA TRA I CARRIER IN ITALIA

L’incremento dell’offerta

Se è vero che la corsa all’acquisto per gli smartphone ha rallentato e che i cicli di sostituzione si stanno allungando, d’altra parte l’offerta di modelli abilitati al 5G è ormai ampia e anche segmentata per prezzo. Finora sul mercato sono stati commercializzati più di mille smartphone con modem 5G, di cui oltre 240 solo nell’ultimo anno. Questo contribuisce a orientare gli acquisti della maggior parte dei consumatori: sul totale degli smartphone venduti nel 2022 a livello mondiale, il 62% è un modello 5G (versus il 57% del 2022). Sul totale del traffico dati su reti mobili di quest’anno, un quarto è transitato dal 5G. Le reti di quinta generazione portano con sé anche un’offerta di servizi più ricca e variegata. Molti operatori telefonici e altri fornitori di servizi 5G prevedono offerte con piano dati illimitato (il 45% su base globale, l’89% in Europa Occidentale) e pacchetti di servizi che includono telefonia, traffico dati e servizi streaming (56%).

di upload) e quello che valuta la “consistenza” (cioè la velocità costante). Tim, invece, è risultata la scelta migliore per il servizio 5G, dove garantisce un’ottima esperienza video e le più elevate velocità di download e upload, ovvero rispettivamente 239,3 Mbps e 22,8 Mbps. Iliad primeggia negli ambiti del video live e dei videogiochi su reti 5G, oltre a garantire la maggiore disponibilità di rete (sia 4G sia 5G). WindTre vince sulla disponibilità del servizio 5G e anche, a pari merito con Fastweb, sulla copertura del 5G. Sebbene Fastweb e WindTre abbiano incassato meno premi rispetto alla concorrenza, i dati i OpenSignal evidenziano che sulla copertura 5G il distacco è evidente: i due carrier ottengono entrambi un punteggio di 5,11 su una scala che va da uno a dieci, superando di oltre due punti il terzo classificato Vodafone.

Immagine di freepik

Qual è il miglior operatore di telecomunicazioni mobili in Italia? Una domanda che probabilmente ci siamo posti molte volte, e la cui risposta può dipendere da considerazioni di prezzo, copertura di rete, funzionamento del servizio, trasparenza sui termini del contratto e anche qualità del supporto clienti. Periodicamente OpenSignal risponde a questa domanda almeno in parte, considerando velocità, copertura e qualità dell’esperienza di rete mobile dei principali carrier. Nell’ultimo report trimestrale, basato sui dati di telemetria di oltre 100 milioni di dispositivi nel mondo raccolti tra inizio luglio e fine settembre, dal focus sull’Italia escono vincitori un po’ tutti. Vodafone si aggiudica tutti e cinque i premi della categoria “esperienza complessiva” (riferiti alla fruizione di video, video live e videogame e alle velocità di download e

IoT e applicazioni industriali

La connettività a banda larga si fa strada anche tra i dispositivi Internet of 37


EXECUTIVE ANALYSIS | Networking TELCO

SOSTENIBILITÀ E NUOVE APPLICAZIONI PER LE RETI DI DOMANI Nel campo delle tecnologie di rete e telecomunicazione, Ericsson è uno dei leader del mercato mondiale, insieme a Nokia e Huawei. Ma la multinazionale svedese è anche un capofila nell’innovazione: in quasi un secolo e mezzo di vita (è nata 145 anni fa e da 105 è presente in Italia) l’azienda ha accumulato più di 60mila brevetti registrati e ha siglato più di un centinaio di accordi di licensing. Oggi la divisione ricerca e sviluppo di Ericsson dà lavoro a quasi 28mila persone, distribuite su 21 centri di R&D nel mondo. Non da ultimo, l’azienda reinveste in R&D circa il 17% del proprio fatturato annuo. E non è solo una questione di numeri. “Spesso le attività di R&D e l'innovazione vengono tenute separate nelle aziende. Noi invece ci sforziamo di utilizzare l’innovazione come strumento per migliorare i processi di ricerca e sviluppo”, ha spiegato Alessandro Pane, direttore ricerca e sviluppo di Ericsson in Italia, durante un recente incontro con i giornalisti. “Tra i vendor rappresentiamo una delle più grandi attività di R&D anche per numero di persone occupate. Abbiamo una media di cinquantina di brevetti riconosciuti all’anno, ma le proposte avanzate sono

tre volte tanto”. L’Italia è per Ericsson un tassello importante, non solo come mercato di sbocco ma anche come fucina di idee, di sapere e di innovazione. Da 45 anni l’azienda conduce in Italia attività di ricerca e sviluppo, oggi strutturate sui tre centri di Genova, Pisa e Pagani, nel salernitano. “Genova è il quartier generale della R&D in Italia, sia per l’hardware sia per il software per le reti di quarta, quinta e sesta generazione”, ha raccontato Pane. “A Pisa si realizzano attività di ricerca di base, ricerca pura, all'interno del comprensorio del Cnr e della Scuola Sant’Anna”. Tra i focus attuali, Ericsson sta studiando nuovi materiali, strumenti e modalità di trasmissione della luce per le future reti 6G, che dovranno non solo garantire velocità e performance ma anche contenere i consumi energetici. “Se vogliamo essere pronti per gli obiettivi di impatto zero, anche le reti devono evolversi”, ha sottolineato il direttore R&D, alludendo a una delle grandi sfide del mondo Ict del prossimo decennio. A Pagani, infine, le attività si focalizzano sullo sviluppo software, e in particolare su tecniche innovative per la sicurezza dei dati e dei nodi della rete. “I rischi di hackeraggio per

Things (IoT), un eterogeneo mondo che va dai sensori ai sistemi robotici, dagli smartwatch agli apparati di domotica. Gli oggetti IoT connessi a Internet tramite 2G e 3G sono in lento declino e gradualmente lasceranno posto al 4G e al 5G. In base alle stime di Ericsson, a fine 2023 esistono circa 1,6 miliardi di connessioni IoT in banda larga, basate su reti di quarta e quinta generazione. Tra le applicazioni industriali più promettenti Ericsson sottolinea l’impiego delle reti 5G nelle gigafactory, i grandi impianti di produzione di batterie elettriche e sistemi di stoccaggio energetico. La connettività wireless è necessaria per connettere sensori, macchinari e linee di produzione, e il 5G è ideale per garantire larghezza di banda, scalabilità e stabilità della connessione, evitando ritardi di rete e segnali intermittenti. 38 | DICEMBRE 2023


le reti diventeranno sempre più gravi, considerando applicazioni future come quelle per la mobilità urbana o i sistemi di smart city”, ha fatto notare Pane, illustrando una delle soluzioni all’avanguardie messe in mostra a Genova durante gli Innovation Days di questa settimana (giornata in cui l’azienda apre le porte del proprio centro di R&D, tra demo tour, seminari e tavole rotonde). In questa applicazione l’intelligenza artificiale permette di rilevare, su una rete, i comportamenti potenzialmente sospetti (che potrebbero però anche essere benevoli) come l’uso smodato delle risorse di memoria. Il problema viene isolato e analizzato prima che, nel frattempo, possa impattare sul buon funzionamento delle applicazioni, e grazie alla partizione della rete è possibile contenere i rischi e gli eventuali disagi. L’utilizzo dell’AI permette anche di inseguire le evoluzioni delle tecniche di attacco, grazie alle capacità di continuo apprendimento degli algoritmi. Altre innovazioni riguardano la sostenibilità, la connettività 5G e la manutenzione delle reti. Attraverso nuovi modelli architetturali e linguaggi di programmazione, e grazie al

Uno sguardo sul futuro

Nel traffico dati mobile, abbiamo assistito nell’ultimo decennio a una corsa impetuosa: il volume è raddoppiato, all’incirca, ogni due anni. Da qui al 2029 la corsa rallenterà, ma il traffico continuerà comunque a crescere di anno in anno sull’onda della crescente domanda di servizi digitali, dello sviluppo delle reti 4G e 5G in Paesi molto popolati e di offerte di abbonamenti sempre più vantaggiose. A tutto ciò si sommerà la “migrazione” al 4G e 5G della maggior parte degli attuali due miliardi di abbonati a servizi che utilizzano ancora il 3G e addirittura il 2G. Più si diffonderà l’utilizzo di reti di ultima generazione e più saranno usate anche applicazioni a consumo intensivo di dati, come lo streaming video, il gaming, le videochiamate, la realtà

contributo dell’AI, è possibile ridurre le risorse di calcolo e memoria utilizzate dai software di rete. Quella del “software green” sarà una via obbligata in futuro, al crescere delle necessità di trasmissione dati sulle future reti 6G. Tornando al presente, con la sua velocità e affidabilità oggi il 5G può già essere il supporto per applicazioni in campo medico e in particolare nelle emergenze. Nella soluzione di Ericsson, sulle ambulanze il personale medico può utilizzare uno strumento di intelligenza artificiale per leggere i tracciati degli elettrocardiogrammi e realizzare una diagnosi tempestiva delle malattie cardiovascolari: l’assistenza al paziente diventa più tempestiva ed efficace. Ericsson sta anche studiando nuove soluzioni per la cosiddetta serviceability, la “serviziabilità” delle reti. Smartphone e visori di realtà aumentata permetteranno di condurre da remoto le procedure (sempre più complesse, a tendere) di installazione, configurazione e manutenzione di apparati di rete. I tecnici potranno completare le procedure utilizzando esclusivamente le funzionalità Bluetooth Low Energy di uno smartphone. V.B.

virtuale, aumentata e mista. Ericsson sottolinea che è difficile tracciare delle stime, perché il traffico potrebbe crescere più del previsto a seconda di quanto prenderà piede l’attesa rivoluzione del metaverso. A grandi linee, ci si attende che il traffico medio mensile pro capite passerà dai 21 GB al mese del 2023 a 56 GB al mese nel 2029, e in Europa Occidentale a 64 GB al mese per singolo utente. Tra sei anni, la copertura 5G sarà disponibile per circa l’85% della popolazione mondiale e gli abbonamenti 5G raggiungeranno quota 5,3 miliardi entro la fine del 2029. Casi d’uso trainanti

Le previsioni di Ericsson sul 5G non sono le uniche ma sono, probabilmente, tra le più consolidate. Al di là dei nume-

ri, ciò su cui molti vendor e analisti concordano sono i casi d’uso che favoriranno l’ascesa del mercato. La tecnologia di rete wireless di quinta generazione, oltre ad affermarsi sugli smartphone, sarà preziosa per le applicazioni di Internet of Things e di calcolo edge, a cui garantisce larghezza di banda e stabilità della connessione: gli esempi spaziano dalla telemetria tramite sensori nell’edilizia alla telemedicina, senza dimenticare ovviamente le fabbriche e i magazzini 4.0. Inoltre la bassa latenza del 5G è uno dei pilastri dei sistemi di guida connessa, assistita o autonoma, che esigono uno scambio di dati in tempo reale o quasi. Nel variegato ambito delle smart city, questa tecnologia può risolvere le necessità di banda delle applicazioni di videosorveglianza e monitoraggio del traffico stradale. 39


Foto di Gerd Altmann da Pixabay

EXECUTIVE ANALYSIS | Networking TRASFORMAZIONE DIGITALE

LE INFRASTRUTTURE IT INSEGUONO L’EVOLUZIONE Lo stato dell’arte nelle aziende italiane, fra cloud e data center tradizionali, percorsi virtuosi e scogli ancora da superare.

S

e il cloud resta il principale abilitatore di molti processi innovativi, le aziende devono fare i conti con una presenza legacy ancora, in molti casi, ingombrante e con sistemi da far evolvere sull’onda di pressioni tecnologiche, normative e di business. L’avviamento di progetti di trasformazione digitale porta con sé ricadute importanti sulle infrastrutture tecnologiche delle aziende. La convivenza fra componenti on-premise e workload migrati in cloud si abbina a scelte che possono andare 40 | DICEMBRE 2023

in direzioni come l’adozione di architetture a microservizi o di strumenti di monitoraggio più evoluti, ma anche la definizione di una strategia di cybersecurity che tenga conto del “perimetro” allargato oggi da presidiare. L’annuale indagine “Digital Business Transformation Survey”, realizzata da The Innovation Group, ha evidenziato come solo il 21% delle aziende abbia completamente integrato il digitale nel proprio modo di operare e un altro 16% abbia portato a compimento i progetti di trasformazione avviati e ora stia affrontando nuovi passi. Circa la metà delle aziende si trovano in fase di attuazione, a diversi livelli di maturazione, mentre il 10% non ha ancora iniziato o non intende proprio farlo. Va poi notato che nelle aziende la presenza di tecnologie legacy o non aggiornate allo stato dell’arte richiede spesso

continui interventi di manutenzione e, quindi, frena la capacità di innovare. I limiti legati a questo “debito tecnologico” sono molto sentiti dalle realtà italiane e per il 71% del campione analizzato pesano sulla velocità dell’innovazione, seppur in modo più o meno vincolante. Il cloud appare come il principale fattore abilitante dei processi di trasformazione digitale, ma il livello di adozione è meditato. La citata survey rileva come solo nell’8% dei casi sia già sedimentato un approccio cloud-first su tutto e nativo per ogni nuovo sviluppo, mentre il 61% prediliga un approccio selettivo, a supporto di specifici workload o progetti. Fra i fattori che ancora gravano su un andamento più rapido, troviamo anche una percezione ancora poco chiara (se non negativa) degli effettivi risparmi che si possono ottenere e le annose preoccupazioni sulla sicurezza, che peraltro fan-


no capo a una cultura sul tema ancora legata più agli stereotipi che non a studi approfonditi. I motori della trasformazione

Su questi temi The Innovation Group e Technopolis hanno realizzato una ricerca qualitativa che ha coinvolto 23 aziende appartenenti a tutti i principali settori economici del Paese (manifatturiero, retail, finance, PA, food e healthcare, fra gli altri). Il primo dato chiaro emerso dallo studio è che la trasformazione digitale resta un percorso in divenire. Non semplicemente perché nella maggior parte dei casi analizzati il cammino è stato avviato in tempi relativamente recenti (perlopiù l’ultimo lustro), ma anche per la consapevolezza che non ci sia un termine ben definito, quanto piuttosto un flusso di innovazione costante e duraturo nel tempo. I motori che guidano il percorso intrapreso spaziano da esigenze di efficienza operativa alla scalabilità tipica del cloud, dalla necessità di modernizzare il parco applicativo alla volontà di automatizzare alcune attività a basso valore aggiunto. Ma non mancano necessità di garantirsi con il digitale anche una miglior resilienza oppure obiettivi di business ben definiti, perlopiù collegati al go-to-market o all’evoluzione del customer journey. Anche nel campione esaminato per la ricerca qualitativa, la componente legacy incide ed è presente con un peso differenziato, ma non trascurabile. Rispetto al totale delle aziende interpellate, resta un 40% dei carichi di lavoro ancora gestito on-premise. Le ragioni e le dinamiche si differenziano a seconda delle specifiche realtà, ma a grandi linee si possono ricondurre alla presenza di personalizzazioni molto spinte e complesse da trasferire a componenti applicative completamente sviluppate ad hoc in tempi magari anche lontani e su sistemi hardware che ancora miracolosamente riescono a sopravvivere.

Per un numero significativo (ma non plebiscitario) di aziende l’innovazione delle soluzioni applicative passa per l’utilizzo di architetture a microservizi, che prendono i classici “monoliti” (in cui componenti e funzioni si trovano all’interno di una singola istanza) e suddividono tutto in parti più piccole, ciascuna delle quali copre una funzione logica diversa dell’applicazione. Fa il paio con questo passaggio la scelta di sfruttare i vantaggi dei container, alternativa leggera alle macchine virtuali per isolare blocchi di un’applicazione, utilizzarli solo quando necessario e riutilizzarli anche in differenti processi di sviluppo. Il livello di maturità nell’adozione di questa logica architetturale è differente nelle aziende analizzate ed esistono anche casi in cui il passaggio non è stato effettuato semplicemente perché non se ne sente il bisogno. Ragioni di portabilità del software, volontà di velocizzare i processi di sviluppo o anche gestire componenti del mondo legacy spingono verso questa direzione. In questi casi, Kubernetes è lo strumento di orchestrazione comunemente adottato oggi, soprattutto perché consente di potenziare l’utilizzo dell’infrastruttura attraverso la condivisione efficiente delle risorse di elaborazione tra più processi e, quindi per l’allocazione dinamica delle risorse di elaborazione utile per soddisfare la domanda. Sicurezza e certificazioni

Uno dei temi che da tempo angustia i Cio e gli IT manager è quello degli aggiornamenti degli ambienti operativi e, in parallelo, di quelli applicativi. L’aumento delle problematiche di sicurezza, aggiuntosi agli update tecnologici e di versioning, continua a creare più di un grattacapo a chi deve occuparsi di garantire l’affidabilità delle infrastrutture. Spesso gli interventi da effettuare comportano il blocco momentaneo delle

macchine interessate e questo cozza contro le necessità di continuità operativa avanzata soprattutto dai dipartimenti legati alla produzione o all’erogazione di servizi. Il dilemma non è stato ancora realmente risolto anche nel campione analizzato per la ricerca qualitativa. Le finestre di aggiornamento individuate e applicate sono spesso il frutto di un compromesso ritenuto accettabile da tutte le parti coinvolte. Oltre a pianificare gli interventi periodici, per quanto possibile, in modo strutturato e in momenti a basso impatto, la strada maestra appare quella della prioritizzazione delle criticità, anche se gli aspetti organizzativi e culturali ancora fungono da ostacoli. Lo scenario oggi più diffuso è quello basato sulla definizione di finestre scandite dall’importanza dell’aggiornamento richiesto e anche dei dipartimenti interessati, che possono venire coinvolti anche in momenti differenziati. La ricerca ha poi analizzato quale sia la posizione delle aziende sul fronte delle certificazioni, soprattutto alla luce delle nuove normative (già in vigore o destinate a entrarvi) in ambito cybersecurity. Il panorama che è emerso appare piuttosto polarizzato. Da un lato si trova un gruppo di organizzazioni che ha adottato diversi tipi di certificazioni. Prevalgono quelle dell’universo ISO, in particolare la 27001, che definisce i requisiti per disporre di un sistema di gestione della sicurezza delle informazioni (Sgsi), ma anche la 23001, che invece si occupa delle regole per realizzare un efficiente sistema di gestione per la business continuity. Una doverosa attenzione viene dedicata anche alla direttiva Nis2, che coinvolge, all’interno dell’Unione Europea, le aziende di medie e grandi dimensioni erogatrici di servizi ad alta criticità in vari ambiti e che indica una scadenza degli adempimenti al 17 ottobre 2024. Roberto Bonino 41


EXECUTIVE ANALYSIS | Networking TRASFORMAZIONE DIGITALE

PERCORSI COMUNI, APPROCCI DIFFERENZIATI Abbiamo investito moltissimo in direzione del miglioramento del customer journey e della digitalizzazione delle attività più operative. Soprattutto nel primo caso, la capacità di arrivare al real time marketing poggia su un’infrastruttura resiliente. Alla scelta di portare tutto in cloud, ibrido fra pubblico e privato, hanno corrisposto un potenziamento della connettività, specie verso i punti vendita meno coperti, e un monitoraggio costante delle performance infrastrutturali. Francesca Porta, IT director di Autogrill

Foto di Conny Schneider su Unsplash

In questa fase, stiamo particolarmente concentrando l’attenzione sull’ulteriore innovazione dei nostri canali. Le relazioni con la clientela sono al centro del processo di trasformazione ed evoluzione del modello di business della nostra banca e, con questo obiettivo, anche la

42 | DICEMBRE 2023

componente infrastrutturale sta evolvendo. L’apertura al multicloud e ai microservizi fa parte di un complessivo percorso di modernizzazione. Fabrizio Felici, IT continuity & resiliency officer di Bnl – Gruppo Bnp Paribas Il journey-to-cloud è uno dei pilastri del piano industriale partito a metà del 2022. Si tratta, naturalmente, di un percorso articolato e graduale, che deve fare i conti con la realtà consolidatasi nel tempo e con l’operatività. Per le responsabilità che competono alla cybersecurity, il passaggio è delicato soprattutto per una gestione dei dati allocati in ambienti diversi, ma anche per individuare il corretto allineamento agli standard che abbiamo definito al nostro interno. Alessandro Bulgarelli, Ciso di Bper

Entro la fine dell’anno completeremo il processo di migrazione verso un’infrastruttura multicloud, iniziato circa due anni fa. Lungo il cammino, abbiamo dovuto compiere scelte di efficientamento, ma anche di formazione su tutte le persone coinvolte. Fra i primi risultati osservati, abbiamo ridotto il numero di istanze dalle iniziali 23 alle attuali sei, con un risparmio di costi infrastrutturali quantificabile al 15%. Flavio Mauri, group IT director di Cerved Pur lavorando in un contesto dove la componente on-premise è ancora predominante, la migrazione verso il cloud è stata avviata da tempo e procede con passo regolare. Quasi tutti i nuovi sviluppi, poi, sono già cloud-nativi e questo è legato non solo ai processi di innovazione e al lavoro di ricerca tipico di un’a-


zienda farmaceutica, ma anche alle scelte strategiche che abbiamo compiuto in ambiti come la sostenibilità da quando siamo diventati B-Corp. Enrico Riccardi, group Ciso di Chiesi Farmaceutici Da diversi anni è Conad ha avviato un percorso di trasformazione digitale, che ha riguardato la relazione con il cliente attraverso lo sviluppo di tutti i touchpoint digitali, dal sito Internet completamente rivoluzionato alla app, fino ad arrivare a introdurre veri e propri nuovi business venduti quasi esclusivamente online. Questo è anche l’ambito in cui sono state utilizzati tecnologie e servizi innovativi disruptive, lavorando molto in sinergia con il business. Gigliola Pirovano, Cio di Conad La strategia IT di supporto all’evoluzione dell’azienda è essa stessa una continua evoluzione. Le nostre principali direttrici riguardano l’agilità operativa e l’evoluzione delle tecnologie, a partire dall’Erp aziendale per arrivare all’internet of Things per la servitizzazione dei ricambi e all’estensione dell’utilizzo dell’intelligenza artificiale. Quest’ultima per noi va soprattutto nella direzione del miglioramento dell’esperienza degli utenti, ma anche a supporto di una cybersecurity più efficace e predittiva. Massimiliano Cappa, executive vice president e Cio di Danieli & C Officine Meccaniche Stiamo definendo in questa fase obiettivi misurabili, in termini di Kpi, sui processi di trasformazione digitale avviati già da diverso tempo. Le direttrici di lavoro sulle quali ci stiamo muovendo implicano un’innovazione che tocca il nostro personale, il business B2B e anche il B2C, con specifiche modalità di

relazione sia verso i nostri clienti aziendali sia verso i consumatori. Debora Guma, Group Cio di De’ Longhi Lavoriamo in un settore molto regolamentato come quello dei dispositivi medici, quindi dobbiamo allinearci alle certificazioni imposte dalle autorità regolatorie per tipologia di mercato o per Paese. Tuttavia, abbiamo deciso di adottare la ISO 27001 a livello di gruppo non solo per ridurre l’incidenza di rischi cyber, ma anche come garanzia verso partner e fornitori della correttezza delle nostre logiche di trattamento e preservazione dei dati. Diego Lunetta, Ciso di Diasorin Il processo di trasformazione digitale in Dolomiti Energia è iniziato da qualche anno in modo trasversale per tutte le società della nostra multiutility e comprende il journey-to-cloud infrastrutturale, l'evoluzione tecnologica applicativa, il mondo delle vendite, della distribuzione e della produzione di energia e i servizi ambientali. Nel contempo, cerchiamo di portare a bordo anche le novità proposte in termini di innovazione digitale: ad esempio, nel caso più recente, l’applicazione di intelligenza artificiale generativa per la semplificazione delle attività operative di business. Edoardo Fistolera, chief information & digital officer di Dolomiti Energia Già da qualche anno stiamo seguendo un percorso evolutivo che ci ha portato a creare un’apposita divisione dedicata alla digitalizzazione dell’azienda a 360 gradi. Questo ha avuto parecchi riflessi in tutte le aree, soprattutto nell’introduzione di nuovi servizi e business legati alla decarbonizzazione della nostra attività e nelle attività di generazione di

energia elettrica. Tutto il fronte dell’efficienza energetica vede il digitale in primo piano. Giampaolo Tacchini, group Ciso & quality manager di Edison Nella nostra esperienza di migrazione del data center verso l’outsourcing su cloud (privato e pubblico), abbiamo capito che è decisamente fuorviante pensare a questo genere di passaggio da un punto di vista strettamente economico, mentre flessibilità e scalabilità sono senz’altro argomenti vincenti. Oltre a questo, occorre approntare a monte una corretta governance e una strategia di cybersecurity, nonché affrontare il non trascurabile tema delle competenze. Giovanni Martinengo, head of Information & communication technology di Erg Per una realtà come Granarolo, la trasformazione digitale tocca aspetti variegati, che riguardano da un lato la componente IT in senso stretto e dall’altro l’area degli stabilimenti di produzione. Nel primo caso, il piano che abbiamo messo a punto prevede la progressiva ibridazione del data center in direzione del cloud, anche per tutto ciò che riguarda la fondamentale catena dell’order to delivery. Sul secondo fronte, abbiamo iniziato un processo di digitalizzazione che dalla rilevazione dei dati sul campo arriverà nel tempo alla manutenzione predittiva e al digital twin. Fabrizio Bracco, IT manager di Granarolo La nostra interazione con l’esterno avviene ormai quasi esclusivamente attraverso portali informatici, oltre a una presenza fisica sul territorio con cui facciamo promozione dello sviluppo sostenibile. È infatti in corso un’evoluzione decisa verso l’erogazione di servizi al 43


EXECUTIVE ANALYSIS | Networking TRASFORMAZIONE DIGITALE

cittadino in maniera veloce, tempestiva e efficace. Oltre a ciò, in questo momento lo sforzo è concentrato anche sul potenziale dell’intelligenza artificiale e sull’automazione, tanto dei processi rivolti verso l’esterno quanto delle nostre modalità di lavoro. Antonella Massari, Cio di Gse - Gestore Servizi Energetici

Immagine di Steve Johnson su Unsplash

L’evoluzione della nostra infrastruttura è tesa verso l’efficientamento dell’utilizzo di risorse hardware e piattaforme. Inevitabile prendere la direzione del cloud, inizialmente per trasformare in private cloud il nostro data center. Abbiamo scelto la strada della modernizzazione, che riguarda soprattutto le applicazioni più importanti di Inail, dove abbiamo fatto un vero e proprio refactoring su architettura a microservizi. Abbiamo però guardato anche al cloud pubblico per spostare workload che lo consentissero per tipologia dei dati trattati o caratte-

44 | OTTOBRE 2023

ristiche di isolamento rispetto al resto delle applicazioni. Anna Sappa, Cto di Inail La frontiera di sviluppo che ci sta maggiormente coinvolgendo in questo periodo riguarda l’evoluzione dell’esperienza di guida del veicolo e la gestione delle flotte. L’introduzione dell’intelligenza artificiale porterà a una spinta ancor maggiore verso l’introduzione di soluzioni digitalizzate. L’interconnessione e la sicurezza sono le sfide per le aziende come la nostra impegnate in questi processi. Guido Barbero, IT chief technology officer & Ciso di Iveco Group In questi anni, abbiamo fatto notevoli passi avanti nella gestione dei fornitori, con processi snelli e riduzione dell’intervento umano. Più recentemente, abbia-

mo investito nella pianificazione della produzione, con strumenti di demand & sales operation planning e anche di master plan schedule, che ci consentono di migliorare la nostra postura sul mercato e di avere un processo di acquisto delle materie prime più consapevole e puntuale. Marco Campi, Cio di Marcegaglia I progetti digitali sono cresciuti notevolmente negli ultimi tempi, sulla scorta di provvedimenti come la riforma Cartabia ma anche del Pnrr. In questa fase stiamo lavorando sul completamento del processo civile telematico, sulla creazione di una banca dati delle decisioni civili aperta a cittadini e magistrati e sull’impostazione del processo penale telematico. Utilizziamo un cloud privato e realizziamo sviluppi nativi a microservizi, ma abbiamo iniziato a lavorare anche con hyperscaler in alcuni ambiti, in una logica destinata sempre più a diventare multicloud. Vincenzo De Lisi, direttore generale sistemi informativi del Ministero della Giustizia Ci sentiamo sollecitati, in questo periodo, ad analizzare le potenziali applicazioni dell’intelligenza artificiale e l’apporto delle tecnologie digitali agli obiettivi di sostenibilità dell’azienda. Il primo tema racchiude sicuramente un forte potenziale, ma occorre partire con un serio lavoro di educazione sulle persone, per far capire le differenze fra applicazioni consumer e sviluppi enterprise. Il secondo, invece, sconta ancora la scarsa maturità di un mercato che non è ancora stato in grado di produrre framework di riferimento Kpi da raggiungere nei processi. Alessandro Bottin, global infrastructure & operation manager di Prysmian


L’IMPORTANZA DI AVERE UN “PIANO B” La ricerca di Innovation Group rivela una crescita significativa dei progetti di AI, evidenziando il veloce cambiamento delle priorità aziendali e impegnando l’IT nell’adattare piani e iniziative. SUSE sottolinea l’importanza di avere un “piano B” per mantenere l’allineamento agli obiettivi di business senza vincoli sulle scelte tecnologiche, infrastrutturali e applicative. In questo contesto il tema dell’edge è centrale e in crescita, ma le soluzioni non sono ancora mature in termini di sicurezza; SUSE sta investendo per colmare questi divari, sviluppando soluzioni enterprise come Rancher e Elemental con un forte focus sulla sicurezza e una gestione end-to-end in contesti distribuiti. Un altro elemento chiave è la necessità di garantire la continuità del business, soprattutto durante la trasformazione digitale, con un riferimento particolare a settori critici come Sap. È evidente l’importanza di gestire in modo efficace sistemi operativi eterogenei e ambienti ibridi, senza compromettere la flessibilità. SUSE si distingue per lo sviluppo di soluzioni aziendali che affrontano le sfide emergenti, consentendo la centralizzazione della gestione di sistemi Linux enterprise, inclusi CentOS e Rhel, fornendo strumenti di live patching e HA (High Availability). In sintesi, la ricerca evidenzia la necessità di adattabilità, sicurezza e continuità. SUSE si configura come partner strategico offrendo soluzioni agili alle mutevoli esigenze aziendali, con un costante focus su innovazione e sicurezza, e mantenendo un'impronta 100% open source. Giulio Todini, Solution Architect di SUSE

Abbiamo impostato una strategia che prevede un aumento della nostra impronta sul fronte dei servizi B2B2C. Fra questi, una certa attenzione è stata prestata alla salute, tant’è vero che è stata avviata una società specifica che offre servizi digitali in quest'ambito. Negli ultimi cinque anni abbiamo messo in cloud molti workload e ne sono nati altri. A questo punto, dunque, ci troviamo ad avere una certa esigenza di consolidamento, senza trascurare il tema della sicurezza, poiché le catene del valore si sono molto allargate ed è necessario cercare di minimizzare i rischi. Antonio Motta, Cto di Reale Mutua Assicurazioni Safilo è un’azienda attiva sia sui canali B2B sia nel direct-to-consumer. Nell’ambito della distribuzione sui propri canali B2B Safilo fornisce servizi digitali agli ottici rivenditori e per migliorare costantemente il livello di servizio ha effettuato importanti investimenti di sviluppo di nuove piattaforme digitali multicanale. Una rilevante leva di trasformazione infrastrutturale

è rappresentata dalla cloudification in area enterprise, dove siamo tra le prime aziende nel nostro settore ad avere avviato un Erp produttivo in ambiente di cloud ibrido. Infine, un’area di attenzione particolarmente rilevante riguarda i contesti data&analytics, dove oltre alla leve tecnologiche si ottengono importanti benefici nel cambiamento culturale determinato dall’ampio accesso alle Informazioni. Mirco Lucchetta, director Ict Emea & headquarters di Safilo Nel definire gli aspetti di trasformazione è importante mantenere sempre una vista d’insieme ed equilibrare le necessità di scalabilità, che il cloud sembra più pronto a indirizzare, con esigenze di vicinanza a impianti e persone. Questo trade-off fra efficienza e vicinanza è sicuramente molto rilevante per aziende come la nostra, che gestiscono impianti con processi critici. Noi abbiamo deciso di accettare il trade off, valorizzandolo, affiancando a infrastrutture on edge soluzioni on cloud.

Giorgio Veronesi, executive director Ict - Innovation & Digital Technologies, e Massimo Cottafavi, director cyber security & resilience di Snam Come multinazionale nell’ambito del Fashion & Luxury, ci occupiamo della gestione informatizzata dei processi produttivi dei nostri prodotti finiti, del monitoraggio della logistica, fino alla commercializzazione e alla vendita sia sulla rete mondiale dei negozi sia sul canale e-commerce. Ci confrontiamo con strumenti di elevata eterogeneità e complessità in ogni ambito, a cominciare da quello industriale fino ad arrivare alle soluzioni in cloud, ponendo attenzione a migliorare la postura di sicurezza informatica dell’azienda. I vantaggi della trasformazione digitale possono essere sfruttati solo se si prevede un’attenzione crescente nella sicurezza informatica, sempre più un fattore per generare reale valore. Francesco Pisacane, group cyber security manager di una primaria azienda Fashion & Luxury 45


ECCELLENZE.IT | Canale Sit voluptate 50

BACKUP E SICUREZZA PER UNA TV DI SUCCESSO I Nas di QNAP hanno permesso all’emittente televisiva toscana di migliorare la capacità di archiviazione e la sicurezza dei dati.

L

e innovazioni della tecnologia, ma anche le competenze necessarie per implementarla, l’esperienza positiva che crea fidelizzazione e la sinergia tra vendor, system integrator e cliente finale. Sono i valori che descrivno la relazione tra QNAP e Canale 50, un’emittente locale nata a Pisa nel 1984 e oggi diffusa in digitale terrestre su tutto il territorio toscano, oltre che presente online. “La nostra struttura ha una produzione giornaliera di news, con un occhio all’intrattenimento: ci occupiamo di informazione, dal sociale allo sport, e di eventi del territorio”, racconta Paolo Galli, responsabile ufficio tecnico di Canale 50. “Con il passaggio al digitale, recentemente ci siamo ampliati con nuove redazioni locali”. Il percorso di digitalizzazione è cominciato già nel 1998, con l’adozione di sistemi informatici per la gestione dei caroselli pubblicitari. Dal 2008, con il trasferimento di sede, è stato poi digitalizzato l’intero sistema di produzione degli studi e quello di emissione. “Il nostro primo database era basato su Windows Server e si appoggiava uno storage esterno”, spiega

46 | DICEMBRE 2023

LA SOLUZIONE L’archivio centrale di Canale 50 è stato interamente trasferito dal sistema basato su Windows Server sul Nas TS-h1277XU-RP di QNAP, con 12 TB di capacità. Il sistema TS-855eu viene usato per il backup e il disaster recovery. Il Nas TVS-471 supporta l’interscambio di file tramite Ftp. Galli. “Ma i dati crescevano e lo storage non disponeva di ampia capacità, avvicinandosi alla saturazione. Con il nostro partner Labtec, quindi, abbiamo iniziato a implementare alcuni Nas di QNAP per il trasferimento manuale dei dati”. Dal 2011 in poi, al crescere dei dati da conservare, Canale 50 ha gradualmente aggiunto nuove risorse di archiviazione. “Conosco QNAP da molti anni”, racconta Fabio Campo, Ceo di Labtec. “Un aspetto importante e apprezzato è il che, in caso di problemi o guasti su un sistema, si possano estrarre

i dischi e posizionarli su una nuova macchina, avendo accesso immediato ai dati”. Il Nas che contiene file delle trasmissioni, quelli più sensibili, esegue un backup in orario notturno, quando il lavoro sulla rete è scarso, e mantiene una ulteriore copia dei dati su un Nas collocato in una posizione diversa per garantire resilienza in caso di incidenti. “L’esperienza iniziale con i due Nas di QNAP è stata positiva”, prosegue Galli. “Per noi era importante che i dati fossero disponibili sempre, 24 ore su 24, e inoltre ricercavamo ampia capacità di archiviazione, velocità di esecuzione e sicurezza”. Su consiglio di Labtec, in un secondo momento è stato adottato un ulteriore sistema QNAP per consentire l’interscambio di dati tra i reparti aziendali, le diverse sedi distribuite sul territorio e i centri di produzione televisiva esterni. Si evita così il ricorso a supporti di storage rimovibili, potenzialmente scomodi e rischiosi. Il Nas è stato configurato con Ftp proprietario e viene utilizzato su Vlan (Virtual Lan) che permettono di separare diverse attività. L’emittente televisiva ha potuto, con QNAP, digitalizzare i processi di lavoro delle varie funzioni aziendali, dal reparto amministrativo alla regia, mantenendo la distinzione tra i ruoli poiché ciascun utente accede solo ai dati di sua competenza. “Con QNAP abbiamo completato tutti i servizi richiesti da Canale 50, garantendo affidabilità, capacità di archiviazione e disaster recovery”, sottolinea Campo. Il cliente ha potuto incrementare la capacità di archiviazione e potenziare la sicurezza dei dati, sia relativamente alla loro conservazione sia nell’interscambio tra reparti interni, sedi e fornitori esterni. “Apprezziamo il lavoro di squadra realizzato con il system integrator per Canale 50”, commenta Alvise Sinigaglia, country manager di QNAP. “In progetti come quello di Canale 50 le competenze del partner sono importanti per integrare diverse tecnologie e applicare le best practice del backup che potenziano la sicurezza”.


ECCELLENZE.IT | Bcc Iccrea Group

LA BANCA SI TRASFORMA CON NUOVI PROCESSI E APPLICAZIONI Il primo gruppo di istituti di credito cooperativo in Italia ha ridisegnato i processi e creato nuovi servizi IT con la piattaforma di data integration e sviluppo low-code di Appian.

N

ato nel 2019, Bcc Iccrea Group è uno tra i principali poli bancari in Italia e il primo tra i gruppi di credito cooperativo, e conta oggi con 116 istituti federati. Le banche associate erano 140 in partenza (numero sceso a 116 in seguito a operazioni di fusione) e ciascuna di esse funzionava secondo processi di lavoro e processi IT distinti. “Nel 2018 fui assunto con l’obiettivo di digitalizzare i processi e di rompere i silos che naturalmente si vengono a creare quando si mettono insieme società diverse”, racconta Giovanni Gallucci, head of process automation di Bcc Iccrea Group. “Allora si parlava di Bpms, di sistemi di Business Process Management per l’orchestrazione dei processi. L’azienda era molto decisa a intraprendere il percorso dell’automazione e il mercato stesso lo richiedeva”. Il team guidato da Gallucci è cresciuto negli anni fino a contare una quarantina di collaboratori, tra dipendenti interni e consulenti. “Abbiamo scelto Appian”, spiega, “perché ci è parsa la soluzione che avrebbe dato maggior garanzia su aspetti fondamentali per noi, cioè il time-to-market e la reattività ai cambiamenti: le banche sono aziende fortemente regolate, le normative cambiano di settimana in settimana. Ci serviva uno strumento capace di reagire al cambiamento in maniera agile”. Appian inoltre era uno strumento molto completo nelle sue varie sfaccettature, quindi dal punto di vista della sicurezza ma anche della possibilità di ottenere una visione unica sul cliente (un tempo si chiama-

va “record”, Appian ha poi sviluppato il concetto di “data fabric”, ovvero un’architettura che integra a rende disponibili i dati di diverse fonti, sempre aggiornati). Terzo aspetto valutato nella scelta è stata la capacità di integrazione con le decine di strumenti software già in uso. “Appian permetteva di farlo meglio di altri”, sottolinea Gallucci. Il percorso di trasformazione dell’IT è iniziato revisionando il sistema di analisi delle frodi su carta di credito: Appian ha permesso di azzerare il precedente backlog e di elaborare le pratiche nei tempi previsti dalle normative. Questo si è tradotto in un diretto risparmio, perché le banche ora pagano solo i rimborsi effettivamente dovuti e non, come accadeva, le richieste le cui pratiche non vengono evase nei termini previsti. La piattaforma di Appian ha consentito, poi, di creare un’applicazione per il Pog (Product, Oversight and Governance), una normativa di Banca D’Italia in base al quale qualsiasi prodotto bancario dev’essere trasparente per gli ispettori. “La soluzione viene usata da tutte le nostre banche e per tutti i processi, e questo è tutt’altro che scontato”, sottolinea Gallucci. “Le nostre banche a livello di business sono indipendenti e quindi ingabbiarle all’interno di un medesimo stesso processo è tutt’altro che semplice e troviamo spesso delle resistenze enormi. E invece ci siamo riusciti”. Ad oggi, una trentina di applicazioni di differenti complessità sono state realizzate con Appian. Tra le altre cose, si poggiano sul data fabric tutti i processi di complian-

ce (valutazione del rischio, pianificazione ed esecuzione degli audit, eccetera) e dalla scorsa primavera anche un’applicazione antiriciclaggio che fa leva sull’intelligenza artificiale, in cui il data fabric funge da collante tra i diversi sistemi integrati. Attingendo a fonti Web e ad archivi digitalizzati di fonti cartacee, la soluzione analizza oltre 2.200 testate giornalistiche nazionali e locali per trovare eventuali notizie riguardanti un cliente della banca. Il gruppo Iccrea ha anche adottato una soluzione di machine learning per la gestione delle operazioni bancarie potenzialmente sospette: l’algoritmo apprende i pattern di comportamento di un cliente e riconosce le deviazioni potenzialmente sospette. Questa soluzione riduce drasticamente i falsi positivi e assegna un punteggio di priorità agli eventi che effettivamente richiedono una verifica. 47


ECCELLENZE.IT | Gruppo Sit voluptate Barilla

VALORIZZARE LE RISORSE UMANE CON ANALYTICS E ALGORITMI Hrcoffee ha realizzato su tecnologia di Ibm una piattaforma che favorisce lo scambio di conoscenze, la collaborazione e la crescita del capitale umano.

G

ruppo Barilla è un pezzo di storia passata e presente dell’industria alimentare italiana, con i suoi 146 anni alle spalle e un ventaglio di marchi distribuiti che include, oltre a quello che celebra il primo piatto della tradizione italiana, anche Mulino Bianco, Pan di Stelle, Gran Cereale, Harrys, Pavesi, Wasa, Voiello e altri. Nonostante questi prodotti siano commercializzati in un centinaio di Paesi del mondo, Barilla è rimasta un’azienda familiare, che ha scelto di non quotarsi in Borsa. Per un gruppo che conta oggi 8.700 attuali collaboratori, gestire e valorizzare la forza lavoro può essere impegnativo, ma l’intelligenza artificiale si è rivelata un prezioso alleata. La sfida di mappare le competenze presenti e di stimolare la crescita del capitale umano è stata affrontata insieme a Hrcoffee, una startup specializzata in soluzioni per le risorse umane. Hrcoffee è un Business Partner di Ibm e dunque sulla tecnologia di Watsonx ha sviluppato una

48 | DICEMBRE 2023

LA SOLUZIONE L’applicazione realizzata da Hrcoffee per Gruppo Barilla favorisce il trasferimento delle competenze bottom-up e la creazione di percorsi individuali di crescita professionale. Basata su Ibm Watsonx Assistant (piattaforma che permette di creare chatbot e agenti conversazionali basati su AI) e Ibm Watson Personality Insight (analitiche su personalità ed emozioni), WePilot include funzioni di analytics e un assistente virtuale. piattaforma che risolve diverse necessità: permette di mappare le competenze presenti e le lacune da colmare, ma anche di valutare le performance dei collaboratori, di stimolare il coinvolgimento e di favorire la crescita professionale. L’applicazione specifica realizzata per Barilla si chiama WePilot e permette la gestione e condivi-

sione delle conoscenze e delle competenze tecniche tra i collaboratori aziendali. Due ingredienti tecnologici alla base del progetto sono gli analytics e l’intelligenza artificiale. I primi, nella declinazione chiamata People Analytics (basati sulla tecnologia Ibm Watson Personality Insight), aiutano a individuare i punti comuni ma anche a valorizzare le diversità nel capitale umano di Barilla, considerando i punti di forza di ciascun collaboratore. L’intelligenza artificiale, invece, all’interno di WePilot permette di codificare le competenze tecniche presenti e inoltre alimenta uno strumento di assistente virtuale interno alla piattaforma (basato sulla tecnologia Ibm Watsonx Assistant). Dopo una prima fase di sperimentazione, il progetto ha coinvolto circa 45 persone all’interno del reparto R&D. Barilla ha quindi definito dei percorsi di formazione per i propri collaboratori e solo nel 2022 tale impegno si è concretizzato in più di 139mila ore di training erogate. L’investimento ammonta a oltre 4 milioni di euro. La piattaforma realizzata da Hrcoffee ha permesso a Gruppo Barilla di formalizzare scambi professionali tra colleghi che solitamente avvengono nel faccia solo tramite affiancamento o in momenti informali. Per l’azienda è anche il punto di partenza per una gestione dei talenti che, in futuro, sempre più farà leva su dati oggettivi. Il progetto è interessante non solo per le tecnologie su cui fa leva ma perché favorisce una logica di collaborazione e condivisione del sapere bottomup, che parte dai dipendenti.


ECCELLENZE.IT | Area Marina Protetta Isole Ciclopi

TECNOLOGIE SATELLITARI AMICHE DELL’AMBIENTE Con sensori Gps, intelligenza artificiale e analisi dei dati, la tecnologia di Axiteia aiuta a studiare i flussi di pesca e a proteggere l’ecosistema.

L

e tecnologie digitali amiche dell’ambiente non sono solo quelle che permettono di tracciare le emissioni inquinanti o di efficientare i consumi energetici. Sensori Gps, intelligenza artificiale e analisi dei dati sono gli strumenti che aiutano a monitorare e difendere un ecosistema come quello dell’Area Marina Protetta Isole Ciclopi. Istituita nel 2004, si trova nel comune di Aci Castello (che la gestisce, in consorzio paritario, insieme all’Università di Catania) e si estende nel tratto di mare antistante Aci Trezza, comprendendo l’arcipelago delle Isole dei Ciclopi. Come tutte le 29 aree marine protette italiane, ha il compito di salvaguardare le risorse che afferiscono al proprio territorio. “Da tempo pensavamo a una mappatura delle risorse, attività propedeutica a ogni tipo di iniziativa tesa alla loro protezione, ma anche a un’ottimizzazione dei flussi di pesca”, racconta Riccardo Strada, direttore dell’Area Marina Protetta Isole Ciclopi. L’occasione è arrivata nel 2022, con un bando del Ministero dell’Agricoltura che invitava le aree marine protette italiane a presentare progetti per la definizione di piani per la pesca sostenibile nell’ambito della programmazione europea Feamp (Fondo europeo per la politica marittima, la pesca e l'acquacoltura). “Il progetto pensato nel suo disegno ottimale però non era stato mai avviato”, spiega Strada, “principalmente per motivi di disponibilità di una tecnologia adeguata e prezzi gestibili, finché non abbiamo avuto l’opportunità di collaborare con Axitea”.

Il progetto, giunto alla fase conclusiva, segna un precedente e potrà fungere da riferimento per altre iniziative: è la prima volta che la tecnologia satellitare viene applicata in modo graLA SOLUZIONE La prima sperimentazione ha coinvolto una dozzina di barche e piccoli pescherecci che operano nell’area marina protetta, per monitorare i loro percorsi e i punti di sosta per la pesca, definiti dalle aree in cui la velocità di navigazione è compresa tra 0 e 15 km/h. I dati così raccolti vengono poi incrociati con quelli, rilevati in porto al ritorno, delle quantità e qualità di pesce effettivamente pescate. Si ottiene dunque un quadro realistico delle risorse ittiche presenti nell’area.

nulare a un progetto di monitoraggio e salvaguardia di un ambiente marino. Nella soluzione messa a punto, i sensori Gps di Axitea tengono traccia, in tempo reale e in modalità anonimizzata, degli spostamenti di barche e piccoli pescherecci. I dati raccolti vengono incrociati con quelli del pescato, per poter stimare quali siano le risorse ittiche presenti nella zona. Per sviluppare l’algoritmo utilizzato per l’elaborazione delle mappe di spostamento dei pescherecci Axitea si è avvalsa del supporto dell’AI generativa. “Si tratta di un progetto assolutamente innovativo, che non ha eguali in Italia e che permette di ottenere una fotografia sempre aggiornata dello stato attuale dell’area”, conclude Strada. “I dati che raccogliamo ci permettono di interpretare il presente, e di conseguenza di effettuare proiezioni future su cui prendere le nostre decisioni in ottica di gestione e protezione delle risorse”. 49


APPUNTAMENTI

CONSUMER ELECTRONICS SHOW

Quando: 9-12 gennaio 2024 Dove: Convention Center, Las Vegas e www.ces.tech Perché partecipare: quest’anno alla grande fiera dell’elettronica sono attesi oltre 130mila partecipanti, un migliaio di startup e 3.500 esibitori.

LOMBARDIA DIGITAL SUMMIT

Quando: 5 febbraio 2024 Dove: Palazzo Lombardia, Milano Perché partecipare: parte del ciclo di summit regionali di The Innovation Group, l’appuntamento sarà occasione per raccontare l’innovazione lombarda, l’impatto del Pnrr sul territorio, la trasformazione della sanità e i progetti in vista per i Giochi Olimpici e Paralimpici di Milano Cortina 2026.

MOBILE WORLD CONGRESS

Quando: 26-29 febbraio 2024 Dove: Fira Gran Via, Barcellona Perché partecipare: l’annuale fiera della Gsma, dedicata all’innovazione nelle reti, nei servizi e dispositivi mobili, non ha bisogno di presentazioni. L’edizione 2023 ha attratto circa 88.500 visitatori.

AI FORUM

Quando: 4 aprile 2024 Dove: Palazzo Mezzanotte, Milano Perché partecipare: l’evento annuale di AIxIA (Associazione Italiana per l’Intelligenza Artificiale), organizzato con il supporto di Digital Events e The Innovation Group, è alla sua sesta edizione. Oltre alla conferenza plenaria sono previsti workshop tematici e un’area espositiva.

50 | DICEMBRE 2023


Events & Webinar Market Research Consulting & Advisory Digital Marketing Go to market services Content creation Storytelling ICT Magazines

www.tig.it 02 87285500


5 FEBBRAIO 2024 PALAZZO LOMBARDIA

MILANO

#LOMBARDIADIGITALE

Giunge alla tredicesima tappa il ciclo dei Digital Regional Summit di The Innovation Group, tesi a evidenziare e raccontare l’innovazione dei territori, in collaborazione con enti della Pubblica Amministrazione, Università, centri di ricerca, imprese, startup, camere di commercio, associazioni di categoria, consorzi e fondazioni. I TEMI IN AGENDA -- Sviluppo economico e trasformazione digitale -- PNRR, infrastrutture, trasporti e mobilità sostenibile -- Sanità e welfare -- AI, metaverso, reti, smart land e rigenerazione urbana -- I Giochi Olimpici e Paralimpici di Milano Cortina 2026

INFO | www.theinnovationgroup.it CONTATTI | paola.ferrari@tig.it


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.