IL COMMERCIO SI TRASFORMA, FRA TECNOLOGIE E VALORI
Personalizzazione e cura dell'esperienza del cliente sono le sfide da vincere, anche con l'aiuto dell'AI.
CYBERSICUREZZA
Phishing, ransomware e rischi legati alla supply chain affliggono le aziende. Dall'utopia dell'inviolabilità, il focus si sposta sulla resilienza.
INDUSTRIA 4.0
Dalle fabbriche ai magazzini, la"quarta rivoluzione industriale" plasma i processi e anche una nuova mentalità nel manifatturiero.
SPECIALE CIO
Il ruolo dei chief information officer è sempre più complesso: non solo leader dell'innovazione, ma anche mediatori e comunicatori.
N° 62 - APRILE 2024
STORIE DI ECCELLENZA E INNOVAZIONE
Periodico mensile registrato
presso il Tribunale di Milano al n° 378 del 09/10/2012
Direttore responsabile:
Emilio Mango
Coordinamento:
Valentina Bernocco
Hanno collaborato:
Roberto Bonino, Stefano Brigaglia, Fabrizio Liberatore, Arianna Perri, Elena Vaciago
Foto e illustrazioni:
123rf.com, Burst, Freepik, Pixabay, Unsplash, Adobe Firefly
Editore e redazione:
Indigo Communication Srl
Via Palermo, 5 - 20121 Milano tel: 02 87285220
www.indigocom.it
Pubblicità:
The Innovation Group Srl tel: 02 87285500
Stampa: Ciscra SpA - Arcore (MB)
© Copyright 2024
The Innovation Group Srl
Tutti i diritti di proprietà letteraria e artistica riservati.
Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.
Pubblicazione ceduta gratuitamente.
4 STORIA DI COPERTINA
Un mondo nuovo, di valori e tecnologie
La personalizzazione abbraccia le vendite B2B
Tra sfide del presente e promesse del futuro
10 IN EVIDENZA
AI Pc, la spinta che solleverà il mercato
Una strategia sui dati è il punto di partenza
Un mondo di sintesi tra dati, natura e prodotti
Connettività solida, anche a misura di azienda
L’AI è anche questione di infrastrutture
Libertà nel cloud per una “resilienza radicale”
La gestione della crisi è ancora imperfetta
Il “cervello” di Einstein continua a potenziare il Crm
Il cloud distribuito fa proseliti
Il process mining incontra l’AI e migliora la produttività
24 ITALIA DIGITALE
L’approccio nuovo di Idi Evolution
26 SPECIALE CIO
Al timone del cambiamento
Governance e fiducia per far leva sui dati Strategie per arginare i rischi
32 CYBERSICUREZZA
Radiografia del rischio nelle aziende italiane
38 INTELLIGENZA ARTIFICIALE
AI e supercalcolo: l’accoppiata vincente
La via del marketing iper-personalizzato
42 EXECUTIVE ANALYSIS
Esperienze italiane di rivoluzione
46 ECCELLENZE
Alce Nero - Aruba Enterprise
Vhit - Lenovo
Gruppo Sarni - Avm
Università di Pisa - Vertiv
50 APPUNTAMENTI
UN MONDO NUOVO, DI VALORI E TECNOLOGIE
Le aziende inseguono l’omnicanalità, mentre i confini tra commercio “tradizionale” e “digitale” si sgretolano. Intervista a Roberto Liscia, presidente di Netcomm.
Il mondo del commercio è in continua evoluzione: a trasformarsi sono l’offerta e la domanda, naturalmente, ma anche la struttura delle supply chain, le tecnologie a supporto della vendita e la relazione con i clienti. E si trasformano i clienti stessi, che negli ultimi decenni sono diventati il vero fulcro delle strategie di marketing e di vendita. Omnicanalità, personalizzazione dell’offerta e del messaggio, sosteni-
bilità ed emozionalità dell’esperienza sono i nuovi valori che si affiancano alla tradizionale leva del prezzo, ma resta anche valida (anzi forse lo è più che mai, nella cultura della Generazione Z) la richiesta di comodità e velocità. Questo è, almeno, ciò che in questi anni ci hanno raccontato analisti di mercato, esperti di marketing e sociologi. Che ruolo può avere in tutto questo la tecnologia? Roberto Liscia , presidente di Netcomm,
il Consorzio del Commercio Digitale Italiano, ci ha offerto il suo punto di vista.
Come sta cambiando lo scenario del commercio? Che ricadute hanno le dinamiche dell’economia e della geopolitica?
La contesa geopolitica influenza inevitabilmente le catene del valore. Dal punto di vista dell’offerta, c’è una tendenza a ricreare dazi: questo condiziona i prezzi nelle aree geografiche interessate, come già accaduto con la Brexit, e può portare a un riallineamento delle catene di approvvigionamento, che si modificano
I NUMERI DELL’E-COMMERCE MONDIALE
Secondo le stime di eMarketer, nel 2023 i retailer di tutto il mondo hanno venduto via Internet l’equivalente di 5.784 miliardi di dollari di prodotti e servizi (la somma non include la vendita di biglietti per eventi e trasporti, i pagamenti digitali di tasse o ristorazione, i giochi a premio e i trasferimenti di denaro). Il valore segna una crescita dell’8,9% sul 2022. Per il 2024 si prevede un’ulteriore ascesa, fino a un giro d’affari di 6.330 miliardi di dollari. Aumenta anche l’incidenza della componente e-commerce sul totale delle vendite retail, dal 19,5% del 2023 a una quota prevista intorno al 20,3% per quest’anno.
Il colosso cinese Alibaba è attualmente l’operatore retail di commercio elettronico più grande al mondo, con un market share del 23% (nel 2022) in termini di valore monetario totale delle vendite. Amazon segue a distanza con una fetta pari al 12%, ma dall’aggregazione di diverse fonti gli analisti
o si accorciano per ridurre la dipendenza da fornitori provenienti da aree ad alto rischio. C’è poi un secondo tema, quello delle risorse energetiche: viste le incertezze sull’approvvigionamento di materie prime e sui loro costi finali, i Paesi tendono ad aumentare i prezzi e ad appropriarsi preventivamente delle riserve. Infine il tema dei semiconduttori, che influenza soprattutto l’industria informatica e automobilistica e che è dominato dalla contesa tra Stati Uniti e Cina, benché l’Europa con il Chips Act abbia stanziato una cifra importante per incrementare la produzione interna. Naturalmente la geopolitica e l’economia influenzano anche la domanda, perché tutte le dinamiche sopra citate creano incertezza per il consumatore.
Quali evoluzioni osservate in Italia?
Nel 2023 il commercio elettronico business-to-consumer è cresciuto del 13%, arrivando a un giro d’affari di 54 miliardi di euro. I prodotti sono arrivati a valere 35,2 miliardi di euro, con un incremento dell’8% rispetto al 2022,
di Statista hanno stimato che nel 2027 l’e-commerce della società di Seattle potrebbe segnare il sorpasso e raggiungere un volume annuo di vendita di circa 1.200 miliardi di dollari. Sempre a detta di Statista, i social media nei prossimi anni non perderanno rilevanza come canale di marketing e di vendita, e ci si aspetta che nel 2026 il valore annuo veicolato sarà di 2.900 miliardi di dollari circa. Su base geografica il mercato più importante è la Cina, dove WeChat, Taobao, Xiaohongshu e altre piattaforme social veicolano o almeno influenzano le scelte di acquisto di un consumatore su due. E l’Europa? Secondo un sondaggio della Commissione Europea , l’anno scorso il 92% dei cittadini Ue ha utilizzato Internet e il 69% lo ha fatto anche per comprare prodotti e servizi. Abbigliamento e accessori sono stati la categoria merceologica più acquistata (44% del totale dei clienti dell’ecommerce).
principalmente dovuto all’inflazione. I servizi sono invece cresciuti del 22%, con la spinta soprattutto dei settori turismo, ticketing ed eventi. Anche gli acquisti di informatica, abbigliamento e beauty sono cresciuti, mentre è calato il settore del grocery. In questo quadro si nota che il tasso di penetrazione dell’online sul commercio italiano è arrivato al 12% nel 2023, per la precisione all’11% per i prodotti e al 16% per i servizi.
Vediamo tre principali sfide per il 2024:
migliorare l’esperienza del cliente, integrare la logistica per offrire più possibilità di scelta sulle consegne e, in terzo luogo, valorizzare i dati. La nostra previsione per il 2024 è che sarà un anno con un forte orientamento all’omnicanalità.
Quali valori, soprattutto, orientano i consumatori?
Il prezzo resta un concetto chiave ma anche la sostenibilità è entrata prepotentemente tra i valori che orientano le scelte. A parità di prezzo, il consumatore oggi acquista il prodotto più sostenibile. Un terzo fattore rilevante è la reputazione: i brand tendono a puntare sulla totale trasparenza e un qualsiasi passo falso può mettere a repentaglio tutto il valore costruito nel tempo. In sostanza, oggi le aziende non solo devono dichiarare come agiscono ma anche essere coerenti con ciò che hanno dichiarato. Si pensi, ad esempio, alla causa che Amazon ha recentemente vinto in Italia contro un sito che promuoveva la creazione di recensioni false.
DICIANNOVESIMA CANDELINA PER IL NETCOMM FORUM
Intelligenza artificiale, ma anche automazione, Blockchain, social commerce, extended reality, pagamenti digitali. Sono solo alcuni dei temi al centro della prossima edizione del Netcomm Forum, la diciannovesima, in programma l’8 e il 9 maggio all’Allianz MiCo di Milano. Organizzato da Netcomm, il Consorzio del Commercio Digitale Italiano, con il supporto di TIG Events, l’evento prevede in agenda tre sessioni plenarie, in cui si alterneranno sul palco keynote
Da diversi anni si parla di omnicanalità come strategia necessaria per offrire un’esperienza coerente. A che punto siamo?
L’omnicanalità necessita di investimenti cospicui per creare un’esperienza seamless e user-friendly, indipendentemente dal canale utilizzato. Questo significa garantire coerenza sui vari canali in termini di valori, prezzo, qualità dei prodotti, significato del brand ed esperienza di acquisto. Il consumatore si aspetta dal supermercato sotto casa la stessa esperienza che sperimenta con Amazon (penso per esempio ai servizi di notifica e suggerimenti di acquisto tramite Alexa sui dispositivi Echo, personalizzati sulle abitudini dell’utente). Ma per realizzare tutto ciò è necessario che il customer journey venga gestito attraverso i dati, e per questo sono necessari investimenti molto importanti mirati allo studio del cliente, delle sue scelte di acquisto e dei suoi comportamenti attuali e futuri. La “esperienzialità” personalizzata dev’essere gestita, organizzata e resa coerente con il rispetto della privacy del consumatore, così da poter diventare un servizio e un valore.
Ha ancora senso distinguere tra commercio “tradizionale” e commercio “digitale”?
Molti consumatori, specie i più giovani, ormai non scelgono a priori un canale di
speech, interviste, tavole rotonde e case history. Saranno in scena anche decine di sessioni parallele con eventi a cura della Netcomm Academy e oltre 170 workshop dedicati a strategie e tecnologie per l’innovazione del commercio. Inoltre saranno presentati i risultati dell’osservatorio “Netcomm NetRetail 2024”, della ricerca “Il Venture Capital nel Digital Retail & Services” e dell’ultimo “Delivery Index”, studio condotto da Netcomm in collaborazione con Poste Italiane.
acquisto specifico ma si rivolgono di volta in volta all’opzione più comoda in quel momento. Ed è interessante notare che, secondo i dati del nostro studio “Netcomm NetRetail” del 2023, quasi il 70% degli acquisti in negozio è condizionato da precedenti ricerche fatte online, e la percentuale è anche maggiore per articoli di informatica ed elettrodomestici. Ma vale anche l’opposto: il 24% degli acquisti online è condizionato da una visita in negozio, e la percentuale sale per gli articoli di un certo valore, di cui il consumatore vuole verificare la qualità di persona. Pensiamo che tutto ciò sia un’opportunità per i retailer, che possono quindi ragionare in ottica integrata, sfruttando i canali digitali per promuovere gli acquisti in negozio e viceversa. Digitale e fisico sono sempre più strettamente interrelati.
Avete centrato questa edizione del Netcomm Forum sul tema del commercio “fluido e componibile”. Che cosa significa?
Il commercio elettronico del futuro va incontro a grandi scommesse, che necessitano di poter contare su tecnologie adattabili, flessibili, integrabili e scalabili. Gli operatori del commercio vanno incontro, da un lato, a un cliente sempre più mutevole e, dall’altro, a scenari geopolitici sempre più incerti. Servono quindi piattaforme facili da adottare ma
anche flessibili e scalabili, capaci quindi di supportare improvvisi aumenti della domanda o il lancio di nuovi servizi, anche in risposta a eventi inaspettati.
Come immaginate il commercio del futuro?
Sicuramente sarà integrato, flessibile, spinto dalle nuove tecnologie e soprattutto da consumatori che cambiano continuamente. Tecnologie come l’intelligenza artificiale, l’Internet of Things, il 5G e il metaverso giocheranno un ruolo determinante, ma è importante che le aziende non le considerino una mera aggiunta bensì un elemento abilitante all’interno delle proprie strategie. L’intelligenza artificiale, in particolare, ha tre possibili ricadute sulle aziende del commercio: innanzitutto aumenta l’efficienza e dunque riduce i costi, per esempio quelli del marketing; in secondo luogo, attraverso la personalizzazione, aumenta l’efficacia dei messaggi e il coinvolgimento dei clienti; terzo punto, è in grado di trasformare i modelli di business, aiutando a creare nuovi prodotti e servizi. L’AI, inoltre, potrà contribuire a rendere meno costoso lo sviluppo del metaverso, e dunque a velocizzarne l’adozione anche all’interno del settore del commercio. In sintesi, crediamo che il futuro di questo settore correrà su tre binari: le tecnologie, le persone e le strategie.
Valentina BernoccoLA PERSONALIZZAZIONE ABBRACCIA LE VENDITE B2B
Anche nel commercio “business to business” si affermano strategie di focalizzazione sul cliente e di omnicanalità.
Cresce e si trasforma, inseguendo e cavalcando le possibilità della tecnologia: è il commercio “business to business”, un settore che sempre più condivide con il B2C alcune tendenze. Intendendo per commercio B2B l’insieme delle attività di vendita di prodotti e servizi da azienda ad azienda, si può stimare (dai dati di Statista e AgileIntel Research) che la componente e-commerce abbia raggiunto oggi un giro d’affari mondiale di 23,4 miliardi di dollari in termini di valore lordo della merce venduta, ovvero più del doppio rispetto al 2018. E si prevede un’ulteriore crescita del 12% da qui al 2027, oltre la soglia dei 37 miliardi di dollari. L’espansione del mercato, dicevamo, si accompagna alla sua trasformazione: anche nel B2B, come nel B2C, l’innovazione tecnologica è sempre più una leva competitiva. La personalizzazione della customer experience attraverso i dati, con il supporto di analytics e intelligenza artificiale, è per esempio un fenomeno trasversale. L’approccio cliente-centrico, che domina nel B2C,
si ripresenta nel B2B. Così si spiega anche la crescita dei marketplace, un canale ancora secondario sul totale dei volumi, ma che sta guadagnando quota perché offre opzioni di vendita e di acquisto più flessibili, personalizzate e scalabili. La personalizzazione riguarda non solo l’offerta, cioè i prodotti e servizi, bensì anche le modalità di acquisto, i prezzi (con logiche di fidelizzazione e sconti), i metodi di pagamento, il servizio clienti.
E di pari passo con la personalizzazione sta aumentando l’adozione di strategie di omnicanalità, perché molti responsabili degli acquisti aziendali sono ormai soliti confrontare prodotti e offerte su diversi canali di vendita.
“Il comparto del B2B sta assistendo a un processo di costante digitalizzazione, che contribuisce alla crescita dei ricavi del settore in tutto il panorama internazionale”, ha detto Roberto Liscia, presidente di Netcomm. “In questo contesto, l’Europa detiene il 6% del valore globale del B2B Digital Commerce globale, i Paesi dell’Asia Pacifico il 79% e la Cina, da sola, oltre il 40%.
Nel nostro Paese, dove il settore B2B è tradizionalmente guidato da dinamiche commerciali rigide e articolate che prevedono l’intermediazione di rappresentanti di vendita nella gestione delle trattative, è necessaria l’introduzione di strumenti innovativi per rispondere alle nuove esigenze dei buyer che, anche a seguito del cambio generazionale, sono sempre più orientati verso esperienze d’acquisto agili e personalizzate”. A livello europeo, secondo i dati di Statista, il giro d’affari dell’e-commerce B2B è ancora piccolo rispetto al mercato globale, di cui rappresenta il 6%. Ha però una traiettoria di crescita in linea (11%, contro il 12% del mercato totale) e si stima arriverà quest’anno a valere 1,67 miliardi di dollari, contro gli 1,5 miliardi del 2023. In Italia, secondo i dati del Politecnico di Milano, l’e-commerce incide per il 21% sul totale del transato delle vendite B2B. “La flessibilità garantita dalla digitalizzazione gioca un ruolo determinante per lo sviluppo del settore, consentendo agli attori della filiera di gestire le vendite in modo efficiente e di raccogliere dati e informazioni utili all’analisi operativa e alla pianificazione di future strategie finalizzate alla creazione di relazioni a lungo termine con i clienti”, ha sottolineato Liscia. Il consorzio Netcomm indica tra le tendenze da cavalcare anche in Italia l’uso dell’intelligenza artificiale, naturalmente, e poi il cosiddetto headless commerce, cioè la separazione tra front-end e back-end di applicazioni e siti di e-commerce. Anche nel B2B, inoltre, il commercio va ripensato in ottica di tecnologia “componibile”, ovvero creando architetture basate sull’assemblaggio di differenti servizi, che permettono di gestire i processi di vendita in modo più efficiente, disintermediato e autonomo.
TRA SFIDE DEL PRESENTE E PROMESSE DEL FUTURO
Le aziende ritornano imprese: con un’imprescindibile personalizzazione dell’esperienza e dei servizi offerti, con una correlazione lineare tra i valori aziendali e quelli del target, e infine canali conversazionali che supportino il brand dal primo momento di espressione di interesse, fino alla creazione di una loyalty ‘audace’. Quasi superfluo dire che tutti i processi saranno potenziati e resi efficienti dalla rivoluzione dell’intelligenza artificiale. Per il futuro ci aspettiamo una trasformazione attraverso la realtà virtuale e conversazioni più intime, permettendo interazioni istantanee e immediate in cui non si parlerà più di device o canali, né di fisico o digitale. Un prossimo futuro che mira alla completa integrazione tra sistemi e dati, facilitati, ovviamente, dall’AI. Oggi si pongono le basi per nuovi e avanzati standard tecnologici e dispositivi che permetteranno di vivere queste evoluzioni.
AlpeniteIn Amazon Ads pensiamo sempre a come ridurre gli ostacoli dei nostri inserzionisti, per questo abbiamo lanciato la generazione di immagini tramite soluzioni di AI, progettata per consentire ai brand di produrre immagini che possano contribuire a migliorare le performance dei loro annunci. Acquisire nuovi clienti e fidelizzare quelli esistenti è fondamentale, i clienti sono maggiormente propensi ad acquistare più spesso da brand che già conoscono e di cui si fidano. Tramite remarketing possiamo coinvolgere nuovamente i clienti esistenti e tenere aggiornati gli acquirenti sui prodotti e offerte.
Amazon Ads
Oggi per le aziende è diventato imprescindibile adottare modelli di vendita omnicanale, che sappiano garantire ai clienti un’esperienza di acquisto diversificata, fluida e personalizzata, in cui la fase del pagamento sia in grado di massimizzare il tasso di accettazione delle transazioni, grazie all’adozione di strumenti innovativi fondamentali per l’e-commerce del futuro: metodi di pagamento diversificati, tra cui l’account to account e il Buy Now Pay Later, nuovi strumenti come il fast checkout che garantiscono pagamenti in un click, sistemi avanzati di analisi del rischio frodi, per cui sempre più verrà applicata l’intelligenza artificiale.
NexiLe aziende oggi affrontano sfide complesse per conquistare e fidelizzare i clienti in mercati competitivi. Devono distinguersi attraverso esperienze personalizzate, adattarsi velocemente alle mutevoli esigenze dei clienti e sfruttare le tecnologie emergenti. Gestire la reputazione online, offrire un’eccellente esperienza cliente ed essere profondamente riconoscibili sono solo alcuni dei punti cruciali. La chiave è combinare innovazione, investimenti mirati e una profonda comprensione dei clienti per mantenere un vantaggio competitivo. Nel commercio del futuro vedo un ambiente altamente tecnologico e interconnesso. La sinergia delle tecnologie avanzate permetterà la personalizzazione delle esperienze online degli utenti e consentirà di avere una catena di approvvigionamento più efficiente e trasparente. Inoltre, migliorerà l’esperienza di acquisto online garantendo esperienze di acquisto più coinvolgenti e interattive. Tecnologie come AI e VR saranno la chiave di tutto. La blockchain, invece, garantirà la sicurezza delle transazioni. Vedo, dunque, un futuro ricco di possibilità.
Diego Santoro, technical support and e-commerce manager di Connecteed
Quali criticità affrontano le aziende, oggi, per conquistare e fidelizzare i clienti in mercati sempre più competitivi? E che aspetto avrà il commercio del futuro, quali dinamiche e tecnologie lo governeranno? Lo abbiamo chiesto ad alcune delle aziende sponsor di questa edizione di Netcomm Forum.
Uno scenario macroeconomico sempre più complesso, consumatori attenti al prezzo e con elevate aspettative sull’esperienza d’acquisto stanno rendendo il mercato globale sempre più competitivo. Di conseguenza, i retailer dovranno ripensare le proprie strategie, diventando maggiormente agili e proattivi; dovranno anticipare i bisogni del consumatore e proporre messaggi personalizzati, offrendo un’esperienza d’acquisto fluida che superi i confini geografici. L’intelligenza artificiale e il digitale saranno alleati sempre più preziosi per affrontare le sfide del futuro. L’innovazione tecnologica sta ridefinendo le aspettative future dei consumatori nei confronti dei marchi. Osserviamo una crescente attenzione al rapporto che ogni brand crea con i propri clienti, i quali ricercano semplicità d’acquisto e immediatezza di risposta. Laddove il processo e le esperienze d’acquisto si allungano e si complicano nel tempo, serve essere presenti e prospettici: presenze costanti per i propri clienti. L’ intelligenza artificiale avrà un ruolo chiave nel rinnovare il commercio come lo conosciamo, rendendolo sempre più semplice e vicino alle esigenze del singolo consumatore.
Incoraggiare i clienti ad acquistare i tuoi prodotti può contribuire ad aumentare il tasso di crescita della tua attività. Acquisire nuovi clienti e fidelizzare quelli esistenti è fondamentale, dato che i clienti sono maggiormente propensi ad acquistare più spesso da brand che già conoscono e di cui si fidano. Coinvolgere nuovamente i clienti esistenti e tenere aggiornati gli acquirenti sui prodotti e sulle offerte sono due modi per incoraggiare gli acquisti ripetuti. Il remarketing è una parte importante del digital marketing perché il processo d’acquisto del cliente richiede tempo. La maggior parte degli acquirenti non scopre un nuovo marchio, sceglie alcuni dei suoi prodotti e completa l’acquisto in una medesiima sessione. Molti potenziali clienti si prendono del tempo per considerare un marchio o un prodotto, navigando altrove online o leggendo le recensioni dei clienti, prima di prendere una decisione. Durante questo processo, vuoi che i clienti si ricordino del tuo brand, in modo che una volta che decidono di effettuare l’acquisto, il tuo marchio sia al primo posto. Sebbene i professionisti del marketing utilizzino da tempo l’intelligenza artificiale per la modellazione e la misurazione, nell’ultimo anno i nuovi strumenti di AI generativa hanno registrato un aumento di interesse per la loro capacità di contribuire a semplificare lo sviluppo dei contenuti creativi pubblicitari.
Alessio Taglia, head of sales account management di Amazon Ads
Le aziende devono adattarsi a un panorama in continua evoluzione e che richiede esperienze d’acquisto sempre più coinvolgenti e personalizzate. Omnicanalità , integrazione dei canali di vendita, dati di prima parte e AI sono cruciali per mantenere competitività, mentre social commerce, realtà aumentata e virtuale stanno ridefinendo l’interazione con i clienti. Il commercio del futuro sarà caratterizzato da una maggiore immersività e customizzazione: i brand devono adottare un approccio unificato che abbracci tutti i canali di vendita e offra esperienze d’acquisto su misura su tutti i touchpoint
Shopify
l’analisi
AI PC, LA SPINTA CHE
SOLLEVERÀ
IL MERCATO
Secondo Canalys, le vendite di computer con Npu integrata raddoppieranno nel giro di tre anni.
Gli AI Pc colonizzeranno il mercato dei personal computer, è questione di pochi anni. Saranno, soprattutto, una forza capace di trainare nuovamente le vendite dopo un periodo di calo della domanda che solo negli ultimi mesi ha cominciato a invertire la rotta. Secondo la definizione di Gartner e d i Intel, un AI Pc è un personal computer equipaggiato con componenti Cpu, Gpu ed Npu (Neural Processing Unit) che integrano, ciascuno, capacità di accelerazione. In particolare, la Npu può gestire task di intelligenza artificiale e machine learning direttamente sulla macchina anziché inviare dati in cloud, e può farlo evitando di consumare troppa energia. A detta di Intel, la tecnologia degli AI rappresenta “un
fondamentale cambiamento nel modo in cui i nostri computer funzionano. Non è una soluzione a un problema che in precedenza non esisteva, ma al contrario promette di essere un enorme miglioramento per l’utilizzo quotidiano dei Pc”.
Le ultime previsioni di Canalys indicano che già nel 2025 saranno messi in distribuzione 100 milioni modelli ottimizzati per e con l’intelligenza artificiale, ovvero il 40% del totale dei volumi di Pc commercializzati.
Considerando che la quota prevista per quest’anno da Canalys è 18% (Gartner stima invece un 22%), l’incremento è evidente. Inoltre, a detta di Canalys, si scalerà abbastanza rapidamente fino ai 205 milioni di
AI Pc previsti per il 2028, ovvero tra il 2024 e il 2028 il tasso di crescita annuale composto sarà pari al 44%.
Lo spostamento verso l’AI Pc sarà trasversale ai segmenti desktop e notebook, con quest’ultimi a rappresentare (oggi, così come anche in futuro) la maggiore fetta di mercato. Si tratta, almeno per il momento, di dispositivi collocati in fascia premium, che porteranno significativi incrementi di valore ai vendor, a distributori e rivenditori. “Le potenziate capacità di questa nuova categoria creeranno uno slancio verso la premiumizzazione, in particolare per il segmento aziendale”, ha scritto Kieren Jessop, analista di Canalys. “Nel breve periodo ci aspettiamo sui Pc con capacità di AI un prezzo premium compreso dal 10% al 15% rispetto ad analoghi modelli privi di Npu integrata”. A fine 2025 circa metà dei modelli da 800 euro in su saranno AI Pc, mentre a fine 2028 la quota salirà all’80%. Queste dinamiche aiuteranno il mercato Pc nel suo complesso a g uadagnare valore, dai 225 miliardi di dollari previsti per quest’anno fino ai 270 miliardi del 2028.
Il futuro del mercato si prospetta quindi roseo, al netto naturalmente degli s viluppi non prevedibili dell’economia. Qualche cautela è però d’obbligo, e a tal proposito Gartner ci ricorda che le aziende affronteranno nuovi acquisti, e quindi cicli di aggiornamento del parco Pc in uso, solo in cambio di chiari vantaggi, come incrementi di produttività. Non certo, quindi, solo per dotarsi dell’ultimo gadget tecnologico in circolazione. Soprattutto, ci sarà ancora da lavorare sul fronte dei software ottimizzati per l’intelligenza artificiale “locale”, eseguita direttamente sui Pc anziché in cloud.
Valentina BernoccoUNA STRATEGIA SUI DATI È IL PUNTO DI PARTENZA
Snowflake mette la data strategy alla base degli sviluppi sull’AI, con una piattaforma unificata su cui fa convergere tecnologie e servizi.
Non può esistere una strategia sull’AI se prima non ne è stata definita una sui dati. In questo semplice assunto è contenuto il senso della proposizione di Snowflake, azienda che in poco più di dieci anni di attività si è costruita uno spazio di rilievo nel mondo data-as-aservice. Con la piattaforma unificata Data Cloud, l’azienda permette ai suoi clienti di consolidare i loro dati in quella che può essere definita come una “singola fonte di verità”, per ricavarne insight utili, costruire applicazioni data-driven e condividere informazioni e output.
“Risolviamo l’annoso problema dei silos di dati e della loro governance”, ha detto Michele Tessari, head of sales enginee-
ring di Snowflake Italia. “I nostri clienti possono unificare ed eseguire query sui dati per supportare un’ampia varietà di casi d’uso, sfruttando l’elasticità e le prestazioni del cloud pubblico”.
Sempre più, Data Cloud sta ruotando attorno all’intelligenza artificiale generativa e ai large language model , integrando soluzioni relative allo sviluppo e alle operazioni di machine learning end-to-end , in particolare grazie all’Api (Application Programming Interface) di modellazione Snowpark. Qui si colloca anche il servizio Cortex (frutto di un’acquisizione dello scorso anno), che intende “fornire alle aziende gli elementi di base necessari per utilizzare modelli di
linguaggio e AI senza richiedere specifiche competenze in materia”, ha sottolineato Tessari.
Degli 8.500 clienti acquisiti a livello mondiale, una quota crescente arriva dal mercato italiano. Fra questi c’è Eolo, che a metà del 2022 ha deciso di ridisegnare la propria data platform per poter trattare in modo integrato le informazioni riferite ai clienti, alla propria rete (con un edge computing molto spinto per la copertura del territorio), a ciò che arriva da reti esterne e anche da analisi neutre sulle performance dei concorrenti. “Serviva una piattaforma di Big Data unica, che potesse integrarsi nella nostra infrastruttura di cloud ibrido”, ha ricordato Antonio Carlini, Cio di Eolo. “Erano importanti soprattutto le capacità di condivisione dei dati con fonti esterne, utilizzate dai data scientist per analisi anche con strumenti di AI, ma anche l’integrazione con PowerBI per il supporto agli analisti di business e al customer care”.
Anche Emmelibri ha affrontato un cambiamento di strategia sui dati, nel contesto di un più generale processo di cloud transformation. La società del Gruppo Messaggerie, che si occupa di distribuzione di libri e servizi collegati, ha dovuto porre rimedio a una preesistente situazione di disomogeneità all’interno del gruppo, composto nel 2022 da dieci aziende, con oltre tremila utenti e circa 2.500 dashboard create. “Abbiamo scelto nel 2023 di lavorare con Snowflake per ragioni di prestazioni, compatibilità con l’esistente, costi e anche prospettive di evoluzione”, ha spiegato Luca Paleari, Cio di Emmelibri. “Il progetto è tuttora in corso e dobbiamo terminare entro la fine dell’anno. Stiamo rispettando la tabella di marcia e abbiamo fin qui speso meno di quanto avevamo preventivato”.
Roberto Boninol’intervista UN MONDO DI SINTESI TRA DATI, NATURA E PRODOTTI
Quella di Dassault Systèmes è una visione olistica in cui la sfera digitale e quella materiale sempre di più interagiscono tra di loro.
“Il nostro è un uni-verso. Non è un meta-verso e nemmeno un multi-verso. È un mondo di sintesi, di fusione, non è qualcosa che si pone oltre (il prefisso meta) e nemmeno ha pretese di omniscienza o di inclusione totale (omni, multi). Non è un mondo di consumi ma di creazione, collaborazione, innovazione”. A tracciare questa sintesi estrema di un percorso che dura da più di quarant’anni è Olivier Ribet, executive vice President Emea di Dassault Systèmes. Una sintesi necessaria perché soprattutto negli ultimi anni il progresso delle tecnologie digitali ha cambiato rapidamente i connotati di organizzazioni, processi e anche della società stessa, modificandone forma e contenuti (basti pen-
sare, un fenomeno su tutti, alla twin transition di digitale e sostenibilità).
I protagonisti della digitalizzazione come Dassault Systèmes da una parte hanno guidato queste transizioni, dall’altra hanno dovuto loro stessi cambiare pelle rapidamente per svolgere proprio questo ruolo guida. Così l’azienda, come emerso anche dalla recente convention di Dallas, si trova a dover continuare a essere un punto di riferimento per ingegneri e designer, fornendo loro strumenti sempre più efficienti per la progettazione (Solidworks in cloud è di per sé una piccola grande rivoluzione per i team che sviluppano prodotti e processi in tutti i settori di mercato). Allo stesso tempo, si trova a costruire un
proprio posizionamento come fornitore di strumenti per “ridisegnare il mondo”, come Bernard Charles, presidente, e Gian Paolo Bassi, senior vice president, hanno detto a più riprese durante la convention. A Dallas abbiamo intervistato Olivier Ribet. Ecco un estratto dell’interessante conversazione con uno dei più visionari manager che ci sia capitato di incontrare negli ultimi anni.
Ribet, come si conciliano il piano materiale e quello digitale?
Il nostro scopo è fornire alle aziende e alle persone universi virtuali per aiutarli a immaginare e progettare un’innovazione sostenibile, connettendo oggetti, natura e dati. Lo abbiamo scritto nella nostra mission circa 15 anni fa e ora abbiamo l’esperienza e la tecnologia per realizzare questa visione. Le persone che ci circondano sviluppano prodotti per abilitare nuove forme di energia, una nuova agricoltura, dispositivi medici avveniristici, robot, mezzi di trasporto sostenibili. Per questo è importante progettare bene ma anche capire bene il mondo in cui viviamo. I due piani, quindi, non solo sono conciliabili, ma sono strettamente correlati.
Oggi è il momento giusto per “ridisegnare il mondo”?
Il mondo cambia sempre più velocemente. Le città in cui viviamo si devono adeguare. Il sistema sanita-
rio, ad esempio, deve trasformarsi, perché la popolazione invecchia e le cure mediche diventano sempre più efficaci ma anche costose. Il sistema dei trasporti è un altro esempio: la produzione e la distribuzione dell’energia elettrica stanno diventando un tema sempre più importante. Il cibo è un altro punto critico: non ce ne sarà
abbastanza per tutti, ma molto viene ancora sprecato. Insomma, dobbiamo reinventare i processi e dobbiamo reinventare la proprietà intellettuale, questo non è più solo un tema di prodotti e di tecnologie. Tutto deve essere ridisegnato e tutto dev’essere fatto in modo sostenibile. L’unico modo per riuscirci è pensare in modo sistemico non solo ai prodotti, ma alle macchine che li costruiscono, alle strade, ai mezzi di trasporto, alla società. Dassault Systèmes si chiama così proprio perché crede all’approccio sistemico, crede nella modellazione e nella simulazione non solo degli oggetti ma anche dei fenomeni, anche grazie alle nuove possibilità offerte dall’AI.
Riusciremo, grazie alla tecnologia, a costruire gemelli virtuali anche dei comportamenti umani?
Non esattamente, anche perché culture e persone diverse evidenziano comportamenti differenti. Possiamo però simulare fenomeni di massa, come ad esempio il traffico nelle vie di una città, aiutando a ridisegnare infrastrutture e regole nella direzione
di una maggiore efficienza e sostenibilità. Oggi con gli scenari “What-if” che riusciamo a costruire è possibile prevedere i cambiamenti portati dalla realizzazione di un nuovo grattacielo nel microclima e nel traffico del quartiere dove è previsto, in un circolo virtuoso che ci porta dal virtuale al reale e dal reale al virtuale, tenendo sempre sotto controllo l’impatto ambientale di ciò che stiamo realizzando.
Come sta cambiando la società grazie a strumenti di simulazione come i vostri?
Alla fine, le grandi innovazioni sono figlie del genio umano, la tecnologia è solo un aiuto. Adesso tuttavia, grazie alla possibilità di connettere menti e capitali, non sono più solo le grandi aziende a poter creare prodotti innovativi ma anche piccoli team di dieci o venti persone. Come ad esempio è successo con la startup tedesca Arthur, che grazie alle nostre piattaforme è riuscita e progettare e costruire l’autobus più innovativo e sostenibile al mondo.
Emilio MangoLA TRASFORMAZIONE DIGITALE DELL’ICT NON È PRIVA DI OSTACOLI
L’intelligenza artificiale si fa strada nelle aziende del settore Ict: non solamente nella loro offerta di tecnologie e servizi, ma anche all’interno dei loro stessi processi e abitudini di lavoro.
Lo mostra uno studio realizzato da Cite Research per Dassault Systèmes: su un campione di mille professionisti di società del settore tecnologico statunitensi, italiane, francesi, tedesche e britanniche,
l’84% ha detto che la propria azienda consente l’uso di tecnologie di AI, come chatbot (usati dal 68%), strumenti di progettazione assistita, funzioni di apprendimento automatico e altro ancora.
L’intelligenza artificiale è parte di un più ampio percorso di trasformazione digitale che procede ma che, forse un po’ paradossalmente, anche nelle aziende tecnologiche è costellato di ostacoli. Primo fra tutti, la difficol-
tà a reperire competenze avanzate in materia di cybersicurezza: solo il 40% degli intervistati crede che la propria azienda ne sia dotata. Tali carenze tendono a rallentare i tempi di rilascio di nuovi prodotti e servizi.
Altri ostacoli alla trasformazione digitale sono gli elevati costi di realizzazione dei progetti, un problema che affligge un terzo delle grandi aziende del settore tecnologico.
CONNETTIVITÀ SOLIDA, ANCHE A MISURA DI AZIENDA
Avm mira a portare la gamma dei Fritz!Box anche alle Pmi e alle realtà dei settori ospitalità, ristorazione e retail.
Contraddistinti dall’inconfondibile livrea rossa e bianca, i suoi modemrouter sono ben noti al mercato consumer, ma coltivano anche altre ambizioni. Avm negli ultimi anni sta cercando di portare la gamma Fritz!Box e ciò che vi ruota intorno (ripetitori Wi-Fi, telefoni, dispositivi per la domotica) anche al pubblico delle aziende. E se quest’operazione è già riuscita nella natìa Germania, in Italia è invece una strategia in fieri. Una strategia che, appunto, non nasce oggi ma ora può contare
sull’apporto di Luca Venturi, entrato cinque mesi fa in Avm con il ruolo di B2B sales manager. Esperto di telecomunicazioni, con alle spalle esperienze di lavoro in Tim, Fastweb e dieci anni in Vodafone, ora in Avm ha la responsabilità di guidare il mercato B2B in Italia ma anche i rapporti con il mercato delle telco. “Avm è quella che io definisco la ‘Audi del networking’, un’azienda che propone prodotti estremamente performanti e affidabili”, ha raccontato Venturi alla stampa. “L’Italia è il secondo mercato in termini di fatturato dopo la Germania e anche da noi il marchio Fritz! è molto conosciuto, perché siamo un vendor che lavora molto sull’innovazione dei prodotti sviluppando (in Germania) hardware e software in modo integrato. A differenza di nostri competitor, lavoriamo avendo già in mente il cliente finale, l’utente, anziché il provider”. Questo, a detta del manager italiano, è un elemento distintivo, che si riflette sulla strategia di go-to-market. “Spesso”, ha proseguito Venturi, “non siamo i primi a portare sul mercato alcune innovazioni tecnologiche, come il Wi-Fi 7: le portiamo quando il cliente è pronto a recepirle. Avendo pieno controllo su hardware e software, l’altro elemento di differenziazione per noi è la customer experience, che si traduce in quattro elementi: prestazioni, banda, sicurezza, affidabilità”. Caratteristiche che, tipicamente, vengono associate
alle tecnologie rivolte alle aziende, più che a quelle consumer. L’offerta di Avm è quindi sostanzialmente già “pronta” per soddisfare le esigenze delle piccole e medie imprese, mentre per stessa ammissione di Venturi si dovrà lavorare ancora sul piano della comunicazione per far passare questo messaggio. I casi di medie e grandi aziende clienti di Avm, d’altro canto, non mancano: in Germania ci sono catene del retail come Edeka e Dm, mentre in Italia spiccano i progetti in corso con Gruppo Sarni (ne parliamo a pagina 48) e con alcuni alberghi di lusso, come e il Metropolitan Suite e il il The City Hotel di Ancona, il View Place di Numana e il Foro Appio Mansio Hotel di Latina.
“Per il 2024”, ha rimarcato Venturi, “l’obiettivo è di salire la scala, lavorando sulla parte di mercato che intercetta i grossi system integrator, tramite cui potremo arrivare a clienti di maggiore dimensione. Tipicamente il marchio Avm non è associato alle grandi aziende e alle architetture di rete complesse, e d’altra parte non siamo dei competitor di Cisco. Ma clienti come le catene del retail, i franchising e il settore dell’ospitalità sono per noi un obiettivo per il 2024”. Avm ha già pianificato di lanciare in Italia entro la fine dell’anno un modello Fritz!Box rugged , adatto alle installazioni all’aperto. “I nuovi prodotti presentati al Mobile World Congress”, ha aggiunto Venturi, “integreranno non solo la parte di networking ma anche quella di smart home o connected office, cioè gli oggetti connessi della domotica di terze parti. Riteniamo che sia il momento giusto per approcciare questo tipo di servizi”.
Valentina BernoccoL’AI È ANCHE QUESTIONE DI
INFRASTRUTTURE
On-premise, ambienti ibridi ed edge avranno un ruolo importante nel futuro dell’intelligenza artificiale. Lo svela una ricerca di Lenovo.
Adottare l’intelligenza artificiale in azienda significa fare delle scelte sui fornitori di software e servizi, sui large language model a cui affidarsi, sulla base di dati da utilizzare per il training o il fine-tuning dei modelli. Se questo è noto, è forse meno immediato pensare che l’AI comporti anche delle scelte di infrastruttura. Dove reperire la capacità di calcolo necessarie? In cloud o dentro i confini dell’azienda, o un mix delle due cose?
Idc lo ha chiesto a decisori IT di aziende dell’area Emea, tra cui una cinquantina di italiani, nell’ambito di un’indagine commissionata da Lenovo e condotta nel mese di febbraio. Solo il 10% delle organizzazioni la vede come qualcosa di non rilevante, come una distrazione, mentre il restante 90% oscilla tra il considerarla un “fatto di igiene”, cioè qualcosa di necessario per restare competitivi (50% degli intervistati) o addirittura un vero punto di svolta per il business, un “game changer” (40%). Il
57% ha già investito in AI e un ulteriore 40% prevede di farlo nel corso dell’anno, mentre appena il 3% non ha intenzione di attivare alcun progetto. In media, la spesa delle aziende Emea in AI dovrebbe crescere del 61% quest’anno rispetto ai livelli del 2023. Gli investimenti saranno distribuiti in modo quasi equanime tra AI Generativa (24,7%), altre forme di machine learning (24,9%), deep learning per applicazioni di AI interpretativa (25,4%) e robotica (25%).
“Ci ritorna un’immagine delle aziende Emea di fortissima attenzione all’AI”, ha dichiarato alla stampa Alessandro De Bartolo, country general manager dell’Infrastructure Solutions Group di Lenovo, commentando i risultati dell’indagine. “Interessante è che il 45% degli intervistati abbia detto che l’IT ha qualche difficoltà ad accontentare la richiesta. Questo ci dice innanzitutto che l’AI non è patrimonio solo dell’IT ma è una richiesta trasversale, che giunge anzi spesso dal business.
Quindi il dipartimento IT è spesso sotto pressione di fronte alla richiesta di implementare l’intelligenza artificiale”. In Italia, peraltro, la quota dei decisori IT non interessati scende al 2%, uno tra i dati più bassi in Emea. Lenovo, naturalmente, si inserisce in quest’onda di trasformazione soprattutto come player di infrastruttura e l’indagine commissionata a Idc in parte sfata il mito secondo cui l’AI debba poggiare solo sul cloud. Questo è vero in parte, per alcune aziende, applicazioni e carichi di lavoro, ma non del tutto. “L’implementazione dell’AI in azienda rappresenterà sempre di più una spinta a ripensare l’adozione del cloud”, ha commentato De Bartolo.
“Solo il 17% dei rispondenti pensa che i progetti di AI saranno implementati in un cloud pubblico, il 48% predilige il cloud ibrido e il 24% il private cloud. Questo accade, probabilmente, perché c’è un riconoscimento del fatto che realizzare un progetto di AI non significhi solo mettere dei dati in cloud ma anche metterci di Kpi e la logica aziendale”.
Secondo l’indagine, le aziende Emea quest’anno aumenteranno del 38% gli investimenti in tecnologie e servizi di calcolo edge, e la tendenza sarà forte specie nei settori retail, manifatturiero e automobilistico. “Anche in Italia per noi di Lenovo il business dell’edge computing è in forte crescita”, ha detto De Bartolo. “L’AI sempre di più sta intorno a noi, è vicina, gli algoritmi non vengono elaborati solo all’interno delle mura dei data center ma anche ai bordi delle infrastrutture, nei dispositivi degli utenti e nell’IoT: la loro distribuzione richiede che la capacità di elaborare sia molto più vicina ai luoghi in cui i dati vengono creati”.
Valentina BernoccoLIBERTÀ NEL CLOUD PER UNA “RESILIENZA RADICALE”
Veeam Software rimarca la propria visione di una protezione dei dati estesa e flessibile, anche erogata come as-a-Service.
“Solitamente si pensa che il backup sia una tecnologia molto matura, ma mi sono stupito di riscontrare quanto sia forte la domanda tra le aziende italiane”: parole di Stefano Cancian, country manager di Veeam Software in Italia, in carica dallo scorso giugno. “Gli attacchi informatici anche in Italia sono la prima causa di interruzione del servizio IT e sono un limite alla digital transformation. I budget IT delle aziende stanno aumentando nell’ottica della protezione del dato e del potenziamento della sicurezza. Anche in Italia un elemento importante è quello dell’integrazione delle soluzioni di data protection e di sicurezza, sempre più richiesta nel mercato”. Questa crescita di domanda non è casuale: le minacce informatiche tese a compromettere, distruggere o rubare dati sono in continua ascesa. Dall’ultimo report di Veeam si apprende che il 76% delle aziende ha subìto almeno un attac-
co ransomware nel 2023 e che solo il 32% crede di potersi riprendere da un incidente di impatto limitato nel giro di una settimana. “Veeam risponde a questi problemi con un messaggio di resilienza radicale”, ha spiegato Cancian nel corso di un recente incontro con la stampa. “Che cosa significa? Una soluzione moderna che permette non solo di affrontare la situazione di crisi dopo un attacco, ma di poter andare oltre, utilizzando la resilienza come elemento di vantaggio competitivo e di differenziazione nei confronti della concorrenza”. Il messaggio di resilienza radicale di Veeam abbraccia anche il cloud, e lo fa anche con soluzioni specifiche per determinati workload. “Molte aziende si sono rese conto di essere a buon punto nel processo di modernizzazione ma di non avere una soluzione per proteggere gli ambienti container”, ha testimoniato Cancian. Veeam propone, quindi, anche soluzioni specifiche per Kuber-
netes e, considerando la prevalenza del modello multi-cloud nelle aziende, non impone vincoli di scelta di un particolare fornitore. Nonostante il forte legame con il mondo Microsoft e con il cloud di Azure, la piattaforma è “agnostica”, come si suol dire, cioè funziona similmente su qualsiasi infrastruttura. Recentemente l’azienda ha fatto un ulteriore passo dentro al cloud, inteso non più solo come ambiente da proteggere ma anche come modalità di erogazione del software. Con le nuova soluzioni Veeam Data Cloud per Microsoft 365 e per Azure è possibile attivare un servizio di backup e recovery sui dati di Microsoft Exchange Online, SharePoint Online, OneDrive for Business e Teams (con costi calcolati in base al numero di utenti), nonché su macchine virtuali di Azure, Azure SQL e Azure Files.
Guardando all’ultimo report di Veeam, sembra già esserci terreno fertile per questa nuova proposta commerciale: l’88% degli intervistati ha detto di aver adottato o essere in procinto di adottare soluzioni as-a-Service di backup e disaster recovery almeno per alcuni carichi di lavoro. “Le aziende ricercano sempre più offerte as-a-Service, basti pensare ad applicazioni cloud come quelle di Microsoft, Salesforce e ServiceNow”, ha illustrato Alessio Di Benedetto, technical sales director Southern Emea di Veeam. “Anche la protezione dei carichi applicativi inizia a seguire questa logica”. Veeam ha cominciato questo percorso con gli ambienti Microsoft 365 e Azure, ma l’idea è di allargarsi prossimamente anche ad Aws. “La spinta all’as-a-Service sarà velocissima”, ha assicurato Di Benedetto. “In futuro daremo la possibilità di fare tramite asa-Service tutto ciò che attualmente offriamo in modalità tradizionale”.
Valentina Bernocco
SICUREZZA GESTITA, LA RISPOSTA
AL GAP DI CYBER-COMPETENZE
Il ruolo dei managed service provider a supporto delle urgenze delle aziende, analizzato da Prakash Panjwani, Ceo di WatchGuard Technologies.
Il panorama della sicurezza informatica è profondamente cambiato negli ultimi anni. Chi deve difendere le aziende si trova di fronte a un perimetro che è diventato più complesso a causa del lavoro ibrido. La carenza di professionisti della security aggiunge ulteriore complessità e l’evoluzione delle minacce, resa ancora più veloce dall’intelligenza artificiale, disegna uno scenario in cui le aziende devono cercare aiuto nei managedservice provider (Msp), fornitori di servizi gestiti, per compensare le scarse risorse a disposizione. Abbiamo intervistato Prakash Panjwani, Ceo di WatchGuard Technologies, multinazionale che ha creato l’approccio Unified Security Platform per gli Msp, allo scopo di difendere con successo le aziende con le minacce odierne.
Qual è la sfida più difficile che le aziende dovranno affrontare nel 2024?
Una delle sfide più urgenti, e anche di più difficile risoluzione in tempi celeri, è la mancanza di professionisti qualificati in cybersecurity. Le aziende si trovano costrette a trovare una soluzione alternativa e una di queste è affidare la gestione della sicurezza informatica a un fornitore esterno. A propria volta gli Msp devono superare un’altra sfida, ovvero trovare un fornitore di security in grado di garantire la sicurezza degli ambienti IT ibridi con soluzioni che proteggano aziende e utenti in una varietà di scenari, sia all’interno sia all’esterno del perimetro aziendale, riducendo la complessità.
Come rispondere alla richiesta di sicurezza “gestita”?
WatchGuard ha lanciato recentemente il nuovo servizio Mdr (Managed Detection and Response), mirato esclusivamente ad aiutare gli Msp a offrire servizi gestiti di rilevamento e risposta alle minacce ai propri clienti. WatchGuard Mdr è pensato per garantire agli Msp un servizio di monitoraggio “24/7” delle reti dei clienti, senza dover investire in ulteriori risorse o in un Soc proprietario, a un costo che lo rende accessibile a tutte le aziende. Con Mdr, i fornitori di servizi gestiti possono contare sul lavoro dei nostri analisti di sicurezza, che operano come un’estensione del team dell’Msp e sulla nostra piattaforma di sicurezza unificata – che include prodotti e servizi per la protezione degli endpoint , l’autenticazione a più fattori, il Wi-Fi sicuro e la sicurezza di rete – gestita da un’interfaccia centralizzata di reporting e visibilità, continuamente aggiornata con funzio -
nalità di Xdr (Extended Detection and Response), di identità Zero Trust e reporting avanzato. Per i clienti degli Msp, i vantaggi si traducono in un servizio scalabile, flessibile e in grado di garantire la conformità alle normative vigenti.
Che impatto avrà l’AI sulle attività vostre e dei partner di canale?
L’intelligenza artificiale sarà sempre più usata dai criminali informatici per aumentare il volume e la sofisticatezza delle minacce. Per quanto ci riguarda, l’intelligenza artificiale è già alla base di soluzioni di sicurezza come Xdr, che la impiega per rilevare le minacce e automatizzare le risposte. Crediamo che potrà essere utilizzata per comprendere meglio le sfide dei nostri clienti e sfruttare tali informazioni per migliorare i nostri servizi.
l’intervista LA GESTIONE DELLA CRISI È ANCORA IMPERFETTA
Le strategie di resilienza delle aziende spesso sottovalutano alcuni aspetti importanti. Ne parliamo con Everbridge.
La parola “resilienza” è diventata un tormentone nel dopo pandemia. A che punto sono le aziende in questo percorso? Ne abbiamo parlato con Lorenzo Marchetti, head of global public affairs di Everbridge, società che sviluppa soluzioni software di critical event management (Cem) e allerta pubblica nazionale.
Qual è oggi la consapevolezza delle aziende sul tema della resilienza del business?
La pandemia ha cambiato il modo di pensare al lavoro. La diffusione dello smart working, per esempio, ha cambiato il modo di concepire la sicurezza dei dipendenti. Anche le trasferte dei lavoratori oggi richiedono un supporto aziendale più sofisticato rispetto al pre pandemia. Oggi la resilienza delle aziende necessita di una strategia olistica che tenga conto di questa nuova fluidità lavorativa e delle sue sfide e si applichi con nuove procedure e piattaforme tecnologiche pronte a supportarle. Negli
ultimi anni, abbiamo visto un numero maggiore di aziende investire nella propria resilienza e prendere sul serio gli aspetti di security e business continuity. Bisogna tuttavia pensare che, nel medio periodo, tutte le aziende dovranno fornirsi di procedure e sistemi all’altezza delle sfide che ci sono e ci saranno.
Ci sono aspetti che rendono le aziende, ancora oggi, poco resilienti?
Le aziende investono fortemente in strategie per incrementare il loro fatturato, però spesso non considerano tra queste una gestione proattiva della crisi. Questo atteggiamento mina sicuramente le fondamenta della resilienza aziendale perché sposta i costi della prevenzione e della preparazione sulle conseguenze della crisi. Eppure studi indipendenti, come quello prodotto dall’americana Forrester, sottolineano il ritorno sull’investimento per quelle aziende che sviluppano sistemi di gestione della crisi efficaci ed efficienti. Per esempio, in Europa sappiamo che la resilienza impatta il fatturato, con le aziende più resilienti (top performer) che perdono ricavi di vendita fino a venti volte in meno delle low-performer. Per arrivare a questi risultati, le aziende devono costruire un sistema di gestione delle crisi che sia basato su intelligence attendibile e contempli una chiara divisione di responsabilità durante la crisi e un sistema di comunicazione dedicato alla crisi stessa chiaro e puntuale. Tutti questi aspetti possono essere gestiti da una piattafor-
ma digitale che permetta all’azienda di avere il controllo della crisi dal punto di vista sia della prevenzione e preparazione sia della risposta. Tutto questo in maniera lineare e automatica. Solo così un’azienda può sviluppare una vera resilienza adattabile a tutte le circostanze.
Come funziona una piattaforma di Critical Event Management come la vostra?
Trattandosi di una soluzione su base cloud, una piattaforma Cem si integra perfettamente con i sistemi di gestione interni all’azienda. Inoltre, proprio data la sua natura di cloud-system, la piattaforma risulta difficilmente penetrabile da attacchi cyber perché, oltre alle autenticazioni a due fattori richieste per accedere alla piattaforma stessa, i server che la supportano hanno sempre altri server di backup in tutto il mondo, pronti a entrare in uso all’insorgere di una qualsiasi problematica. Dal punto di vista integrativo, invece, si tende a cercare di soddisfare le necessità dei nostri clienti, tenendo sempre il focus sull’accorciare i tempi della crisi grazie all’automazione. Per la gestione della risposta alla crisi, dal lato comunicazione, certe aziende richiedono l’integrazione dei contatti telefonici, altre l’integrazione con Whatsapp. Le soluzioni sono virtualmente infinite, ma noi ci impegniamo ad ascoltare e, vista la nostra ventennale esperienza, a supportare i nostri partner nello scegliere la soluzione più consona per aumentare la loro resilienza. V.B.
IL “CERVELLO” DI EINSTEIN CONTINUA A POTENZIARE IL CRM
Salesforce punta sugli sviluppi del motore di intelligenza artificiale proprietario e sul cloud.
Solida, scalabile, costruita su casi d’uso ed etica: queste le caratteristiche che l’intelligenza artificiale dovrebbe avere per entrare a pieno titolo nelle aziende. Ad affermarlo con convinzione è Salesforce, azienda che ha avviato un percorso di ridisegno dell’offerta teso a integrare le potenzialità dell’AI nella propria piattaforma Data Cloud. In questo contesto si colloca la recente novità di Einstein Copilot, un assistente AI conversazionale, personalizzabile e generativo per la gestione delle relazioni con i clienti. Lo strumento produce risposte utilizzando i dati e metadati già presenti in azienda, potendo così fornire supporto nelle attività di marketing, nelle strategie di vendita, nel servizio clienti e nell’IT. È in grado di dare risposte, riassumere e generare contenuti, interpretare dialoghi complessi e automatizzare varie attività, il tutto all’interno di un’inter-
faccia utente unificata e direttamente integrata nelle soluzioni Salesforce AI Crm. Questa unitarietà è resa possibile attraverso la fusione di un’interfaccia conversazionale, un modello linguistico avanzato e dati aziendali verificati.
Non è un caso che Einstein Copilot introduca funzionalità come l’aggancio senza replica dei dati alla piattaforma Data Cloud. “Si tratta solo di uno dei modi per esplicitare come il nostro sia uno strumento unico per tutti gli elementi che compongono la nostra offerta”, ha sottolineato Nicola Lalla, vicepresidente solution engineering di Salesforce Italia. “Nel nostro ambiente Customer 360 è possibile far convogliare dati provenienti dalle fonti più disparate, lavorarli e restituire quanto necessario a supportare l’operato di tutti coloro che hanno a che fare con il marketing, le vendite o le strategie di business, senza dispersioni e con l’automazione”.
ll motore di ragionamento di Einstein Copilot può interpretare le intenzioni degli utenti e selezionare le azioni più appropriate. Combinando un’elaborazione analitica approfondita con le capacità di un large language model, questo assistente virtuale può generare risposte e azioni aggiornate su più sistemi attraverso l’integrazione di MuleSoft e Salesforce Flow. L’affidabilità delle interazioni AI, secondo Lalla, è garantita da Einstein Trust Layer, che integra misure di sicurezza e riservatezza, tra cui la protezione dei dati personali, la verifica della “non tossici-
tà” dei contenuti generati e la prevenzione contro accessi non autorizzati e violazioni dei dati. Einstein Copilot, attualmente in versione beta e prossimamente disponibile in italiano, si accompagna a Einstein 1 Studio, un insieme di strumenti low-code che consente ad amministratori e sviluppatori di personalizzare l’assistente virtuale. Tali novità si inseriscono in quella “rivoluzione dei dati”, che Salesforce vorrebbe cavalcare con tecnologie che permettono di raccogliere, archiviare e analizzare immensi volumi di dati per estrarre informazioni. Le attività di training e inferenza richiedono un accesso ampio e approfondito ai dati per alimentare gli algoritmi e generare insight rilevanti, previsioni accurate e automatizzare in modo intelligente i processi. Il potenziale di questo passaggio appare chiaro ma implica pericoli legati alla sicurezza e al trattamento dei dati, ed è per questo che Salesforce si preoccupa di portare avanti una strategia tesa all’utilizzo responsabile.“Abbiamo rilevato con una nostra ricerca come in Italia il 17% dei lavoratori già faccia uso dell’AI generativa in azienda, ma in una buona metà dei casi senza aver chiesto un’autorizzazione”, ha indicato Vanessa Fortarezza, country leader di Salesforce Italia. “Solo il 15% delle realtà possiede linee guida su questo fronte e solo il 23% degli utenti ha ricevuto una formazione specifica. Per questo stiamo lavorando non solo a livello globale, ma anche con istituzioni del nostro Paese per contribuire a definire le regole più corrette. Nella Pubblica Amministrazione, per esempio, abbiamo istituito con The European House Ambrosetti un gruppo di lavoro permanente, che coinvolge 40 vertici della Pa centrale e locale”.
Roberto BoninoUNA VISIONE INTEGRATA DELLA RETE
Un approccio olistico, che consideri anche la sicurezza, è necessario per gestire sistemi digitali sempre più complessi.
La crescente complessità dei sistemi digitali, spesso dotati di applicazioni basate su intelligenza artificiale o machine learning, in contesti cloud/ edge computing e con requisiti di sicurezza “by design”, rende necessario approcciare il disegno della componente network adottando una “visione integrata”. Vale a dire un approccio olistico, per il quale tutti gli elementi del sistema risultino integrati per formare un’unica entità, rispettando prestazioni e Kpi e garantendo la gestione automatizzata. Seguendo tale approccio, il sistema si configura come un insieme di dispositivi fisici, digitali e applicazioni che dialogano tra loro attraverso la rete, scambiandosi input e rispondendo con output adeguati alle esigenze dell’utente. Il network, pertanto, diventa capace di lavorare autonomamente riducendo al minimo l’intervento operativo umano che potrà essere dedicato, invece, all’aspetto strategico e decisionale.
La definizione di un sistema integrato richiede, naturalmente, l’intervento di competenze specifiche per progettarlo, installarlo, integrarlo e manutenerlo. Per questo motivo, le imprese si rivolgono a un system integrator capace di modulare le connessioni tra i device e gli applicativi del sistema con un approccio end-to-end.Adottando una visione integrata della rete, Sirti Digital Solutions ha sfruttato negli anni la propria esperienza di integratore di sistemi per realizzare (in co-creazione con i propri clienti, partner tecnologici) le soluzioni IoT, data center e cybersecurity del business di riferimento. In ambito IoT, ad esempio, l’azienda si occupa della progettazione e implementazione di sistemi di monitoraggio sia statico sia dinamico, fornendo, contestualmente, software di interrogazione della sensoristica, di acquisizione e di archiviazione dei dati, installandoli e manutenendoli. Per essere efficaci, sistemi così complessi hanno bisogno di data center capaci di elaborare i dati e comunicare con tutte le componenti del sistema per facilitare il processo decisionale. Sirti Digital Solutions è sempre più chiamata a sviluppare progetti di networkdesignal fianco dei propri clienti, per definire la struttura di rete e implementare le connessioni tra tutti i device e le applicazioni, gestendone anche la manutenzione.
Al contempo, tali operazioni necessitano una particolare attenzione alla sicurezza del network. Attenendosi alla visione integrata di rete, Sirti Digital Solutions ha sempre scelto un approccio di security by design , per disegnare soluzioni su misura alle esigenze delle aziende, sfruttando il machine learning per sviluppare modelli di Behaviour Analysis. È chiaro quindi che un sistema integrato permette di ottimizzare tempo e risorse, verificare
anomalie e risolverle in autonomia con il risultato di rendere l’esperienza dell’utente più agevole e sicura. Ciò dimostra quanto una visione integrata della rete sia centrale per l’efficientamento dei servizi, ormai fondamentali alla vita quotidiana delle persone, che fanno parte di una nuova era digitale in continua evoluzione.
Noi di Sirti Digital Solutions conosciamo le complessità di questo scenario tecnologico. Nel nostro lavoro di supporto alle aziende e alla società cerchiamo di massimizzare i vantaggi della transizione tecnologica, affiancandole nelle sfide che la stessa presenta. A tal proposito realizziamo progetti complessi in modalità end-to-end , dalla progettazione alla manutenzione predittiva, con un design iniziale bysecurity . La nostra ampia valuepropositionci consente di rispondere alle esigenze del settore pubblico e privato nella trasformazione in atto valorizzando gli investimenti in una logica di sostenibilità, uniformemente agli obiettivi dell’Agenda 2030 per lo Sviluppo Sostenibile.
LucaRubaga,ManagingDirectordiSirtiDigitalSolutions
IL CLOUD DISTRIBUITO FA PROSELITI
I servizi di infrastruttura di Oracle si radicano in Italia, dal settore finanziario al progetto del Polo Strategico Nazionale, che coinvolge gli enti pubblici.
Parlare di gestione dei dati o di intelligenza artificiale è oggi di moda, ma alla base di tutto occorre avere un’infrastruttura tecnologica adeguata alle sfide attuali e future. Oracle ha riportato questo concetto al centro delle discussioni e testimonianze sul palco dell’evento CloudWorld, svoltosi per la prima volta in Italia, a Milano, lo scorso marzo. Il colosso americano ha adottato da tempo una strategia articolata su questo fronte, per affiancare le aziende in un processo di migrazione che deve tener conto non solo delle esigenze di innovazione, ma anche di quanto installato e costruito negli anni. La Oracle Cloud Infrastructure (Oci) integra tutti i servizi, oltre un centinaio, che il vendor propone non solo erogandoli in logica public cloud dai propri data center (ormai sempre più distribuiti geograficamente, dallo scorso anno anche in Italia), ma anche portandoli a casa del cliente con le Dedicated Region, appoggiandosi a hyperscaler come Microsoft o con-
sentendo a partner e Msp di rivendere infrastruttura e servizi sui mercati. Quest’ultima opzione prende il nome di Alloy e una delle novità più rilevanti uscite da CloudWorld riguarda l’annuncio fatto da Paolo Trevisan, chief technology & information officer di Polo Strategico Nazionale (Psn). Sull’infrastruttura di Oracle il Psn si accinge ad aprire la propria region per proporre Psn Managed, ovvero il servizio di cloud gestito indirizzato alla modernizzazione delle Pubbliche Amministrazioni. “Un’infrastruttura cloud situata in Italia, segregata, dedicata e gestita interamente da noi all’interno dei nostri datacenter, ci garantisce gli elevati livelli di sicurezza e controllo necessari per la gestione dei dati strategici e, al contempo, la flessibilità e l’innovazione tipica di un hyperscaler ”, ha spiegato Trevisan.
Il tema della sovranità è fra quelli che maggiormente alimenta l’interesse delle aziende nei processi di trasfor-
mazione, soprattutto di quelle che operano in mercati regolamentati, come il mondo finanziario. Una conferma è arrivata da Marco Barioni, group chief information technology officer di Reale Group: “Siamo in piena fase di transizione verso una logica infrastrutturale full cloud , ma operiamo in un settore dove occorre allinearsi a numerose normative, dal Gdpr a Dora. La sicurezza dei dati è un elemento di primaria rilevanza e per i nostri clienti, che sono anche soci, poter far leva su una region locale rappresenta un valore”. Anche Bper ha intrapreso un percorso di trasformazione legato non solo alle acquisizioni effettuate (da Carige alle filiali della ex Ubi Banca), ma anche alla multicanalità e allo sviluppo di servizi digitali. “Stiamo evolvendo in modo graduale e in linea con le esigenze del business, senza trascurare il capitale umano, sempre al centro dei processi anche laddove già si faccia uso dell’intelligenza artificiale”, ha raccontato il group Cdo, Giuseppe Maifredi
Anche l’AI generativa ha tenuto banco al CloudWorld: le aziende stanno ora cercando di tramutare l’ hype che ha caratterizzato soprattutto lo scorso anno in progetti concreti, costruiti su dati e modelli affidabili. “Abbiamo messo a punto una cinquantina di use case legati all’intelligenza artificiale”, ha indicato Michele Porcu, vicepresidente business strategy Emea di Oracle. “Possiamo supportare, con l’aiuto dei nostri partner specializzati, workload specifici di AI generativa, poggiando su un’infrastruttura come Oci e il lavoro congiunto con Nvidia per garantire performance e attenzione ai consumi energetici”.
Roberto BoninoIL PROCESS MINING INCONTRA L’INTELLIGENZA E MIGLIORA LA PRODUTTIVITÀ
Servicenow continua a far evolvere la propria piattaforma di gestione dei flussi di lavoro. Intanto aumenta, per l’azienda, il peso del mercato italiano.
AI generativa e capacità di automazione sono gli elementi su cui Servicenow è intervenuta maggiormente con la nuova release “Washington” della propria piattaforma di gestione dei workflow, la Now Platform.
Il nuovo aggiornamento, arrivato puntuale come ogni semestre, si concentra sul potenziamento delle funzioni già esistenti nell’agente virtuale, migliorando la capacità di indirizzare le richieste verso soluzioni automatizzate. A questo contribuisce anche l’introduzione di Workflow Studio, che dovrebbe migliorare la produttività, consentendo ai dipendenti di concentrarsi su attività più complesse anziché su quelle manuali.
In parallelo con l’annuncio ufficiale, ci siamo intrattenuti con Filippo
Giannelli, area vicepresident Italy & Israel, per capire soprattutto quale sia l’andamento di Servicenow nel nostro Paese e quale sia stato l’impatto degli aggiornamenti annunciati lo scorso anno. “Sottolineerei che siamo stati gli unici fra i big del settore a non effettuare tagli di personale nel 2023”, ha rilevato il manager. “Ed è un dato non trascurabile, visto che ormai siamo una realtà da 8,7 miliardi di fatturato e oltre 2.700 dipendenti. L’Italia si è allineata alla crescita complessiva della componente corporate, ma abbiamo prestato attenzione soprattutto al settore pubblico, dove abbiamo raddoppiato il numero di risorse dedicate, di tipo sia commerciale sia tecnico. Si tratta di una strategia di rafforzamento strutturale e non legata semplicemente alle opportunità correlate al Pnrr”.
Anche se l’AI generativa è al centro degli sviluppi di “Washington”, il terreno era stato preparato da Servicenow già lo scorso anno, a partire dalla partnership con Accenture e Nvidia, imperniata sul lancio di AI Lighthouse, un programma pensato per accelerare lo sviluppo e l’adozione di capacità di GenAI nelle aziende. A questo s’è aggiunta la disponibilità di NowAssist, sottomarchio introdotto per enfatizzare le funzionalità di GenAI nell’IT Service Management (Itsm), nella gestione del servizio clienti, nella fornitura di servizi
HR e nel field service management:
“La prima release ha rappresentato Il prodotto nuovo di maggior successo della nostra storia e questo vale anche per l’Italia”, ha indicato Giannelli. L’interrogativo che tutti si pongono riguarda l’effettivo attecchimento sul campo degli investimenti e dei progetti che i vendor hanno messo a punto su questo fronte. “I nostri business partner sono già certificati sugli sviluppi più recenti della piattaforma e abbiamo sviluppato large language model già verticalizzati”, ha puntualizzato il manager di Servicenow. “La nostra prerogativa è l’offerta di una piattaforma unica con modello di dati altrettanto unico, e questo è fondamentale per poter integrare process mining, AI classica e generativa. Per noi lo switch per accendere l’AI è già a disposizione”. Il 2024 dovrebbe essere un anno in cui il peso dell’Italia nelle strategie complessive di Servicenow sarà destinato ad aumentare. “Il programma RiseUp è stato declinato anche da noi e abbiamo così contribuito alla formazione di un milione di consulenti a livello globale”, ha specificato Giannelli. “Ora stiamo definendo accordi con le università per dare maggior corpo al programma. Certamente intendiamo radicarci ancor più sul territorio e saranno varate nuove importanti iniziative in tal senso nel corso dell’anno”.
Roberto BoninoAI, TRASFORMAZIONE SINERGICA CON UN ECOSISTEMA INTEGRATO
Un approccio pervasivo per divenire creatori di valore nell’universo dell’intelligenza artificiale.
Nel panorama in rapida evoluzione dell’intelligenza artificiale, emergono interrogativi fondamentali sul suo impatto sul tessuto economico e sociale. Ne parliamo con Giuseppe Di Franco, Ceo di Gruppo Lutech, azienda impegnata in prima linea nello sviluppo e nell’integrazione di tecnologie innovative.
Che occasione rappresenta l’AI per le aziende?
La missione di essere non solo partecipanti ma anche leader nell’era AI-first pone sfide e opportunità uniche. Ottimizzare la produttività, valorizzare le competenze umane e gestire l’incertezza informativa “anticipando” servizi a valore sono già oggi i fattori chiave per il successo dei processi di innovazione e crescita: l’AI non è più, quindi, solo la tecnologia alla base dello sviluppo di soluzioni specifiche, ma un approccio olistico e pervasivo che deve impattare su ogni livello e processo aziendale.
Come affrontare questo percorso?
Nel contesto di questa rivoluzione tecnologica, emerge l’importanza di approcci olistici e trasversali all’interno delle organizzazioni. Ciò sottolinea il ruolo essenziale di un Digital Integrator come Lutech, che agisce come trusted advisor e orchestratore di soluzioni AI. Possiamo integrare efficacemente l’AI nell’ambiente aziendale e guidare i clienti nel percorso che li porterà a essere non solo utenti di questa tecnologia, ma veri e propri creatori di valore. Alla base di questo approccio vi è un ecosistema per l’AI che ruota intorno al Lutech Campus, Open Innovation Hub del Gruppo, dove le esigenze di innovazione delle aziende trovano risposta nell’incontro di competenze ed expertisedi startup affiliate, istituzioni, università, R&D e partecipazione attiva a iniziative strategiche a livello europeo. A corollario di questo scenario c’è uno dei supercomputer Hpc più potenti al mondo, “Leonardo” (una referenza di Lutech per il Cineca), la cui potenza di calcolo, insieme all’esperienza di iGenius, sta dando vita a “Modello Italia”, la risposta italiana a ChatGPT, progettato e addestrato esclusivamente in italiano con fonti affidabili e certificate.
Qual è la posizione di Lutech sugli aspetti etici e regolamentatori dell’AI?
Garantire equità, trasparenza e conformità alle normative per costruire fiducia con utenti e stakeholder, affrontando proattivamente questioni etiche e regolamentari, è un obbligo propedeutico all’adozione dell’AI, ma il rischio che stiamo correndo a livello europeo è di concentrarci troppo rigi-
damente su questi aspetti e non saper competere con Usa e Cina in termini di investimenti. Dobbiamo infatti renderci conto che l’Artificial Intelligence cambia la nostra relazione con la tecnologia, con l’innovazione e con lo stesso concetto di “conoscenza” e che per la prima volta non dobbiamo rinunciare a nulla: la forza dell’AI sta proprio nel superare i tradizionali tradeoff tra economia, sostenibilità e valori sociali, una trasformazione sinergica che permette di armonizzare inclusività, etica ed efficienza.
Che impatto avrà l’AI sul mondo del lavoro?
L’Artificial Intelligence ha maggiore impatto quando è sviluppata all’interno di team interfunzionali e interdisciplinari, che hanno un raggio diversificato di prospettive e competenze da attivare per garantire che siano affrontate le priorità più ampie nel panorama aziendale, per soluzioni di AI più complete ed efficaci, che tengano conto di tutti gli aspetti di backend e dell’intero ciclo di vita del cliente. Una riuscita implementazione dell’AI richiede quindi un approccio strategico che vada oltre gli investimenti tecnologici e sappia coinvolgere tutti gli attori in gioco. Perché se esiste il tema critico della competizione essere umano-macchina, ci sono anche i germogli per prospettare maggiore collaborazione e scambio tra le persone: una rinnovata alleanza essere umano-essere umano per sfruttare al meglio le potenzialità della tecnologia restando protagonisti di questa rivoluzione senza precedenti.
L’APPROCCIO NUOVO DI IDI EVOLUTION
L’azienda lombarda ha sviluppato un sistema che virtualizza i pazienti dei dentisti per facilitare lo scambio di dati necessario per realizzare gli impianti.
C’è un momento chiave nella storia di Idi Evolution , che coincide, nel 2002, con l’aggiunta del secondo termine dell’attuale ragione sociale a quella che era nata, tredici anni prima, semplicemente come Idi (Implantologia Dentale Innovativa). La modifica sancisce anche semanticamente il cammino che l’azienda lombarda aveva già intrapreso, ma ha in seguito accelerato in direzione della ricerca e dell’apporto tecnologico alla realizzazione delle protesi dentali, suo core business, con una produzione annua di circa cinquantamila impianti. Nella prima parte del nuovo millennio, in effetti, Idi Evolution ha messo a punto un motore implantologico, arrivato oggi alla terza generazione (Tmm3). “Nello stesso periodo
abbiamo introdotto strumenti Cad e Cam per dare una forte impulso alla produzione”, ricorda Andrea Piantoni , fresco di nomina alla carica di Ceo della società, dopo aver ricoperto per diverso tempo il ruolo di chief innovation officer. “Ma il vero salto di qualità, partito allora, ha riguardato la mutazione da realtà molto industriale, che realizzava pezzi prodotti in serie, verso la fornitura di un servizio su misura ai nostri clienti, ovvero gli studi dentistici”.
Un metodo strutturato
Per molto tempo il settore odontoiatrico si è basato quasi esclusivamente su dati empirici per la cura dei pazienti, mentre Idi Evolution è stata fra le realtà che in Italia hanno avviato una rivoluzione, tuttora in atto, basata sull’utilizzo
strutturato di tecnologie informatiche e analisi dei dati. L’azienda poggia oggi la propria attività sull’utilizzo della piattaforma Km Zero, che integra le varie fasi del workflow clinico necessario per andare dalla rilevazione del problema dentale sul paziente alla consegna della protesi personalizzata. Al centro della piattaforma c’è il motore Alfred, ovvero il software che gestisce tutti i processi clinici ed extraclinici degli studi odontoiatrici e che costituisce il principale valore tecnologico sviluppato e messo a punto da Idi Evolution. Questa è la vera e propria interfaccia tra lo studio dentistico e i pazienti: “La sua funzione principale è integrare tutti i dati che arrivano dalle varie componenti di quello che si configura come un vero e proprio processo di virtualizzazione del paziente e consentire ai dentisti di disporre di una gestione personalizzata dello studio, con tutte le informazioni cliniche di ogni soggetto e la possibilità di instaurare una comunicazione trasparente tra medico e paziente”, illustra Piantoni.
Per arrivare a produrre una protesi realizzando un prototipo virtuale, l’azienda oggi lavora con tre diversi tipi di scansione: intra-orale, di movimento e facciale. Prima questi passaggi avvenivano in un tempo molto più lungo, solo attraverso i calchi e con minor precisione. Idi Evolution ha selezionato una serie di tecnologie e strumenti che consentono di coprire integralmente questo workflow clinico, fornendo allo studio dentistico in comodato d’uso le macchine che servono ad avviare il lavoro e il software che l’azienda stessa ha sviluppato, mantenendo poi (attraverso la stessa piattaforma) il dialogo aperto con il professionista e la condivisione dei dati. “Avere tutti i dati all'interno di un unico sistema centrale consente di effettuare anche analisi per migliorare la qualità del lavoro degli studi e le relative pratiche cliniche e qui facciamo già leva sull’impiego dell’intelligenza artificiale”, chiarisce Piantoni.
“Abbiamo iniziato a sviluppare Alfred circa quattro anni fa, estendendone progressivamente il raggio d’azione a tutto il range delle pratiche odontoiatriche”.
Tra on-prem e cloud
Dal punto di vista dell’infrastruttura tecnologica, l’azienda ha fatto scelte precise, decidendo di mantenere all’interno tutta la parte di produzione degli impianti e delle protesi, mentre la componente informatica è in cloud su Microsoft Azu-
re. Questo ha consentito di non dover effettuare alcun investimento hardware per lo sviluppo di Alfred, concentrando l’impegno economico nello sviluppo del software (materialmente affidato a una società esterna) e sulla creazione dei dati. Delle circa cinquanta persone che lavorano nella sede centrale (situata a Concorezzo, alle porte della Brianza), una buona parte è impegnata proprio nella componente di produzione. Questa sua volta fortemente informatizzata, a partire dal Cad/Cam usato per la progettazione, passando per le stampanti 3D per la creazione dei prototipi e arrivando, poi, al prodotto finito. “Sulle attività più standardizzate abbiamo introdotto strumenti IoT per capire come stia performando ognuna delle macchine su cui stiamo lavorando e per arrivare a fare anche manutenzione predittiva”, spiega Davide Popi, responsabile della divisione di Idi Makers. “Abbiamo introdotto dei Kpi su tutti gli elementi che è possibile misurare, per poi eseguire le relative analisi e stabilire dove intervenire per migliorare sia il rendimento della meccanica sia quello del personale addetto alle lavorazioni. Oggi siamo già in grado di prevenire fermi contemporanei di più macchine”.
L’ingresso dell’AI
L’intelligenza artificiale, come abbiamo accennato, è una delle componenti tecnologiche che più di recente ha fatto in-
gresso nel mondo Idi. Già oggi, partendo da dati disponibili e librerie costruite sugli impianti già posizionati, l’azienda è in grado di suggerire al dentista protocolli di cura migliori per i loro pazienti. In prospettiva, è ragionevole che possa evolvere tutto ciò che riguarda la chirurgia dentale, oggi basata su linee guida ricavate da dati su piccoli gruppi di pazienti. In un futuro non troppo remoto, invece, potrà far leva su una maggior potenza di calcolo e su un insieme di informazioni molto più esteso.
Pur essendo già oggi una componente fondamentale dei processi, il digitale è destinato ad assumere un ruolo ancor più rilevante, lungo un percorso di crescita che ha già portato Idi Evolution a chiudere l’ultimo esercizio con un fatturato consolidato di gruppo intorno ai 20 milioni di euro. “Nell’ottica del rafforzamento della prevenzione, stiamo pensando alla possibilità di dotare i singoli pazienti di strumenti utili per monitorare la propria salute dentale a domicilio”, anticipa Piantoni. “Lo strumento di rilevazione della placca dovrebbe stare a fianco dello spazzolino in ogni bagno e poi, con un’apposita applicazione, diventerebbe possibile comunicare al proprio dentista i dati utili per favorire la salute e il lavoro di tutti”.
Roberto BoninoAL TIMONE DEL CAMBIAMENTO
Dalla migrazione in cloud all’intelligenza artificiale, fino alle nuove sfide dell’azienda “5.0”: il ruolo dei chief information officer è sempre più strategico.
La trasformazione digitale delle imprese italiane è un processo dinamico e complesso, colmo di best practice ma anche di sfide ancora da affrontare. L’indagine annuale “Digital Business Transformation Survey 2024”, realizzata da The Innovation Group, offre una mappa per orientarsi lungo la strada verso l’evoluzione digitale, analizzando i principali trend di innovazione e lo stato dell’arte dell’adozione di tecnologie all’avanguardia nelle aziende italiane. In uno scenario in cui è prioritario efficientarsi, creare nuovi servizi ed esperienze, aumentare il fatturato e ridurre i costi, il digitale può chiaramente fornire un aiuto per raggiungere questi obiettivi. Tra le molteplici iniziative previste spiccano la data strategy, l’intelligenza artificiale, la migrazione in cloud, l’ammodernamento della gestione della supply chain: tutte componenti fondamentali della più ampia strategia digitale. La crescente adozione delle tecnologie 4.0 in vari settori e attraverso svariate catene del valore comporta, tuttavia, una crescente vulnerabilità agli attacchi cyber,
laddove non ci sia sufficiente attenzione alla sicurezza complessiva dei sistemi aziendali. Di conseguenza, le imprese stanno intensificando i loro sforzi nel campo della cybersecurity. In questa prospettiva, si osserva una maggiore attenzione verso gli aspetti di compliance alle regolamentazioni, con particolare riferimento alla normativa NIS2, che coinvolge aziende di medie e grandi dimensioni e con una scadenza fissata per il 17 ottobre 2024. Su questi temi The Innovation Group ha interpellato i chief information officer (Cio) di importanti realtà italiane. Dalle interviste emerge un’evoluzione del loro ruolo in azienda e una crescente discontinuità con il passato. Il consenso è uniforme rispetto a un maggiore coinvolgimento di queste figure nelle strategie di business: si percepisce sempre più chiaramente la centralità della leadership del Cio e l’importanza di un allineamento strategico tra l’IT e le altre divisioni aziendali. Il ruolo del Cio è oggi più liquido, più flessibile, caratterizzato da una stretta collaborazione con il business e da una capacità di dare
risposta agile alle priorità delineate dal board. Un coinvolgimento crescente del Cio si osserva nei tavoli decisionali che affrontano questioni legate al valore aziendale e ai motori del business. La nuova tendenza è avere un IT che contribuisca attivamente a individuare le opportunità offerte dalle tecnologie al fine di migliorare gli indicatori aziendali e l’efficienza operativa.
Dai dati agli insight
Questa trasformazione è ben delineata da Riccardo Salierno, group chief information officer di Sapio Produzione Idrogeno Ossigeno: “È un legame in due direzioni, non è possibile che il business prenda decisioni senza coinvolgere l’IT e dall’altro lato l’IT non può fornire soluzioni se non coinvolto nelle strategie di business”. Si prevede poi un’ulteriore trasformazione del ruolo del Cio nei prossimi tre anni, caratterizzata da una maggiore attenzione alle esigenze dell’utente. In particolare, il ruolo del Cio sarà orientato a migliorare in modo significativo la digital experience dei dipendenti. Alcuni fattori, però, frenano l’efficacia delle attività dei Cio: l’entusiasmo per il progresso tecnologico ha richiesto una profonda riorganizzazione operativa all’interno delle aziende. La necessità di un cambio di mentalità e di integrazione della strategia dell’IT in ogni decisione aziendale è evidente, come ribadito da Omar Moser, group chief information officer di Gnutti Carlo Group: “Per intraprendere una vera trasformazione, le imprese devono avvicinarsi a un nuovo mindset e considerare l’IT come un elemento strategico fondamentale in ogni decisione aziendale. Deve fungere da pilastro nello sviluppo delle strategie. La chiave di gran parte di questo processo giace nelle mani del Cio, che deve assumere un ruolo propositivo per garantire una trasformazione aziendale efficace”. Problemi di disallineamento tra IT e business, tempi di implementazione e sfide di natura tecnica, legale e di
sicurezza informatica rappresentano ulteriori ostacoli da superare per garantire un’efficace evoluzione digitale.
La consapevolezza dell’importanza dei dati come asset fondamentale per l’azienda è ormai diffusa. È chiaro che investire in competenze e infrastrutture per l’analisi dei dati sia un imperativo per rimanere competitivi. Nonostante questa consapevolezza, la percentuale di aziende che dichiara di aver effettivamente realizzato un’organizzazione data-driven è ancora modesta: segnale importante che la trasformazione digitale è ancora ben lungi da potersi dire completa in molte realtà. Emerge la necessità di una strategia più coesa a livello organizzativo, realizzabile solo attraverso un profondo cambiamento della cultura e mentalità aziendale. La semplice raccolta di dati, punto di partenza per la realizzazione di un’azienda data-driven, infatti, non significa necessariamente che essi siano facili da comprendere o maneggiare. Il passo successivo è l’approccio insight-driven, che implica l’analisi e l’interpretazione dei dati. Gli insight sono accessibili e di facile lettura, quindi possono supportare l’orientamento delle decisioni strategiche aziendali e avere un impatto significativo sul business.
L’irruzione della GenAI
Con la diffusione di nuove tecnologie, prima fra tutte l’intelligenza artificiale generativa (GenAI), le aziende hanno gli strumenti per fare un ulteriore passo avanti nella realizzazione di una “generative insight organization”. La GenAI sta diventando una risorsa per riconoscere e processare rapidamente informazioni, creando connessioni tra dati a diversi livelli.
Grazie alla sua capacità di apprendimento continuo e alle interfacce conversazionali user-friendly, questa tecnologia è in grado di offrire alle aziende un supporto orientato ai dati nei flussi di lavoro, favorendo una cultura insight-driven. Nell’ultimo
anno molte aziende hanno già integrato soluzioni di GenAI nei propri processi, mentre altre ne stanno studiando l’efficacia. Sperimentare è la parola d’ordine, ma non devono essere trascurati gli aspetti di privacy e sicurezza dei dati. La GenAI è vista come una risorsa potenziale per migliorare l’efficienza in diverse aree aziendali, ma l’approccio è guidato dalla prudenza e dalla valutazione graduale dei benefici e delle priorità aziendali.
Mentre la maggior parte delle imprese italiane è in fase di studio, non mancano i primi casi d’uso della GenAI in alcuni ambiti. In un’ottica di data analytics, le aziende stanno investendo nella creazione di metadati per migliorare la comprensione dei mercati interni ed esterni, puntando a porre il consumatore al centro delle decisioni. Altre applicazioni si pongono l’obiettivo di migliorare l’impatto ambientale dei processi e avvicinarsi a un approccio circolare, come afferma Moser. “Attualmente”, ha detto il group Cio di Gnutti Carlo Group, “concentriamo gli sforzi innovativi e finanziari soprattutto nell’integrazione di vision system abbinati all’AI nella produzione, con l’obiettivo di ridurre gli scarti e ottimizzare i processi. Questi sistemi, applicati principalmente alla fine della linea di produzione, consentono un controllo visivo avanzato e, mediante l’implementazione di capacità generative, contribuiscono a un ciclo virtuoso di miglioramento continuo. L’obiettivo è annullare gli scarti, consentendo al sistema di apprendere dai processi e di segnalare eventuali deviazioni per migliorare la qualità complessiva del prodotto e del processo”. Ulteriori casi d’uso e sperimentazioni sono rivolti al comparto vendite (implementando la GenAI nel Crm), del marketing e della supply chain. Questi sviluppi sono parte di una visione più ampia che vede la collaborazione con partner, preferibilmente innovativi e agili, come mezzo per acquisire competenze tecniche e ottenere soluzioni su misura.
Il futuro è multi-cloud
Un’ampia quota di aziende si trova in una fase avanzata nel processo di adozione del cloud. Questa scelta è motivata da una mossa strategica per il business: ottimizzare la scalabilità delle risorse IT, l’agilità, la resilienza, la sicurezza e i costi. Affinché l’adozione del cloud sia efficace e completa, le aziende sono consapevoli dell’importanza di implementare processi maturi e un’architettura robusta. Per fare ciò bisogna superare alcune sfide, tra cui il controllo della spesa, la gestione di più ambienti cloud (multi-cloud) e la sicurezza. Nonostante queste sfide di gestione, si prevede un’ulteriore crescita di questo approccio: i Cio vedono il multicloud come l’opzione preferibile da qui a tre anni. Le principali motivazioni di questa scelta sono assicurare migliori disaster recovery e business continuity, garantire la compliance o localizzazione del dato e delle app e ridurre la dipendenza dai cloud provider (evitando il rischio di lock-in). Nonostante i benefici del multicloud, questa strategia comporta anche rischi, legati in particolar modo alla necessità di competenze specializzate per gestire ambienti diversificati.“Ci siamo focalizzati su un numero limitato di provider, Google Cloud e Microsoft Azure, con lo scopo di ridurre la dipendenza da un unico fornitore e di semplificare l’area IT”, racconta Angelo Ruggiero, head of IT Italy di Unilever. “Per ridurre i rischi al minimo, abbiamo scelto il multicloud. Sebbene la scelta ideale sarebbe affidarsi a un unico fornitore, la decisione di lavorare con due provider principali è guidata dalla volontà di bilanciare le opportunità e i rischi nel contesto della nostra strategia IT complessiva. Per semplificare la gestione abbiamo creato gruppi global di supporto sulla gestione dei due fornitori”.
Le sfide che accompagnano il processo di migrazione al cloud sono tante, ma una fra tutti è la necessità di un profondo
I VERI LEADER DELLA TRASFORMAZIONE?
Si è tenuta di recente a Baveno la prima edizione del Cio Leaders Summit, che Tig Events ha organizzato mettendo a confronto oltre quaranta professionisti della tecnologia e dell’innovazione. Tra sessioni plenarie e tavoli di lavoro, i manager hanno discusso di temi che hanno toccato l’evoluzione del loro ruolo in azienda, le sfide organizzative e tecnologiche da affrontare, i nuovi sviluppi collegati alla gestione dei dati e all’intelligenza artificiale, la valorizzazione del capitale umano. Tanto dagli interventi degli esperti che hanno introdotto e concluso i lavori del Summit quanto dalle discussioni che hanno animato i vari tavoli di lavoro dell’evento, è emerso più o meno esplicitamente un tratto comune: per il chief information officer non è più il tempo di occuparsi di tecnologia fine a sé stessa e nemmeno dei dati in quanto tali, bensì è il momento di concentrarsi sul linguaggio e sulla comunicazione. Organizzare correttamente il patrimonio informativo delle aziende, costruire i modelli dai quali far discendere gli input richiesti dal business e dare evidenza della propria centralità sono le sfide che attendono l’IT nell’era della “trasformazione generativa”. I Cio sono pronti a raccoglierle? Da Baveno qualche indicazione positiva è arrivata, in mezzo alle classiche preoccupazioni sui budget raramente adeguati, il dialogo faticoso con le Line of Business, le richieste destrutturate da gestire, le difficoltà ad attrarre e trattenere i talenti. La strada dell’evoluzione appare segnata e deve portare a quello che, presto o tardi, dovrà chiamarsi non più chief information officer ma chief language officer.
cambiamento nei processi e nelle operazioni. Elemento che per alcune realtà è stato un ulteriore stimolo al passaggio, come espresso da Francesco Derossi, chief information officer di Liquigas: “L’obiettivo è stato costantemente generare valore per il nostro business, adottando un approccio che collega la migrazione al cloud a significativi cambiamenti nei processi o nei modelli. Abbiamo colto l’opportunità non solo di migrare, ma in molti casi anche di far evolvere la soluzione, trasformando l’installazione di un’applicazione on-premise in un modello Software-as-a-service. Questo approccio, sebbene richiedesse più tempo, è stato guidato dall’obiettivo di ottenere rendimenti maggiori nel lungo termine”. La componente on-premise ha ancora un peso rilevante per alcune aziende, la cui volontà è tuttavia di adottare le soluzioni cloud in maniera più diffusa nei prossimi anni. “Ci troviamo attualmente in un ambiente ibrido, con il 50% delle nostre risorse on-premise e il restante 50% distribuito tra soluzioni SaaS e un’infrastruttura in cloud”, ha proseguito Derossi. “La nostra previsione è di completare la transizione verso un ambiente serverless nei prossimi due anni, abbandonando completamente l’infrastruttura on-premise. Questa evoluzione prevederà
la coesistenza di diversi modelli architetturali nel cloud e ci consentirà di sfruttare al meglio le diverse capacità offerte da vari provider, garantendo così la migliore flessibilità e resilienza”. Un’attenzione particolare dev’essere rivolta alla compliance alle normative europee, come sta facendo Sapio. “Da diversi anni abbiamo stipulato contratti che vincolano i nostri dati a specifici data center situati in Europa”, spiega Salierno. “Questi data center sono accuratamente definiti e dichiarati, assicurandoci che siano conformi alle normative richieste. Per quanto riguarda la sicurezza degli accessi, facciamo riferimento a standard come Gdpr, ISO 27001 e NIS2, garantendo così un elevato livello di protezione e conformità normativa per i dati ospitati nei nostri ambienti cloud”.
Le variabili Esg
Le tematiche Esg (Environment, Social, Governance) sono oramai diventate parte integrante della strategia aziendale. Ciò non si traduce automaticamente in azioni concrete, ma è evidente una crescente attenzione a questi aspetti anno dopo anno. “La sostenibilità rappresenta uno dei pilastri fondamentali a livello aziendale”, racconta Ruggiero, “permeando l’intera filiera con un approccio
focalizzato sulla responsabilità ambientale, sociale e di governance. La crescente importanza riservata a queste tematiche è evidente perché essa viene integrata nel business case, equiparando il suo valore a quello degli aspetti finanziari”. Essenziale, in questo contesto, è monitorare le attività legate ai principi Esg in modo da quantificare e qualificare i valori non economici dell’azienda. Il monitoraggio costante tramite soluzioni digitali consente di valutare l’allineamento alle pratiche sostenibili, dalla selezione delle materie prime fino agli impatti della filiera complessiva. Solo in questo modo è possibile correggere le azioni o amplificare gli sforzi a favore della sostenibilità. Si riconosce, tuttavia, la necessità di un coinvolgimento più tempestivo delle tecnologie digitali nelle decisioni aziendali. La sfida in tale processo risiede infatti nella capacità di integrare queste soluzioni nel modo più approfondito e precoce possibile, già nelle prime fasi decisionali: tempestività ed efficacia sono quindi le parole chiave per un approccio corretto alle tematiche Esg. Tra i casi d’uso, alcune aziende stanno esplorando l’applicazione della blockchain per migliorare la tracciabilità, la conformità e la partecipazione degli stakeholder.
Arianna PerriIL VALORE DELL’IT VA COMUNICATO MEGLIO
In molte aziende manca ancora una estesa consapevolezza di quanto l’informatica sia cruciale per raggiungere obiettivi di business.
Appare piuttosto naturale che, all’interno di un evento che raccoglie a confronto un ampio numero di manager della tecnologia e del digitale, si discuta del ruolo e del peso che l’IT ha o dovrebbe avere all’interno dell’organizzazione aziendale. Non ha fatto eccezione il Cio Leaders Summit, organizzato da Tig Events a Baveno, un evento che ha ospitato oltre quaranta IT executive, in parte chiamati a mettere a fattor comune esperienze e punti di vista proprio su questi aspetti, alla luce delle più recenti evoluzioni e dei processi di trasformazione in corso. Due elementi forti sono emersi dal confronto nei tavoli di lavoro dedicati al tema. Da un lato, c’è la consapevolezza diffusa che l’IT debba essere il motore dei progetti di innovazione, sulla spinta e (soprattutto) con il patrocinio del business. Dall’altro, i Cio sono consapevoli di presiedere un’area che, come nessun’altra, detiene una visione complessiva su tutti gli aspetti legati al business e alle relative strategie. Tuttavia, questo peso continua a essere poco riconosciuto all’interno delle aziende. Perché? Almeno in parte, ciò dipende da un difetto di comunicazione che la
stessa funzione IT dovrebbe risolvere per dare maggiore visibilità interna ed esterna al proprio lavoro.
Valore è la parola chiave per cambiare lo stato delle cose, ma spesso l’interpretazione pratica del termine differisce fra IT e business. Per questo, sarebbe sempre auspicabile avere all’interno dei team figure di raccordo, capaci di smussare le asperità di linguaggio fra le diverse funzioni e trasferire messaggi corretti. II problema è che questo genere di competenza, che potremmo ascrivere al concetto di demand management, spesso non è presente all’interno delle aziende e, quando lo è, non è detto che appartenga al team IT. Questo, secondo i Cio, è un limite che ostacola la valorizzazione del loro lavoro.
Di fatto, nell’odierno scenario proiettato verso la digitalizzazione, non è ancora così infrequente trovare realtà in cui l’IT venga ancora percepito come un costo. Ovviamente, i responsabili della funzione ritengono invece di essere ormai diventati un centro di profitto e il modo più semplice per far recepire questa visione sembra essere il portare risultati evidence-based, cioè basati sui fatti, riuscendo
a coinvolgere non solo i manager delle linee di business interessate ma anche i dipartimenti di comunicazione (che potrebbero avvalersi di una leva ulteriore per trasferire all’esterno il percorso di innovazione della propria azienda). La presenza di gruppi interfunzionali legati a specifici progetti può rappresentare una soluzione, ma la stessa IT dovrebbe essere più abile nel far circolare il proprio apporto e la padronanza trasversale sui processi.
Un altro tema organizzativo rilevante per i Cio riguarda la programmazione dello sviluppo delle persone appartenenti al proprio team. Dal confronto al Summit di Baveno è emerso come questo tema sia da collegare ai piani strategici dell’IT, che però spesso non sono ancora integrati a quelli aziendali complessivi, bensì trattati come un capitolo a parte. Oltre alle attività di reskilling e alla formazione continua, un buon sistema per avvicinare i due mondi sarebbe quello di esporre maggiormente le persone dell’IT all’interno delle aziende, per valorizzarne il lavoro e fare un po’ di quel “marketing interno” che si citava poc’anzi.
Roberto BoninoGOVERNANCE
E FIDUCIA PER FAR LEVA SUI DATI
Problemi di ownership e affidabilità ancora influenzano le strategie “data-driven” delle aziende.
L’idea di poter impostare strategie aziendali data-driven deve ancora fare i conti con problematiche di ownership e affidabilità non del tutto risolte. E anche i progetti che coinvolgono l’intelligenza artificiale ne sono influenzati. Da diversi anni si dibatte su come le aziende debbano gestire e, poi, valorizzare la grande mole di dati che hanno a disposizione. Database relazionali e data warehouse, Business Intelligence e analytics, dashboard e report avanzati: queste sono state fin qui le risposte tecnologiche fornite dai Cio alle richieste del business di poter visualizzare i dati e strutturare su di essi i processi decisionali. Ma oggi si sono fatte avanti necessità che la pura tecnologia, da sola, non può più soddisfare. I dati provengono da fonti disparate e devono essere armonizzati, e inoltre occorre avere certezza della loro
affidabilità. Su questo vanno sperimentati e poi tradotti in pratica gli sviluppi che l’intelligenza artificiale ha solo iniziato a mostrare.
Dal tavoli di discussione del Cio Leaders Summit è emersa soprattutto la necessità primaria di poter disporre di un data catalog (cioè un inventario centralizzato di dati, metadati e strumenti di gestione) che aiuti i manager dell’IT, ma anche i chief data officer (Cdo) e le figure assimilabili nel frattempo introdotte nelle aziende, ad avere un inventario chiaro e organizzato del patrimonio informativo a disposizione. Da qui discendono le prassi collegate a due parole d’ordine comuni alle aziende di ogni settore e dimensione: governance e trust sono i termini più citati nelle discussioni dei tavoli di lavoro.
Senza una chiara definizione dell’ownership dei dati, della loro affidabilità e di
un controllo costante sulle modalità di circolazione e manipolazione, è difficile pensare a sviluppi efficaci in direzione data-driven. La strada da percorrere è ancora lunga, e l’hype creatosi intorno al potenziale dell’intelligenza artificiale non solo non aiuta ma tende ad amplificare le carenze strutturali su questo fronte. Già sulla Business Intelligence self-service si sono registrate dispersioni e utilizzi destrutturati di strumenti che certi ruoli aziendali hanno adottato per soddisfare le proprie necessità operative. La consumerizzazione in atto e la relativa trasformazione della tecnologia in prodotto portano alla luce l’esigenza di fare in modo che i progetti basati sull’AI e sugli algoritmi non partano falsati in origine.
Ne deriva che, accanto all’individuazione corretta dei ruoli e delle responsabilità sui dati, debba crescere anche la cultura dell’azienda e delle persone. I Cio lamentano una sensibilizzazione ancora piuttosto scarsa sui rischi collegati a un uso improprio o fuorviato dell’AI. Nel 2025 entrerà in vigore l’AI Act, che proprio su questo fonda il proprio insieme di regole.
Per questo, il coinvolgimento di tutte le figure interessate e la formazione appaiono elementi fondativi dello scenario che va delineandosi. II fattore umano, infatti, resta fondamentale per poter presiedere e controllare i risultati di ciò che può essere delegato all’automazione, e di questo è bene che tutti siano consapevoli.
Sarebbero utili best practice che fin d’ora possano aiutare le aziende a impostare correttamente la governance dei dati. Il tema, però, viene oggi giudicato ancora acerbo e, quindi, servirebbero una consapevolezza più diffusa del patrimonio esistente e una cultura condivisa di prassi e definizione di casi d’uso: questo può essere il punto di partenza per implementare in modo strutturato e consapevole gli strumenti di AI a supporto dei processi decisionali.
Roberto BoninoSTRATEGIE PER ARGINARE I RISCHI
Definire un sistema di metriche, certificare i fornitori, puntare su formazione e su buone pratiche cyber: così i Cio non rinunciano all’innovazione.
Il binomio rischi/opportunità è forse abusato, ma è impossibile non utilizzarlo quando si parla dell’adozione tecnologie “dirompenti” come lo è, oggi, l’intelligenza artificiale o come continua a esserlo il cloud computing (una rivoluzione consolidata, ma ancora in fieri). Il tema del rapporto tra i rischi e le opportunità ha acceso, ancor più di altri, il dibattito tra i Cio perché a questa figura, in azienda, spetta la responsabilità di soppesare i vantaggi e i possibili risvolti negativi di un progetto tecnologico nuovo. La sensazione di fondo è che si debba procedere con i piedi ben puntati per terra, senza però rinunciare alla spinta al cambiamento. E come si fa? Il punto di partenza è definire, a monte, un sistema di valutazione e di governo dei rischi, che includa metriche e stime dei costi, dei benefici, delle misure di sicurezza e compliance implicate. Un approccio sistematico e programmatico,
insomma, che possa trasformare quella che non è una scienza esatta in qualcosa di, se non altro, oggettivabile e misurabile. Tra i Cio coinvolti nel sondaggio di Cefriel e Tig Events, il 100% ha indicato l’analisi dei rischi tra le metodologie da utilizzare per preservare la sicurezza dei dati aziendali. Considerando l’ascesa degli attacchi cyber di supply chain, è importante che l’analisi dei rischi sia estesa anche ai fornitori di software, hardware e servizi IT, delineando per esempio un sistema di rating, standard da rispettare e certificazioni. Definire a monte i limiti e le modalità di utilizzo di una tecnologia è fondamentale per la compliance (la cui violazione comporta, come noto, danni economici e a volte anche di reputazione), tuttavia non sempre questo è sufficiente: a detta dei Cio, talvolta i tempi concessi per l’adeguamento a una nuova normativa non sono compatibili con i processi azien-
dali, specie per aggiornamenti o cambiamenti tecnologici massicci.
Una seconda strategia seguita dai Cio per contenere i rischi dell’innovazione tecnologica è la formazione, cioè preoccuparsi di portare sensibilità e competenze agli utenti aziendali, dentro e fuori dal reparto IT. Il 60% dei chief information officer segue questa strategia, che aiuta sicuramente ad arginare il pericolo di incidenti informatici e danni alla privacy, alla sicurezza e alla reputazione dell’azienda. La gestione del rischio, con le buone pratiche quotidiane e la cultura che si porta dietro, deve coinvolgere l’intera organizzazione, dalla base ai vertici, e non solo il reparto IT.
Mobilita in modo specifico l’IT la terza strategia per il contenimento dei rischi: l’attuazione di buone pratiche di “igiene cyber”, come si suol dire, nella quotidiana gestione dell’azienda e dei suoi processi. Nel concreto, ciò significa applicare misure di protezione dei dati e della privacy, come il rilascio di aggiornamenti e patch, il monitoraggio e rilevamento delle minacce, il backup: tutte pratiche piuttosto diffuse. Meno frequenti, ma altrettanto importanti, sono il ricorso alla crittografia dei dati, la gestione degli accessi e delle identità, il controllo dei dispositivi Internet of Things. Tecniche come l’autenticazione a più fattori sono efficaci per bloccare le minacce esterne ma possono essere vissute dagli utenti come un’imposizione, una scomodità poco ben accetta, e lo stesso dicasi degli alert di sicurezza che, se troppo numerosi, intralciano le attività di lavoro quotidiane. I Cio, non di rado, si trovano a dover mediare tra posizioni opposte, tra vertici aziendali che desiderano mantenere il controllo su ciò che i dipendenti fanno con la tecnologia, e utenti che invece vorrebbero essere liberi di scegliere e di fare. Il mestiere del Cio è complesso: sono guide, strateghi, “buoni maestri” e anche mediatori, alla ricerca del delicato equilibrio tra contenimento dei rischi e spinta all’innovazione.
Valentina BernoccoRADIOGRAFIA DEL RISCHIO NELLE AZIENDE ITALIANE
Tra phishing, ransomware e nuovi pericoli legati all’intelligenza artificiale, crescono gli attacchi a elevato impatto. Una ricerca di Tig.
La pioggia di attacchi informatici che cade sulle aziende italiane non accenna a calare di intensità. E, come si suol dire, spesso piove sul bagnato perché negli ambienti IT aziendali si verificano anche incidenti senza dolo e inoltre il rischio cova sotto la superficie in forma, soprattutto, di vulnerabilità software e di abitudini di utilizzo delle tecnologie non esattamente sicure (ricicli di password, assenza di autenticazione a doppio fattore, uso di dispositivi o software obsoleti, ricorso ad applicazioni e servizi cloud non approvati dall’IT, per citare alcuni problemi comuni). Una buona fotografia arriva dall’annuale ricerca “Cyber Risk Management Survey” condotta lo scorso gennaio da Tig - The Innova-
tion Group in collaborazione con CsaCyber Security Angels su un campione di 166 responsabili di sicurezza informatica di altrettante organizzazioni italiane di medie e grandi dimensioni. Gli attacchi sono endemici, spesso ripetuti e diversificati: il phishing è la minaccia più diffusa, rilevata nel corso del 2023 da ben il 95% degli intervistati sia nelle forme più indifferenziate sia nelle modalità più mirate dello spear phishing e del social engineering. Ma sono frequenti anche lo spam tramite posta elettronica (52%), i tentativi di “adescamento all’amo” per furto di dati via Sms e messaggi telefonici (smishing e vishing, 44%), il malware (39%), le frodi di Business Email Compromise (36%), i DDoS (attacchi in cui viene saturata
la banda di rete, 18%), gli attacchi alle applicazioni e librerie Web (17%). Numericamente prevalgono gli incidenti di gravità e impatto limitato, ma nel corso del 2023 un non trascurabile 37% ha sperimentato invece delle violazioni di dati o delle interruzioni di servizio. E la percentuale, tra l’altro, è in crescita rispetto al 26% riferito all’anno 2022. In sostanza, gli incidenti di elevata gravità stanno aumentando. Se non altro, nella stragrande maggioranza delle aziende anche il budget dedicato alla cybersicurezza si gonfia o almeno non è in calo: gli investimenti salgono soprattutto per l’acquisto di nuove tecnologie (in crescita per il 45% delle aziende), per la preparazione agli incidenti, per la formazione dei dipendenti e per i servizi di consulenza.
Ransomware, ferita aperta
L a quota di aziende toccate dal ransomware nel 2023 risulta pari al 14%,
Che conseguenze hanno avuto gli attacchi?
mentre quelle che hanno subìto almeno un attacco di questo tipo l’anno scorso o anche in precedenza sono il 34% del campione. Come si reagisce di fronte al blocco dei dati tramite crittografia o, secondo la nuova tendenza del panorama ransomware, alla minaccia di distruggere, pubblicare o rivendere quelle informazioni? Più spesso si accetta la via del compromesso (etico ed economico): solo il 36% degli intervistati si è detto contrario al pagamento del riscatto in qualsiasi circostanza, mentre il 59% si piegherebbe alla richiesta se non fosse possibile recuperare i dati in altro modo.
Supply chain nel mirino
Degni di nota, e protagonisti tra le tendenze degli ultimi anni, sono anche gli attacchi cosiddetti di supply chain, che colpiscono l’obiettivo finale o creano danni a cascata inserendosi in un passaggio della catena di fornitura di un software o servizio: il 12% degli intervistati li ha osservati all’interno della propria organizzazione nel corso del 2023. Vale la pena notare che solo poco più di metà delle aziende, il 54%, ha previsto specifiche attività per controllare la sicurezza della supply chain. Quali,
nel caso? Gli sforzi sono tesi soprattutto verso i controlli preliminari sui fornitori di tecnologie e servizi informatici, per esempio tramite requisiti previsti nei contratti, audit periodici o richieste di autovalutazione. Meno frequentemente l’azienda definisce policy interne sulla sicurezza dei fornitori IT.
Rischi e approcci all’AI
A proposito di tendenze recenti, l’escalation di popolarità dell’intelligenza artificiale ha dei riflessi sulla cybersicurezza delle aziende. Secondo gli intervistati, l’adozione dell’AI potrebbe comportare un incrementato rischio di mancata conformità alle normative, per esempio sul tema della privacy (per il 52% del campione) o anche di maggiore esposizione ad attacchi informatici diretti verso i modelli che stanno alla base delle applicazioni di AI, e che potrebbero contenere vulnerabilità (per il 36% degli intervistati) o essere manipolati e distorti (33%). Utilizzando strumenti di AI conversazionale generativa, le aziende temono anche di ottenere delle risposte non corrette (47%) o viziate da pregiudizio (23%). E c’è poi il rischio legato non all’adozione dell’AI in azienda ma al suo abuso da parte dei criminali in-
formatici, a scopi di automazione per esempio o per creare deepfake (lo teme il 52% del campione). Insomma, se anche mai un’azienda scegliesse di non adottare l’intelligenza artificiale non potrebbe comunque ignorare l’esistenza del fenomeno. Fortunatamente una discreta fetta del campione d’indagine si sta già muovendo con azioni di formazione del personale (54%) e con valutazioni sui rischi di cybersicurezza associati all’AI.
Verso la cyber resilienza
“I rischio informatico è continuamente sul punto di sfuggire al nostro controllo”, ha commentato Elena Vaciago, research manager di The Innovation Group. “Da tempo si invoca da più parti un completo cambio di passo: uno spostamento di attenzione dalla cybersicurezza, che sta diventando quasi un’illusione, alla cyber resilienza, che è sempre più richiesta dalle norme e appare oggi come un obiettivo più realistico da perseguire”. Anziché puntare all’obiettivo utopico di non subire mai un incidente informatico, le aziende dovrebbero costruire la propria capacità di riprendersi, e velocemente, dopo tali episodi. Per farlo, dovrebbero allineare all’obiettivo della cyber resilienza tutte le proprie tecnologie, ma anche le regole, i processi e le persone (cioè competenze, abitudini, sensibilità sul tema). Le strategie di backup e i piani di disaster recovery restano validi strumenti, ma andrebbero associati ad altre misure tecniche e la pratiche di sicurezza diffuse in tutta l’organizzazione. Dev’essere coinvolto in queste attività e in questa nuova cultura non solo il personale IT bensì ogni singolo dipendente che ogni giorno utilizza le tecnologie, manager inclusi. A oggi, il 63% delle aziende del campione si è dotato di un piano di rilevamento e risposta agli incidenti, ma nella maggior parte dei casi non si tratta di un piano completo. V.B.
INTELLIGENZA ARTIFICIALE: RISCHIO OD OPPORTUNITÀ?
Il ruolo dell’AI per la cybersicurezza è duplice. Il fattore umano può arginare alcuni dei pericoli.
L’intelligenza artificiale è soprattutto un rischio o un’opportunità? La risposta, come spesso avviene, è complessa e dipende da molti fattori. Non si possono negare infatti i benefici offerti da questo strumento, in grado di superare i limiti dell’umano: raccoglie ed elabora velocemente una grande quantità di dati, non si stanca, non si distrae e, soprattutto, non fa errori. Non a caso l’aumento dell’utilizzo di programmi basati sull’AI ha portato opportunità senza precedenti per la produttività delle aziende. Allo stesso tempo, non si possono non considerare i suoi temibili lati oscuri. Infatti, secondo alcuni dati recenti, quasi cinque milioni di italiani la considerano una minaccia. Uno su due pensa che possa essere sfruttata da criminali informatici per azioni fraudolente e il 39,6% teme che diventi uno strumento non controllabile dall’uomo. Più di 5,6 milioni, invece, si preoccupano di perdere il proprio lavoro. Inoltre, secondo un’indagine condotta da Sapio Research e Deep Instinct su 650 esperti e leader di cybersecurity, il 75% dei professionisti dichiara di aver assistito a un’impennata degli attacchi nell’ultimo anno e l’85% ha attribuito l’aumento ai malintenzionati che utilizzano l’AI generativa. Insomma, al netto delle opportunità che riserva, l’AI apre sicuramente la porta a nuovi e infiniti modi di fare crimine online, davanti ai quali non possiamo farci trovare impreparati. Un bel dilemma, anche perché l’intelligenza artificiale è indubbiamente un aiuto concreto per contrastare il crimine informatico. Può infatti essere utilizzata per rilevare attività sospette e anomalie della rete, per identificare i rischi tecnici nei sistemi hardware e software e le varie minacce, grazie alla capacità di dare priorità ai diversi livelli di rischio in modo più accurato e senza errori. Non stupisce che sempre più IT manager cerchino di rispondere agli attaccanti usando la loro medesima arma. Una recente indagine di Gartner sottolinea che il 34% delle organizzazioni sta già utilizzando o implementando strumenti di sicurezza delle applicazioni di intelligenza artificiale per mitigare i rischi associati all’AI generativa.
Il fattore umano, considerato spesso la causa dell’infiltrazione della criminalità nei dispositivi personali e aziendali, rimane un elemento imprescindibile della catena della sicurezza. Al fine di trasformare l’“anello debole” della catena nella prima linea di difesa in azienda, Cyber Guru divide la propria offerta in tre programmi formativi. Cyber Guru Awareness è un modulo di formazione continua su temi di sicurezza informatica, composto da una serie di micro lezioni della durata di cinque minuti e un test su argo -
menti come, per esempio, malware, phishing, password e chiavette Usb. Cyber Guru Phishing è un vero e proprio training che prevede un sistema di invio a sorpresa di messaggi di phishing via email o Sms, con l’obiettivo di creare una sorta di “trappola” per testare il livello di awareness dei destinatari. Infine, CyberGuruChannel è una miniserie televisiva in cui l’attore protagonista viene esposto a diversi scenari di attacco: si aiuta, così, lo spettatore ad adottare comportamenti corretti, imparando dagli errori commessi. Cyber Guru fa evolvere la propria offerta proponendo un esclusivo modello di machine learning adattivo, che permette al programma di phishing di simulare attacchi sempre più personalizzati e finalizzati a testare il livello di resistenza di ciascun individuo, allenandolo a riconoscere e contrastare tentativi di phishing sempre più intelligenti.
Maurizio Zacchi, Cyber Guru Academy Director di Cyber Guru
UN APPROCCIO PROATTIVO CONTRO IL RANSOMWARE
Si tratta di una delle minacce più diffuse e impattanti sulle aziende. Ma è possibile prevenirla.
Qual è il costo per la tua azienda se non puoi spedire prodotti o fornire servizi o avere accesso alla tua piattaforma per giorni o settimane? Quali sarebbero le conseguenze se le informazioni personali dei tuoi clienti fossero rubate, o se perdessi quote di mercato? Questi sono solo alcuni dei possibili esiti di un attacco ransomware. Gartner avverte che si tratta di è “una delle principali minacce esterne che le organizzazioni affrontano oggi"”. Questi attacchi stanno crescendo a un tasso impressionante, aumentando del 70% anno dopo anno dal 2022 al 2023 (secondo Dark Reading), e causano disservizi a utility, banche, ospedali e altro ancora. Gli attacchi ransomware hanno rappresentato quasi un quarto di tutte le violazioni nel 2023 (dati di Verizon riferiti al 2023). Gli hacker sono in grado di personalizzare gli attacchi a seconda della tipologia delle aziende target e questo permette loro di massimizzare il Roi (Return on Investment). Essi sottopongono le loro vittime a una “triplice estorsione”, in cui le aziende, dopo aver pagato il riscatto iniziale, vengono colpite nuovamente attraverso vulnerabilità scoperte dagli hacker durante il primo attacco, e sono a rischio di futuri attacchi quando le loro informazioni vengono vendute, alimentando così il mercato e l’economia del Ransomwareas-a-Service (RaaS).
Il ransomware viene spesso introdotto attraverso attacchi di phishing tesi a ingannare gli individui inducendoli a rivelare in modo surrettizio informazioni personali, come le password. Il 78% delle aziende ha subito attacchi ransomware basati su email (Proofpoint). Gli hacker ottengono spesso accesso ai sistemi aziendali colpendo la supply chain, e se consideriamo che ogni impresa possiede mediamente 173 terze parti (Auditboard) è facile intuire come questo vettore di attacco sia tra i favoriti. Si stima che il 93% delle aziende abbia subìto una violazione a causa delle vulnerabilità nella propria supply chain ( WallStreetJournal).
L’impatto degli attacchi ransomware sulle aziende può essere sostanziale, sia in termini di costi finanziari diretti sia di conseguenze indirette. Il World Economic Forum afferma che i pagamenti di riscatti siano quasi raddoppiati dal 2022 al 2023, raggiungendo un valore di 1,5 milioni di dollari. Ibm riporta che il costo totale medio di una violazione dei dati divulgata dall’attaccante è salito a 5,2 milioni di dollari. Si registrano costi particolarmente elevati per alcune aziende: Caesars Entertainment ha effettuato un pagamento di ransomware di 15 milioni di dollari nel 2023, mentre nello stesso anno Mgm ha speso 100 milioni di dollari, come costo totale della propria
violazione, senza pagare il riscatto. Ci sono poi i costi indiretti: Gartner sottolinea che il costo di ripristino e il conseguente tempo di inattività, oltre ai danni alla reputazione, possono essere da 10 a 15 volte superiori all’importo del riscatto. Data la gravità degli impatti commerciali, prevenire il ransomware dovrebbe essere considerato una priorità per tutti gli stakeholder all’interno della azienda, consiglio di amministrazione ed executive inclusi. Recorded Future potenzia la difesa digitale delle organizzazioni con le conoscenze e gli strumenti necessari per prevenire le minacce. Utilizzando l’Intelligence Cloud nell’ecosistema di sicurezza aziendale, si ottiene una visibilità completa della superficie di attacco, si è in grado di prioritizzare le segnalazioni e accelerare la fase di Detection & Response. Infine, si è costantemente informati sullo sviluppo del panorama delle minacce di ransomware, spostando la postura da una modalità reattiva a una modalità proattiva.
Massimiliano Brugnoli, Senior Sales Engineer di Recorded Future
AI GENERATIVA PER VINCERE NELLA CYBERSECURITY
Un’intelligenza artificiale integrata nel data lake consente di creare una nuova superficie di difesa unificata, senza “silos” di dati.
Grazie ai nuovi servizi e alle molteplici applicazioni oggi disponibili in cloud, le imprese sono state in grado di scalare i propri flussi operativi, rispondendo alla domanda dei clienti e migliorando sensibilmente flessibilità e produttività. Di contro però, la superficie degli ambienti operativi resta un obiettivo interessante per gli hacker perché le reti cloud sono estese, complesse, dinamiche e richiedono una gestione approfondita e una manutenzione regolare. In questo scenario interviene anche l’intelligenza artificiale generativa, in quanto ha le potenzialità per produrre un valore enorme e sconvolgere tutti i settori, realizzando operazioni che fino a poco tempo fa non sembravano neppure possibili. “In SentinelOne l’AI è sempre stata al centro di tutte le nostre attività”, sottolinea Paolo Cecchi, Sales Director Mediterranean Region di SentinelOne. “Molti anni fa abbiamo introdotto i modelli di rilevamento statico e comportamentale basati sull’AI come componente della piattaforma di sicurezza degli endpoint , che hanno migliorato notevolmente le capacità di rilevare potenziali minacce rispetto ai precedenti approcci signature-basedutilizzati fino a quel momento.”
La rapida adozione delle tecnologie di AI generativa e dei largelanguage model(Llm) comporta per il settore della sicurezza delle sfide e opportunità uniche, che si stanno manifestando in modi diversi. In particolare, mentre
gli analisti della sicurezza hanno accesso ai nuovi strumenti per ampliare le proprie capacità, lo stesso accade agli hacker e ai malintenzionati, che riescono a progettare e a lanciare attacchi come mai prima d’ora. Occorre aggiungere, poi, che tutti i vendor di sicurezza hanno introdotto o stanno introducendo l’AI nella gamma della propria offerta, un approccio che rischia di replicare il modello dei silos, tipico dei prodotti di sicurezza. Questo porta infatti a una situazione in cui ogni soluzione verticale include il proprio strumento di AI per analizzare i dati e velocizzare la propria soluzione, ma questi strumenti di AI non dialogheranno mai tra loro.
Purple AI è la soluzione offerta da SentinelOne: un’AI generativa integrata che consente a threat hunter e analisti dei team Soc (Security Operations Center) di sfruttare la potenza dei dati aggregati all’interno della piattaforma Security Data Lake di SentinelOne, per identificare e rispondere agli attacchi in modo più rapido e semplificato. Grazie all’utilizzo di messaggi e risposte in linguaggio naturale, anche i team di sicurezza meno esperti o con poche risorse possono rapidamente individuare comportamenti sospetti e dannosi che finora potevano essere rilevati solo da analisti altamente qualificati in molte ore di lavoro.
“Grazie a questo approccio”, prosegue Cecchi, “riusciamo ad aggregare e a mettere a fattor comune i dati provenienti da diversi ambiti. Offriamo anche la possibilità di arricchire questi dati con i nostri servizi di threatintelligence specificamente progettati per supportare i team di sicurezza nell’anticipare e contrastare con velocità ed efficienza le minacce cyber in tutta l’azienda”. Il Security Data Lake e Purple AI di SentinelOne forniscono alle aziende un modo per sfruttare l’enorme quantità di dati resi disponibili dai vari strumenti di sicurezza implementati, e per creare una nuova superficie di difesa contro le minacce in continua evoluzione. “SentinelOne è in grado di garantire che un problema o un comportamento sospetto venga esaminato e affrontato nel minor tempo possibile”, conclude Cecchi. “I Ciso che si concentrano sul rafforzamento della sicurezza sono consapevoli che la loro strategia debba essere dinamica e agile, e debba contemplare i rischi provenienti da tutte le superfici esposte, tra cui identità, email, endpoint , cloud e rete. Aggregare i dati relativi a queste superfici e applicare su di essi Purple AI significa avere una visibilità approfondita di tutte le aree vulnerabili e valutare i rischi su tutti i fronti a velocità macchina”.
Paolo Cecchi, Sales Director Mediterranean Region di SentinelOne
COME GESTIRE LA RISPOSTA AGLI INCIDENTI
Il monitoraggio delle minacce, l’incident response e l’analisi forense aiutano a proteggere superfici d’attacco sempre più estese.
Le aziende sono oggi chiamate a prepararsi per una gestione efficace ed efficiente di un eventuale incidente di cybersecurity, anche in virtù delle norme sempre più stringenti a livello europeo, come il regolamento Dora e la Direttiva NIS2. Il punto di vista di Alessio Alfonsi, Senior System Engineer di Netwitness.
Qual è il giusto approccio nella risposta agli incidenti?
È evidente come le nuove direttive e i nuovi regolamenti stiano “scuotendo le coscienze cyber”, permettendo di forzare lo stereotipo che vedeva la sicurezza informatica solo come una voce di costo. Predisporre e adottare corrette pratiche per la gestione degli incidenti di sicurezza può fare la differenza in momenti d’emergenza, limitando impatti e perdite. Essere pronti significa poter mantenere la calma ed effettuare corrette analisi per identificare il reale perimetro impattato e raccogliere più informazioni possibili sull’attaccante stesso. E solo una scrupolosa indagine preliminare può favorire il passaggio alla successiva fase di contenimento e di bonifica dell’incidente. Dovrà essere estremamente chiara la timelinedell’attacco, le sue fasi e gli strumenti utilizzati.
Inoltre, dovranno essere scovati eventuali accessi secondari che l’attaccante potrebbe aver predisposto per assicurarsi un piano alternativo, in caso fosse stato scoperto. Occorre quindi un Piano di Incident Response (Pir) chiaro e dettagliato, in base al quale effettuare regolarmente esercitazioni con simulazioni anche estese a differenti gruppi aziendali. Tutte le azioni di rientro dovranno essere supportate da sistemi di controllo e da sistemi di monitoraggio che permettano di verificare l’efficacia della bonifica effettuata. E occorrono le giuste competenze e l’adeguata tecnologia affinché l’intero processo abbia successo.
Considerando la superficie d’attacco sempre più estesa, eterogenea e complessa da proteggere, come incrementare visibilità e monitoraggio per poter rilevare tempestivamente le minacce?
Rispetto al passato, quando non esistevano ambienti ibridi, oggi è totalmente cambiato il paradigma per quanto riguarda il che cosa difendere e quale bene aziendale proteggere. Occorre quindi prestare la massima attenzione anche a quelli che potrebbero sembrare all’apparenza solo deboli
segnali di minaccia. Intercettarli in una fase iniziale può evitare che si trasformino in un incidente. Per fornire questa visibilità, NetWitness permette di correlare nativamente sensori on-premise, sul cloud o in modalità ibrida. Vengono raccolti log , traffico di rete, monitoraggio degli endpoint anche con l’integrazione con il mondo Sase (Secure Access Service Edge). L’analista ha uno strumento efficace per velocizzare il rilevamento delle minacce e, al tempo stesso, estremamente potente nella fase investigativa. Un motore di correlazione evidenzia quelli i pattern noti di attacco correlando le informazioni di tutti i sensori, mentre il modulo di NetWitness Investigation permette agli analisti di fare hunting , utilizzando le proprie competenze e il proprio fiuto per trovare possibili minacce e comportamenti anomali che non possono essere delegati a regole di correlazione automatica.
Qual è l’utilità dell’analisi forense a partire dal traffico di rete? E quali sono i punti di forza della soluzione NetWitness?
L’analisi del traffico di rete è nel Dna di NetWitness, basti pensare che nasce nel lontano 1997. L’approccio è quello di osservare e raccogliere tutto ciò che transita sulla rete e questo approccio è unico sul mercato. La mole di informazioni è enorme e per questo motivo vengono estratti in tempo reale metadati a livello di pacchetto e di sessione, che forniscono informazioni preziose e immediate all’analista. Basandosi su queste informazioni è possibile approfondire, ricostruendo e correlando ogni contenuto. Si possono quindi ricostruire le fasi e i passi seguiti da un attaccante, le vulnerabilità sfruttate, gli strumenti utilizzati ed eventuali contenuti esfiltrati. Il livello di visibilità, quindi, cresce enormemente insieme alle capacità di monitoraggio, abilitando il team di sicurezza a intervenire in modo efficace in tempi molto ridotti.
AI E SUPERCALCOLO: L’ACCOPPIATA VINCENTE
Machine learning e computing ad alte prestazioni possono, insieme, trasformare la ricerca, la diagnostica e l’assistenza sanitaria.
Il potenziale dell’intelligenza artificiale ha già toccato molti settori e ci si a spetta che nei prossimi anni possa impattare tutti gli ambiti della nostra vita, e tra questi l’assistenza sanitaria. Le prospettive che abbiamo dinanzi mostrano, infatti, come l’IA possa portare a diagnosi più precise, a trattamenti medici personalizzati, allo sviluppo di nuovi farmaci in tempi più rapidi, con un potenziale di trasformazione enorme per il settore sanitario da qui ai prossimi anni. Secondo Statista , il mercato dell’intelligenza artificiale in campo sanitario raggiungerà a livello mondiale un valore di quasi 188 miliardi di dollari entro il 2030. Nell’ul-
timo decennio, anche sulla scia della fase post pandemica, il settore sanitario ha già visto l’implementazione di innovazioni tecnologiche. Ma diversi fattori, tra cui l’aumento della densità della popolazione e dei costi delle spese sanitarie, aprono le porte a nuove sfide. Questo si traduce nella necessità di curare un numero maggiore di pazienti e nella capacità di rispondere in modo più efficiente in termini di costi e di risultati migliori.
La buona notizia è che i progressi realizzati in molti campi – tra cui genomica, bioinformatica, microscopia, imaging medicale – hanno generato una mole di dati che, se acquisiti e analizzati cor-
rettamente, possono essere utilizzati per migliorare significativamente i risultati delle cure ai pazienti. Le tecnologie informatiche avanzate, come gli algoritmi di intelligenza artificiale su sistemi di calcolo ad alte prestazioni (High Performance Computing, Hpc), sono la chiave per sbloccare il vero valore dei dati medici, che a loro volta possono migliorare l’assistenza sanitaria. Utilizzando l’intelligenza artificiale combinata con l’Hpc, si possono sviluppare piani di trattamento su misura per i pazienti, analizzando ed elaborando una mole di dati consistente a una velocità che nessun essere umano potrebbe gestire. Tutto ciò ha il potenziale per rivoluzionare la cura dei pazienti, promettendo una migliore efficienza nella gestione dei servizi sanitari e cure sempre più personalizzate, con trend predittivi a costi ac-
UN BOOM ANNUNCIATO?
Secondo le stime di MarketsAndMarkets, nel 2023 il mercato dell’AI applicata al settore medico ha raggiunto un valore di 14,6 miliardi di dollari. Il giro d’affari avrà un tasso composto di crescita annuale del 47,5% in un quinquennio, superando i 100 miliardi di dollari (102,7 miliardi) nel 2028. La previsione include non solo le tecnologie mediche in senso stretto ma anche i dispositivi indossabili usati per monitoraggi e telemedicina, gli assistenti virtuali, la robotica, le applicazioni di ambito farmaceutico, i sistemi di cybersicurezza al servizio del settore, i software basati su AI per la gestione amministrativa (per prenotazioni, cartelle cliniche e altro) e per le assicurazioni mediche. Alcune delle grandi aziende vendor (informatiche e non) oggi protagoniste del mercato sono Nvidia, Intel, Microsoft, Google, Amazon (la divisione cloud Aws), Siemens, Micron, General Electric, Johnson & Johnson. Affinché l’annunciato boom si realizzi, andranno però affrontati alcuni problemi attualmente irrisolti, evidenziati da molti studi e articoli scientifici, come il bias (il pregiudizio insito negli algoritmi a seconda della base di dati utilizzata per il training) e la difficoltà nel definire metriche significative per il rilevamento di patologie. Uno studio del Parlamento Europeo, pubblicato a maggio del 2022, identificava in particolare sette rischi legati all’uso dell’AI in campo sanitario: i potenziali errori indotti nelle diagnosi e nelle cure; il bias e le disuguaglianze nel trattamento sanitario che potrebbero derivarne; l’assenza di trasparenza; gli eventuali abusi delle tecnologie (se troppo facilmente accessibili a personale non competente); i danni di privacy per l’esposizione di dati sensibili a potenziali attacchi informatici; la mancanza di chiare responsabilità (il problema dell’accountability); un possibile indebolimento del rapporto fra medici e pazienti. Va detto che alcuni di questi rischi riguardano più in generale la digitalizzazione del settore sanitario e non, nello specifico, l’intelligenza artificiale. L’aspetto dell’accountability è invece particolarmente critico: se un algoritmo suggerisce una diagnosi o un percorso di cura, un farmaco o un intervento chirurgico, chi si prende la responsabilità di quella scelta? Gli sviluppatori dell’algoritmo, l’azienda che lo commercializza, l’ospedale o il medico?
cessibili. In precedenza, gli operatori sanitari si affidavano a un approccio unico per tutti, trattando la malattia piuttosto che la persona. La diagnostica innovativa e i trattamenti su misura possono contribuire a prevenire l’insorgere di una condizione fin dall’inizio e consentire una diagnosi molto più precoce e un trattamento altamente personalizzato per il singolo.
In questo processo di personalizzazione l’Hpc è una parte fondamentale poiché consente ai medici di ricavare informazioni utili da set di dati ampi e complessi alla velocità della luce, eseguendo carichi di lavoro ad alta intensità di calcolo. Man mano che il volume dei dati cresce, le organizzazioni sanitarie possono fornire cure personalizzate a costi decisamente inferiori adottando sistemi in grado di elaborare fonti di informazioni ampie e diversificate. L’Hpc fornisce alle strutture sanitarie la qualità delle prestazioni e l’efficienza necessarie per trasformare i dati in informazioni fruibili quasi in tempo reale, accelerando
le diagnosi e migliorando al contempo l’assistenza. Stiamo già assistendo nella pratica a molti interessanti esempi di AI in ambito sanitario – dalla diagnostica alla chirurgia assistita – dove l’integrazione dell’intelligenza artificiale e dei robot aiuta ad amplificare l’efficacia del chirurgo, grazie anche al lavoro preparatorio di analisi delle cartelle cliniche attraverso gli algoritmi.
V.B.Sebbene il futuro dell’assistenza sanitaria basata sull’intelligenza artificiale, sostenuta dall’Hpc, sia promettente, una domanda importante resta: la comunità medica è adeguatamente preparata per questa rivoluzione? Per realizzare questo potenziale, il settore sanitario dovrà investire in tecnologia e competenze e collaborare con partner e vendor tecnologici, in grado di portare il loro know-how sul fronte dell’intelligenza artificiale, aiutandoli a scalare rapidamente i progetti.
La sanità è, infatti, un sistema complesso, costituito da diversi attori che agiscono con l’obiettivo di garantire in maniera quanto più universale, equa e sostenibile il diritto alla salute. Solo attraverso la collaborazione è possibile raggiungere questo traguardo e i fornitori di tecnologia sono parte integrante di questo processo di innovazione.
FabrizioLiberatore, sales director, public sector di Dell Technologies Italia
LA VIA DEL MARKETING IPER-PERSONALIZZATO
La sincronizzazione tra dati e tecnologie di GenAI dischiude nuove possibilità nella relazione tra aziende e clienti.
L’ingresso in una nuova fase dell’era digitale ha segnato una svolta epocale per l’interazione tra aziende e consumatori. Al centro di questa rivoluzione c’è l’intelligenza artificiale generativa, che trascende il proprio ruolo di mera novità tecnologica per diventare un vero e proprio catalizzatore di cambiamento. Questa tecnologia sta ridefinendo le fondamenta stesse dell’interazione tra le aziende i loro clienti, segnando l’inizio di una nuova era nel marketing e nell’engagement. L’AI generativa unisce automazione e creatività, aprendo la porta a una personalizzazione senza precedenti. I brand possono ora offrire esperienze uniche, calibrate sul singolo individuo, che superano le aspettative dei clienti. Questo arricchisce l’esperienza del cliente e rafforza la fedeltà
e il legame con l’azienda, stabilendo un nuovo paradigma nell’engagement. La transizione da un approccio transazionale a uno relazionale evidenzia ogni contatto come un’opportunità per approfondire il rapporto con il cliente. Grazie all’AI generativa, i brand possono ascoltare attivamente e rispondere alle esigenze e ai feedback dei clienti, adattando e migliorando continuamente l’offerta per soddisfare le loro aspettative. L’impatto della personalizzazione sui livelli di coinvolgimento e fedeltà è tangibile. Attraverso contenuti mirati e significativi, i brand sono in grado di superare le aspettative dei clienti, elevando l’esperienza complessiva e rafforzando la loro fedeltà. Questa strategia non solo soddisfa i desideri dei consumatori ma spesso li supera, creando un legame
emotivo duraturo e significativo. Guardando al futuro, l’evoluzione dei contenuti personalizzati promette di portare l’engagement del cliente a nuovi livelli. L’innovazione continua nell’AI generativa suggerisce che il futuro sarà caratterizzato da contenuti ancora più dinamici e personalizzati, capaci di creare connessioni emotive profonde.
Sincronizzazione perfetta
In questo contesto i dati giocano un ruolo fondamentale nella creazione di un’esperienza cliente. Una solida base di dati, raccolti e analizzati con precisione, costituisce il pilastro su cui poggia ogni personalizzazione significativa. L’interazione tra intelligenza artificiale e dati è essenziale, poiché consente di trasformare semplici numeri e informazioni in una comprensione profonda, da tradurre in azioni mirate che arricchiscono l’esperienza del cliente a ogni livello. Alla base del successo nell’utilizzo dell’AI
generativa nel marketing c’è quindi la sincronizzazione perfetta tra i dati dei clienti e gli algoritmi di AI. Questi dati fungono da guida imprescindibile per l’AI, fornendole gli input necessari per comprendere in profondità le esigenze e le preferenze di ogni cliente.
Questa interazione permette di trasformare l’analisi in azione quasi istantaneamente, creando un dialogo dinamico tra il cliente e il brand che si evolve in tempo reale, adattandosi alle esigenze emergenti e ai cambiamenti di comportamento del cliente. Un aspetto fondamentale dell’interazione tra AI e dati è la capacità di inserire nel processo i dati di feedback, grazie ai quale si ottiene un miglioramento continuo basato sull’apprendimento dall’interazione. I feedback dei clienti, raccolti attraverso vari “punti di contatto” (touchpoint), vengono utilizzati dall’AI per affinare e migliorare le esperienze future, garantendo che il brand rimanga sempre allineato con le mutevoli esigenze e aspettative dei suoi clienti. Questo processo di apprendimento continuo assicura che l’innovazione sia guidata dalle reali necessità dei clienti, mantenendo l’offerta del brand fresca, pertinente e altamente personalizzata.
Ottenere una comprensione olistica del cliente richiede infine un’attenzione particolare ai dati sociodemografici e psicografici, che insieme ai dati tradizionalmente utilizzati dalle aziende forniscono una visione completa dell’individuo che va ben oltre i semplici comportamenti online. Questi dati sono cruciali per capire non solo cosa fanno i clienti, ma chi sono veramente, offrendo un contesto prezioso per interpretare le loro motivazioni, aspirazioni e sfide. Tale approfondimento permette ai brand di connettersi con i loro clienti a un livello molto più profondo, creando un dialogo che è sia pertinente che personalmente significativo. La personalizzazione basata su
questo contesto arricchito trasforma le interazioni in esperienze cliente ricche e significative. Integrando i dati sociodemografici e psicografici, i brand possono andare oltre la personalizzazione basata esclusivamente su azioni o preferenze manifestate, per creare esperienze che riflettano l’essenza stessa dell’individuo. Questo livello di personalizzazione consente anche una segmentazione avanzata più accurata, affinando il targeting per rendere ogni comunicazione più rilevante e impattante.
Il fattore emotivo Facendo un ulteriore passo avanti si può affermare che al cuore della iper-personalizzazione c’è la creazione di connessioni emotive. Utilizzando dati sociodemografici e psicografici, i brand possono toccare le corde giuste, inviando messaggi che risuonano a livello emotivo con i clienti. Questo non solo aumenta l’efficacia del messaggio ma rafforza anche il senso di appartenenza e identificazione del cliente con il marchio. Attraverso questa forma di personalizzazione, le aziende non solo guadagnano la fedeltà dei clienti ma alimentano anche l’advocacy, creando ambasciatori del brand appassionati e impegnati. L’impatto di queste evoluzioni sull’esperienza cliente
sarà profondo. La capacità di raggiungere ulteriori livelli di personalizzazione significa creare esperienze che non solo soddisfano le aspettative dei clienti ma le anticipano, utilizzando l’AI per prevedere le esigenze future e agire di conseguenza. Inoltre, le esperienze immersive e interattive, arricchite da realtà aumentata, realtà virtuale e altre tecnologie emergenti, promettono di immergere i clienti in mondi creati su misura per loro, rendendo ogni interazione unica e memorabile.
Tuttavia, l’adozione su larga scala dell’AI generativa solleva questioni etiche e sfide che le aziende devono approcciare con cautela. Le preoccupazioni riguardanti la privacy dei dati e il potenziale bias algoritmico richiedono un approccio riflessivo e responsabile all’uso dell’AI, con un impegno costante verso la trasparenza, la sicurezza dei dati e l’aderenza ai principi etici. Costruire e mantenere la fiducia con i clienti sarà cruciale nell’era dell’AI, ponendo le basi per relazioni durature basate sul rispetto reciproco e l’integrità.
In conclusione, l’intelligenza artificiale generativa sta plasmando un futuro in cui l’innovazione etica e la co-creazione definiscono nuove frontiere per l’engagement del cliente. Queste tecnologie non sono solo strumenti per migliorare le strategie di marketing ma agiscono come veri e propri catalizzatori di cambiamento, influenzando profondamente il modo in cui viviamo, lavoriamo e interagiamo. Mentre procediamo in questo viaggio verso un futuro connesso dall’AI, è fondamentale far sì che i clienti e i loro valori rimangano al centro di ogni innovazione, garantendo che la tecnologia agisca sempre come una forza per il bene comune.
Stefano Brigaglia, AI, data science & location intelligence partner di Jakala Stefano Brigaglia
ESPERIENZE ITALIANE DI RIVOLUZIONE
Le fabbriche aprono le porte a sensori, connettività IoT, digital twin e intelligenza artificiale, in quella che è stata definita come una quarta rivoluzione industriale.
L’Industria 4.0 rappresenta un’evoluzione significativa del settore secondario, caratterizzata dall’integrazione di tecnologie avanzate come l’Internet delle cose (IoT), l’intelligenza artificiale (AI), la robotica, la realtà aumentata (AR) e la stampa 3D, il cui uso è finalizzato a creare sistemi di produzione più intelligenti, efficienti e flessibili.
Grazie alla connettività e all’analisi dei dati in tempo reale, le aziende possono monitorare e controllare i propri processi di produzione da remoto, ottenendo una maggiore reattività e tempestività nelle decisioni operative. L’Industria 4.0 e l’evoluzione verso fabbriche intelligenti, dove la digitalizzazione e l’interconnessione dei processi consentono una maggiore efficienza e flessibilità, offre alle aziende una serie di benefici tangibili come il miglioramento dell’efficienza operativa, della capacità di innovare, della qualità del prodotto e, quindi, una maggiore competitività sui mercati globali.
“Ima ha creduto fin dal 2016 nel paradigma Industria 4.0. Essendo leader nell’innovazione, il Gruppo ha costi-
tuito un progetto dedicato, Ima Digital, che gli ha permesso di comunicare in modo chiaro la direzione intrapresa e di creare un forte commitment a tutti i livelli dell’azienda”, ha raccontato Pier Luigi Vanti, Ict & industry 4.0 corporate director di Ima. “L’obiettivo era verificare che cosa la tecnologia di mercato potesse mettere a disposizione e come potesse essere declinata in prodotti, servizi verso i clienti e processi interni. Negli anni abbiamo implementato delle soluzioni che hanno portato le macchine automatiche Ima a essere fortemente interconnesse in rete. Digitalizzare e interconnettere gli impianti ci ha permesso la raccolta di dati che, una volta strutturati e normalizzati, vengono utilizzati per creare nuovi servizi a valore
aggiunto. Ad esempio, il digital training ha sostituito la formazione all’uso degli impianti: basato su varie tecnologie, mette a disposizione dei clienti forme di addestramento molto più efficaci e innovative, che sono diventate anche un ritorno di business. Oppure, basandoci su dati raccolti dalle macchine, abbiamo offerto ai clienti un servizio di manutenzione preventiva, quindi non più solo quella reattiva a fronte di un problema segnalato dal cliente. Tale manutenzione viene proposta in anticipo, basandosi sull’analisi di dati con algoritmi specifici per queste valutazioni”.
Spesso l’approccio all’Industria 4.0 corre su binari paralleli, interni ed esterni all’azienda. “Al nostro interno i benefici principali sono orientati all’efficienza operativa e all’agilità”, ha detto Massimiliano Cappa, Cio di Danieli. “Quindi i driver sono il risparmio sui costi o la capitalizzazione della conoscenza. Verso il mondo esterno invece il tema è la creazione di nuove opportunità di business e il mantenimento del vantaggio competitivo, attraverso una migliore capitalizzazione dei nostri asset, soprattutto per la parte dei ricambi ad alto valore tecnologico. La servitizzazione apre qui opportunità di incremento di fatturato, ma anche la possibilità di proteggere meglio la nostra proprietà intellettuale. La servitizzazione del ricambio è una proposizione che ha effetto sul cliente: per esempio, anziché vendere le guide di laminazione, le proponiamo in forma di servizio con tutta la manutenzione a esso associata. Attraverso un real time monitoring e una raccolta di dati in cloud, le monitoriamo e proponiamo la manutenzione”.
Un fattore competitivo
Le nostre industrie si trovano a competere con Paesi in cui il costo della manodopera è inferiore, per cui innovazione e tecnologia sono il fattore che permette
di stare sul mercato. “Dopo anni di automazione spinta”, ha detto Francesco Pezzutto, Cio di Friul Intagli, “abbiamo adottato tecnologie di robotica intelligente integrata a sistemi di visione per rendere più efficienti i processi produttivi e allo stesso tempo aumentare la qualità del prodotto. I sistemi di visione sono integrati con algoritmi di intelligenza artificiale, che apprendono la difettosità del prodotto e riescono a riconoscerla in condizioni non visibili all’uomo. Ora il nostro percorso di Industria 4.0 traguarda la smart factory e la digitalizzazione dei processi”.
La raccolta dei dati e la connettività sono un paradigma che, una volta adottato con intensità, abilita l’erogazione di nuovi servizi ai clienti. “Il nostro modello di business”, ha illustrato Francesco Millo, strategy, business development and marketing director di Tesya Group, “è basato sull’offrire servizi a valore aggiunto alla rivendita di macchinari come le scavatrici Caterpillar, di motori marini e terresti, di carrelli levatori, progetti di decarbonizzazione e tanto altro.
I suddetti servizi oggi si basano in gran parte sul paradigma Industria 4.0: sono soluzioni che puntano a efficientare la produzione del cliente, ne ottimizzano i percorsi nella logistica interna. Oppure,
grazie ai sensori e al nostro monitoraggio dei macchinari, permettono di ottimizzarne la gestione presso il cliente, riducendo i tempi di manutenzione e intervenendo dove necessario. I benefici per noi sono duplici: da un lato abbiamo creato un nuovo modello di business con un servizio che, partendo da monitoraggio e analisi di dati, risolve i problemi del cliente; dall’altro lato, confermiamo la nostra leadership nel settore, presentandoci con un’offerta e un servizio a valore aggiunto molto innovativi, che altri non hanno”.
Grande attenzione va posta sul ridisegno dei processi interni. “Nella nostra azienda, con la crescita sul mercato si è evoluto anche l’approccio al tema 4.0”, ha detto Marco Crippa, supply chain manager di Caast. “Il driver di adozione, prima legato prettamente all’aspetto fiscale, è diventato culturale. Non va però sottovalutato il punto di vista organizzativo: l’adozione del paradigma 4.0 passa dallo sviluppo dell’organizzazione e pervade tutti i processi aziendali. È questo il mantra che portiamo avanti: la tecnologia aiuta a migliorare continuamente l’attività quotidiana, ma è fondamentale far crescere di pari passo la consapevolezza delle persone coinvolgendole nelle implementazioni con una
logica di tipo bottom up. La raccolta dei dati, sia da macchinari interconnessi sia da imputazione umana, dev’essere effettuata con consapevolezza. Caast, attiva nel mercato B2B, progetta e produce sistemi di tenuta partendo dal requisito del cliente. Il nostro scopo è implementare, in fase di progettazione, l’analisi a elementi finiti (Fea, Fem) che ci permette di simulare il comportamento del sistema di tenuta nell’applicazione in una logica di co-engineering con il cliente, virtualizzando il modello fino alla simulazione di produzione”.
Dal digital twin alla GenAI
L’Industria 4.0 ha aperto nuove opportunità grazie a tecnologie per la digitalizzazione, la connettività e l’analisi dei dati. Utilizzando sensori e connessioni IoT è possibile monitorare le prestazioni e lo stato di salute dei prodotti in tempo reale, prevedere guasti imminenti e
pianificare interventi di manutenzione preventiva. Quali sono oggi i percorsi di adozione di queste soluzioni? “I nostri prodotti sono enormi pezzi di ferro, che però sono stati automatizzati da molti anni”, ha detto Cappa . “In Danieli produciamo sia la singola macchina sia l’intero impianto per le acciaierie e disponiamo di una linea di produzione di software di automazione. Quindi utilizziamo tecniche di AI, paradigmi di digital twin o simulazione reale sovrapposta da tutto quello che arriva dalla sensoristica: lo scopo è dare al cliente la migliore performance, misurabile in quantità di acciaio prodotta nell’unità di tempo al minor costo”.
“Da qualche anno in Friul Intagli usiamo, e ora stiamo accelerando, piattaforme IoT per l’acquisizione in tempo reale di dati, il monitoraggio di macchine e impianti, in modo da anticipare la manutenzione e ridurre eventuali fermi
macchina”, ha spiegato Pezzutto. “La sensoristica IoT unita alla raccolta di grandi moli di dati e agli algoritmi AI ci permettono di effettuare un tuning di setup dell’impianto e migliorarne le performance complessive. Altro punto su cui stiamo lavorando è il metaverso industriale o digital twin, che utilizziamo per simulare linee, processi o interi stabilimenti, in modo da simulare le performance e verificare se i buffer dei materiali siano correttamente dimensionati. Quindi con questa tecnologia, che simula la movimentazione del prodotto, possiamo valutare i processi in fabbriche molto complesse. Il metaverso industriale ci serve anche per validare gli impianti ancora da costruire, per stressare l’impianto e capirne la massima performance e in punti in cui potrebbe trovarsi in difficoltà. La nostra esperienza è che tutta la tecnologia non funziona, non si riesce a scaricarla a terra, se mancano le
L’IMPORTANZA DELLA CYBERSECURITY
La cybersecurity svolge un ruolo fondamentale nel contesto dell’Industria 4.0, poiché l’interconnessione di dispositivi, macchine e sistemi di produzione aumenta il rischio di vulnerabilità e di attacchi informatici. Da un lato bisogna proteggere una crescente quantità di dati generati e scambiati nell’ambiente industriale, considerando che alcuni di questi sono sensibili, come le informazioni di produzione, la proprietà intellettuale, le informazioni dei clienti. Poi, le infrastrutture industriali, comprese le reti di produzione e i sistemi di controllo, rappresentano obiettivi potenziali per attacchi mirati che potrebbero causare danni significativi, interruzioni della produzione, persino rischi per la sicurezza fisica delle persone. I nuovi rischi legati a IoT e AI andranno poi valutati in modo proattivo, come richiedono sempre di più le norme, ad esempio la Direttiva NIS2 che ha decisamente allargato il focus e oggi comprende oggi molti processi industriali. “Nel nostro caso”, ha detto Pier Luigi Vanti, Ict & industry 4.0 corporate director di Ima , “avendo le macchine connesse alle reti dei clienti e quindi indirettamente a Internet per raccogliere i dati e portarli nel nostro cloud, abbiamo ritenuto necessario ingegnerizzare una soluzione di cybersecurity installata a bordo macchina, che a oggi rappresenta una barriera di elevatissima sicurezza. In questo modo, si possono connettere con sicurezza le macchine senza avere paura di eventuali aggressioni, per evitare che un malintenzionato possa accedere in modo malevolo e bloccare la produzione, fare danni, richiedere riscatti o creare rischi agli operatori, trattandosi di macchine che vanno a velocità elevate e che in alcuni casi sono impiegate per produzioni critiche. Bisogna prevenire anche la manipolazione di una ricetta di un prodotto”.
competenze adeguate. Già da qualche anno abbiamo sviluppato una struttura interna per la trasformazione digitale, che è declinata in un’organizzazione anche per la fabbrica digitale. Avendo riconosciuto il ruolo fondamentale della digitalizzazione nel nostro modello di business, abbiamo disegnato un percorso di sviluppo di competenze e gruppi di lavoro che ci ha accompagnato in tutto quanto abbiamo realizzato in questi anni”.
La tecnologia del “gemello digitale” viene sempre più utilizzato per migliorare la qualità del lavoro di macchine o interi impianti. “Il digital twin dell’applicazione serve a testare il lavoro da fare, ipotizzandolo in anticipo in modo virtuale e poi andando sulla strada nell’ambiente reale sapendo già cosa fare”, ha spiegato Millo. “È una tecnica che in prospettiva riduce la richiesta di specializzazione dell’operatore, perché una volta testato l’intervento e programmato in 3D sulla macchina, questa saprà in anticipo dove e come scavare. Ciò aumenta precisione, rapidità e accuratezza del lavoro. Con riferimento invece all’intelligenza artifi-
ciale, in Tesya Group oggi ci ragioniamo per alcuni sviluppi interni, ma a breve lavoreremo anche su quelli per i clienti. Al nostro interno, ad esempio, la GenAI aiuta nella ricerca e sintesi di documenti”. Utilizzando i dati generati dai prodotti o dalle interazioni dei clienti, le aziende possono offrire servizi per migliorare l’esperienza del cliente e creare valore aggiunto. Ad esempio, possono fornire raccomandazioni personalizzate, previsioni di manutenzione o analisi comparative per aiutare i clienti a prendere decisioni informate. “Stiamo lavorando su due fronti della GenAI”, ha raccontato Vanti. “Da un lato, sviluppiamo soluzioni pilota per l’interpretazione di testi e parlato, già testate internamente per assistere i tecnici di manutenzione. Questi strumenti permettono di consultare vasti archivi documentali per risoluzione dei problemi in tempo reale e, grazie a bot dedicati, consentono di ricevere risposte con prompt su manutenzione o troubleshooting da apportare sulle macchine. Dall’altro lato, sfruttiamo l’enorme raccolta di dati provenienti dai nostri impianti connessi per analisi di GenAI avanzate, mirate a un’in-
terrogazione intuitiva e human-oriented Nel solco dell’innovazione continua, Ima ha recentemente lanciato Sandbox e AlgoMarket: la prima è una piattaforma collaborativa per sviluppare algoritmi avanzati con i clienti; il secondo è un marketplace di algoritmi AI pronti all’uso, per accelerare la digitalizzazione e ottimizzare l’efficienza operativa”.
“Al momento, sfruttiamo la GenAI per la gestione della conoscenza e il miglioramento dell’esperienza d’uso digitale dell’utente interno”, ha testimoniato Cappa . “Puntiamo a una maggiore efficienza operativa, abilitando una ricerca agile e veloce che cattura il contenuto a prescindere da dove si trovi nel momento in cui viene scrivo. In futuro, potrebbe essere interessante anche applicarla alla configurazione di prodotto. Nella nostra esperienza le competenze interne sono fondamentali per l’adozione di tecnologie innovative come l’AI che sia sostenibile nel tempo. Serve dotarsi di persone con questi skill, anche ragazzi diplomati, purché sappiano come usare queste tecnologie”.
Elena VaciagoL’EVOLUZIONE 4.0 PASSA DAL CLOUD
Il pioniere della filiera biologica ha realizzato con Aruba Enterprise una nuova architettura di rete sicura e ad alte prestazioni.
In molti progetti di ammodernamento, tecnologico e di business, il cloud è un fattore abilitante. Così è stato per Alce Nero, pioniera della filiera del biologico in Italia: nata nel 1978, oggi è un’azienda che distribuisce oltre 300 specialità alimentari e di cura della persona, appoggiandosi a una rete di un migliaio di agricoltori italiani e diecimila piccole realtà agricole familiari del Centro e Sud America. Nella filiera, Alce Nero si occupa di ideare, sviluppare e promuovere prodotti di cui gestisce anche la distribuzione logistica in Italia e all’estero. In queste attività il magazzino e la sua gestione hanno un ruolo fondamentale, portato avanti con un moderno software di Management Warehouse System (Mws) collegato in wireless a dispositivi indossabili e strumenti Internet of Things: l’elevata stabilità dell’ambiente di rete e la continua disponibilità delle informazioni sono condizioni essenziali.
Sull’onda della propria crescita, nel 2022
LA SOLUZIONE
L’ambiente in Virtual Private Cloud garantisce latenza inferiore ai 10 millisecondi a appare all’IT di Alce Nero come un segmento della rete interna. Le risorse di Aruba Enterprise sono usate anche per la triangolazione dei backup con l’archiviazione di copie immutabili, che possono essere messe online in caso di bisogno.
Alce Nero ha inaugurato a Castel San Pietro una nuova struttura da oltre 25mila metri quadri, e il progetto è stato occasione per ridisegnare anche l’ambiente IT, e in particolare l’architettura di rete e il sistema di business continuity. L’azienda era intenzionata a migrare in cloud le attività di gestione del magazzino, per ottenere vantaggi di alta disponibilità, contenimento dei costi e assenza di manutenzione. Il sistema Wms, tuttavia, ostacolava il passaggio a un modello Software as-a-Service, in quanto progettato per l’esecuzione on-premise e non in un un ambiente cloud, potenzialmente soggetto a variabili di latenza e prestazioni dipendenti dal provider.
Da qui la scelta della soluzione Virtual Private Cloud di Aruba Enterprise, che assicura una costante disponibilità del dato e della relativa connettività, con risorse garantite, tempi di accesso certi e prestazioni elevate. “Aruba Enterprise ci ha convinti per la reputazione, per la validità del progetto proposto e per l’approccio green by design delle proprie infrastrutture data cen-
ter che si sposa in pieno con la filosofia di Alce Nero, fornendoci un valore aggiunto al nostro impegno per una strategia climate positive”, racconta Matteo Rambelli Lombini, IT manager di Alce Nero. “Dal punto di vista economico è stato di grande valore poter contare su un costo certo per le risorse fruite, senza importi variabili legati a parametri difficilmente misurabili in anticipo come transazioni e uso della banda, che impediscono di prevedere la spesa reale di un data center in cloud”. Il passaggio al nuovo ambiente non ha comportato interruzioni di servizio, avendo sfruttato lo stesso meccanismo usato da Aruba per la sincronizzazione dei siti di disaster recovery. “Il nuovo data center”, spiega l’IT manager, “ci appare come un segmento della nostra rete interna con una latenza inferiore ai 10 millisecondi: proprio per la natura della strumentazione stessa, che utilizziamo in modalità wireless in magazzino, non è praticamente cambiato nulla, ma per noi la differenza è sostanziale”. Il team IT di Alce Nero è riuscito a estendere nel cloud anche il sistema di cybersecurity esistente, ovvero uno strumento basato su AI che isola autonomamente gli endpoint in caso di minaccia. “Il sistema si avvale di una serie di sonde progettate per funzionare in ambiente fisico”, illustra Rambelli Lombini. “Collaborando con il vendor e con Aruba Enterprise siamo però riusciti a fare in modo che queste sonde avessero visibilità su quanto accade nella sottorete cloud, permettendo all’AI lo stesso livello di granularità di informazioni sia on-premise sia sul segmento di rete remoto”.
Oggi, avendo trasferito in cloud l’infrastruttura di gestione dei magazzini, Alce Nero è già predisposta al collegamento di eventuali nuovi siti logistici, senza il rischio di appesantire l’ambiente on-premise. L’azienda estenderà l’utilizzo della soluzione Virtual Private Cloud di Aruba Enterprise per creare un ulteriore data center separato: qui verranno attivate nuove virtual machine dedicate all’erogazione di servizi specifici per i partner di Alce Nero.
AI E CALCOLO EDGE TRASFORMANO LA MECCATRONICA
Con machine learning e tecnologia Lenovo, la storica azienda cremonese ha migliorato il controllo qualità e la manutenzione.
L’intelligenza artificiale può affiancarsi alle persone senza sostituirle, anzi valorizzandole. Con questo spirito la utilizza Vhit, impresa industriale di meccatronica che produce cilindri, pompe e altre componenti per il mercato automobilistico, l’off road e l’aftermarket. Fondata 64 anni fa a Offanego (Cremona) ma acquisita nel 2002 dal gruppo cinese Weifu High-Technology, l’azienda conta circa circa 600 dipendenti e sviluppa un fatturato di 140 milioni di euro, sfornando dalle proprie fabbriche circa sei milioni di pezzi l’anno. L’intera filiera, dalla progettazione alla vendita, è in Italia. “L’intelligenza artificiale non è una tecnologia bensì una scienza ed è abilitante per l'industria 4.0”, spiega il g eneral manager, Corrado La Forgia. “Il settore dell’automotive ha delle basse marginalità per le aziende come la nostra, quindi c’è un’esigenza di rientrare nei costi e allo stesso tempo abbiamo una grande bisogno di creatività per progettare cose nuove”. Per garantirsi la necessaria capacità di calcolo e di storage, anche nell’edge , l’azienda cremonese ha scelto le tecnologie di Lenovo, in abbinamento ai software per ambienti
LA SOLUZIONE
Due applicazioni edge utilizzano server Lenovo ThinkSystem SE350 e ThinkEdge SE50, con Gpu Nvidia T4, e il software Lynx Mosa for Industrial. Vhit ha messo a punto algoritmi di machine learning proprietari.
e rendere più precise le attività di controllo qualità, che in precedenza rappresentavano un’attività tediosa e pesante per il personale. Anche l’uso di controlli ottici tramite videocamera non garantiva un’accuratezza costante, poiché influenzato dalle condizioni di luce ambientale. Il sistema di AI realizzato scompone l’immagine dell’oggetto in pixel e la analizza tramite machine learning, per poi determinare su base statistica se il pezzo sia buono o fallato. I sistemi edge di Lenovo consentono un calcolo di prossimità, dunque analisi immediate, che vengono inviate al sistema Mes (Manufacturing Execution System) senza passaggi intermedi. “L’AI non decide ma fa delle proposte”, ha sottolineato La Forgia. “È sempre l’uomo a definire il livello di accuratezza oltre il quale ci si può fidare”.
La seconda soluzione di AI in uso si basa su server edge di Lenovo con Gpu Nvidia: si tratta di un’applicazione che permette di consolidare dati da diverse linee di produzione per eseguirvi calcoli di machine learning. In caso di anomalie rilevate nei materiali o nell’equipaggiamento, il personale viene allertato in tempo reale. “Abbiamo ridotto quasi a zero la possibilità di avere un
errore su un veicolo, quindi di avere problemi alla guida”, ha spiegato il general manager. “Questo significa poter dare garanzie di qualità al cliente e all’utilizzatore finale”. Vhit ha iniziato a usare l’AI anche in altri ambiti, come la manutenzione predittiva e l’estensione della vita dell’utensile. Ha potuto, per esempio, realizzare un “revamping digitale” su una macchina molto datata, che è stata dotata di sensori per poter misurare temperatura, vibrazione, pressione e altri parametri indicativi di possibili guasti incombenti. Altro esempio è un’applicazione di analisi dati per l’early warning: algoritmi determinano, con deduzioni probabilistiche, l’esistenza di anomalie che potrebbero evidenziare problemi in fase iniziale. Inoltre Vhit sta sperimentando con l’AI generativa. “Abbiamo dato in pasto a ChatGpt tre anni di interventi di manutenzione”, ha raccontato La Forgia. “ChatGpt non è ancora uno strumento enterprise, è troppo vasto, ma con mia stessa sorpresa abbiamo scoperto che interrogandolo la qualità della risposta è molto elevata, spesso vicina all’azione corretta da svolgere. Questo è un enorme vantaggio per un operatore che, magari di notte, deve capire come intervenire su un guasto”.
L’intelligenza artificiale, quindi, ha permesso all’azienda di meccatronica di guadagnare efficienza, velocità e precisione, migliorando la qualità dei prodotti e la soddisfazione dei clienti. Inoltre si sta dimostrando preziosa anche per la manutenzione. “I sistemi diventano sempre più complessi ma l’AI consente di sfruttare i dati qui e ora, di analizzarli mentre le cose accadono”, ha commentato La Forgia. “Ovviamente questo può essere fatto se c’è la g iusta infrastruttura e soprattutto se esiste una passione alla conoscenza dei nuovi strumenti”.
CONNETTIVITÀ AFFIDABILE PER L’ENERGIA SOLARE
I modem-router di Avm permettono il monitoraggio remoto di impianti fotovoltaici lungo la rete autostradale.
Energia pulita, business e connettività talvolta vanno a braccetto: per una installazione di pannelli fotovoltaici che alimenta un’attività
LA SOLUZIONE
Gruppo Sarni utilizza modemrouter Avm Fritz!Box 6820 Lte e Fritz!Box 6850 Lte, collegati agli inverter dei pannelli fotovoltaici, per stabilire una connessione 4G/3G dedicata al monitoraggio degli impianti, con la possibilità di creare delle Vpn.
nico Pio Travaglini, energy service unit manager di Smart Building Design, “abbiamo deciso di adottare Fritz!Box 6820 Lte e Fritz!Box 6850 Lte di Avm perché sono i prodotti che hanno dimostrato il miglior rapporto qualità prezzo e la miglior garanzia in termini di prestazioni e mancanza di interruzioni di servizio.
UN DATA CENTER A PROVA DI SUPERCALCOLO
L’ateneo si affida alle soluzioni di Vertiv per l’alimentazione, il raffreddamento, i rack, la rete e i servizi.
Per le attività di calcolo particolarmente intense, come l’High Performance Computing e l’intelligenza artificiale, disporre di server e Gpu di ultima generazione non è l’unica condizione necessaria. Anche le caratteristiche di affidabilità e consumo energetico sono fondamentali. Lo dimostra il progetto avviato nel 2016 dall’Università di Pisa: la creazione di un nuovo data center, il quarto dell’ateneo, progettato secondo principi di sostenibilità. Il “green data center”, così battezzato, nasceva per garantire maggiore efficienza e agilità, affiancandosi alle tre infrastrutture già in funzione a supporto delle attività didattiche e di ricerca. Il carico di lavoro che poggia su questi data center è notevole, considerando che l’università fondata nel 1343 oggi conta 20 dipartimenti e 50mila studenti iscritti. Vertiv è stata selezionata per fornire l'infrastruttura critica di alimentazione (come gli Ups, cioè i gruppi di continuità) e i sistemi di raffreddamento del nuovo data center. In un secondo momento Vertiv è stata nuovamente ingaggiata per aiutare l’ateneo ad ampliare il data center. “L’obiettivo principale”, racconta Maurizio Davini, Cto dell’Università di Pisa, “era di utilizzare l’ala disponibile dell’edificio, mantenendo intatto il design e l’interfaccia utente originali. Dovevamo anche integrare nuovi elementi tecnologici in grado di soddisfare le crescenti esigenze del calcolo ad alte prestazioni, garantendo
al contempo un’ottima flessibilità operativa. I requisiti sono stati perfettamente rispettati da Vertiv, che ci ha permesso di mantenere sotto controllo i costi energetici per una gestione efficiente del nostro nuovo data center”.
Sono state adottate diverse soluzioni per l’alimentazione (Ups, batterie, sistemi prefabbricati modulari e Power Distribution Unit), per il raffreddamento (ad aria e ad acqua) , i rack, la rete e i servizi del data center. Inoltre ha fornito servizi di consulenza progettazione, installazione e messa in funzione. “Abbiamo suggerito di adottare i sistemi di raffreddamento a liquido Liebert Xdu”, racconta Andrea Faeti, sales director for enterprise accounts in Italia di Vertiv, “e quindi abbiamo creato corridoi ibridi su misura, che integrano sia apparecchiature con raffreddamento ad aria sia nuove soluzioni per il raffreddamento a liquido. L’infrastruttura idraulica è stata potenziata, consentendo alle
LA SOLUZIONE
Tra le tecnologie Vertiv adottate, due Ups Liebert Apm 500kVA, batterie Vrla, otto unità switchgear Liebert Rxa, una soluzione prefabbricata Power Module da 400 kW, 76 Pdu Geist Switched, 38 VR rack, un generatore di backup esterno da 630 kW, due unità di raffreddamento a pavimento Liebert Pdx-PI, tre unità di liquid cooling Liebert Xdu, quattro sistemi Dcc Containment per la chiusura dei corridoi e il software di monitoraggio remoto Vertiv Environet Alert.
unità di raffreddamento precedentemente installate di fornire acqua refrigerata alle nuove apparecchiature del data center. Inoltre, i vincoli di spazio ci hanno spinto a progettare un modulo di alimentazione esterno Vertiv personalizzato in base ai requisiti specifici dell’edificio. La soluzione è stata completata con il nostro servizio di monitoraggio che fornisce visibilità e controllo in tempo reale all’intera infrastruttura”.
L’uso combinato di liquid cooling e raffreddamento ad aria, insieme alla chiusura dei corridoi freddi, ha permesso di migliorare la gestione termica del data center. “Le soluzioni proposte da Vertiv hanno risposto in modo completo alle nostre esigenze di riduzione dei consumi energetici, permettendoci di creare un data center realmente efficiente”, spiega Maurizio Davini, responsabile delle infrastrutture dell’Università di Pisa. “Siamo molto soddisfatti da questo progetto, realizzato in tempi record, che segue criteri di sostenibilità, dati dal contenimento delle spese di esercizio e di manutenzione ed è pronto per ulteriori espansioni a costi accessibili. Tra i nostri obiettivi, quello di raggiungere un livello di Power Usage Effectiveness pari a 1,15 quando il data center sarà a pieno carico”.
NETCOMM FORUM
Quando: 8-9 maggio 2024
Dove: Allianz MiCo Milano
Perché partecipare: lo storico appuntamento del Consorzio del Commercio Digitale Italiano, organizzato con il supporto di Tig Events, giunge alla diciannovesima edizione. Sono attesi quest’anno oltre 30mila partecipanti. In programma conferenze plenarie, sessioni parallele e centinaia di workshop.
BLUE & GREEN CONFERENCE
Quando: 15 maggio
Dove: Cefriel, Milano
Perché partecipare: la conferenza esplorerà il tema dei rapporti fra digitale e sostenibilità dal punto di vista delle tecnologie, delle normative e dei cambiamenti che attraversano le aziende, le smart city e la società.
CISO PANEL ROMA
Quando: 30 maggio
Dove: Palazzo Ripetta, Roma
Perché partecipare: l’evento, a porte chiuse, è rivolto ai chief security information officer (e figure analoghe) ed è strutturato come momento di confronto e dialogo sulle sfide attuali, le best practice e l’adeguamento alle nuove normative.
BANKING SUMMIT 2024
Quando: 25-26 settembre
Dove: Grand Hotel Dino, Baveno
Perché partecipare: il summit di Tig Events dedicato al mondo bancario è ormai un appuntamento consolidato, giunto quest’anno alla 14esima edizione. L’intelligenza artificiale e le tecnologie che permettono di ottenere valore dai dati saranno tra i protagonisti dell’agenda.
Blue & Green CONFERENCE 2024
Imprese in transizione, tra sostenibilità digitale e digitalizzazione sostenibile
15/05/2024 - Cefriel - Milano
Le aziende affrontano una doppia sfida: da un lato, utilizzare il digitale come abilitatore della transizione verde; dall’altro, usarlo in modo sostenibile.
I temi al centro dell’agenda:
- tecnologie clima-positive
- Intelligenza Artificiale e Big Data
- sostenibilità e normative
- il paradigma della “doppia materialità”
- la mobilità resiliente
- la potenza digitale delle smart city
- tecnologie di frontiera
THE
INTELLIGENCE COMMERCE
COMPOSABLE & FLUID, LA CONTINUA RI-CONFIGURAZIONE DEL RETAIL E DELLE FILIERE
35K 350
THE DIGITAL COMMERCE & RETAIL EVENT +300 200