Technopolis 64

Page 1


L’INTELLIGENZA ARTIFICIALE È UN’ONDA

Una rivoluzione (tecnologica e non solo) che si avvicina, carica di promesse, opportunità e potenziali rischi. L’Italia è pronta? STORIE DI ECCELLENZA E INNOVAZIONE

SPECIALE HEALTHCARE

Tra telemedicina e analytics, alcune sfide del settore sanitario possono essere vinte attraverso la digitalizzazione.

EXECUTIVE ANALYSIS

Il paradigma 4.0 trova diverse declinazioni nei percorsi (ancora in fieri ) delle imprese manifatturiere.

MERCATO ICT

Lo sviluppo tecnologico da un lato, le competenze dall‘altro: così i vendor alimentano la continua innovazione.

STORIE DI ECCELLENZA E INNOVAZIONE

N° 64 - OTTOBRE 2024

Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012

Direttore responsabile:

Emilio Mango

Coordinamento:

Valentina Bernocco

Hanno collaborato:

Vittorio Bitteleri, Roberto Bonino, Stefano Brigaglia, Gianluca Dotti, Roberto Masiero, Elena Vaciago

Foto e illustrazioni: 123rf.com, Burst, Freepik, Pixabay, Unsplash, Adobe Firefly

Editore e redazione:

Indigo Communication Srl Via Ettore Romagnoli, 6 - 20146 Milano tel: 02 499881

Pubblicità:

TIG - The Innovation Group Srl tel: 02 87285500

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2024

The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati.

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.

Pubblicazione ceduta gratuitamente.

4

STORIA DI COPERTINA

Prepararsi oggi al mondo di domani

La potenza e le incognite dell’onda che si avvicina

Le voci del Digital Italy Report

Chief information officer in prima linea

Il retail diventa “ret-AI-l”

14 IN EVIDENZA

Una nuova era per lo specialista del software-defined

L’AI irrompe nella contabilità

Nis2, le aziende italiane sono pronte?

Estrarre dai dati il vero valore

Uno storage votato alla flessibilità

Regole più severe, cybersicurezza più forte

Dati: il carburante della Formula 1

Una nuova rivoluzione (uguale e diversa)

La cyber resilienza non è soltanto backup

26 ITALIA DIGITALE

Milano Serravalle: l’innovazione viaggia in tangenziale

28 SPECIALE HEALTHCARE

Il digitale amico della salute

Tra dati, applicazioni e dispositivi

34 EXECUTIVE ANALYSIS

Manifatturiero: la trasformazione in divenire

Il digitale in catena di montaggio

40 SPECIALE MERCATO ICT

Concretezza e innovazione: un doppio motore

Fra tecnologie e competenze da coltivare

46 ECCELLENZE

Lomec Ingranaggi

Coopservice

Ospedale Pediatrico Santobono-Pausilipon

Plastopiave

50 APPUNTAMENTI

PREPARARSI OGGI AL MONDO DI DOMANI

La promessa di produttività, le nuove competenze, i progressi verso la Artificial General Intelligence: l’AI ci porta a guardare avanti, ma senza restare con le mani in mano.

Dove ci porterà l’intelligenza artificiale non possiamo saperlo. Si possono fare ipotesi, ragionamenti da tecnologici, economisti, giuristi, sociologi o filosofi, e da tutti questi punti di vista è facile prefigurare impatti forse irreversibili. Ma il futuro è ancora da scrivere. Se ne è parlato tanto negli ultimi due anni, dal quel formidabile debutto dei record di ChatGpt: a portata di pochi click per chiunque tramite un qualsiasi browser, l’applicazione di OpenAI fu sperimentata da un milione di utenti in soli cinque giorni dal lancio. E da allora, tra varie evoluzioni tecnologiche (come l’aggiunta di capacità di interazione vocale e di generazione di immagini e video) di chatbot non si è mai, ancora, smesso di parlare.

Ma naturalmente l’intelligenza artificiale

non è solo AI generativa e non è nemmeno solo machine learning. Considerando l’AI come un mercato fatto di hardware, software e servizi, ecco emergere complessi intrecci con dinamiche di respiro mondiale impossibili da riassumere in poche righe; con l’economia dei data center, l’infrastruttura portante senza la quale l’AI non potrà proliferare; con la corsa ai semiconduttori, che è parte della più ampia contesa geopolitica tra Stati Uniti e Cina; con le grandi questioni etiche, di privacy e di tutela dell’individuo che l’Unione Europea ha cercato di affrontare con l’AI Act, cioè con il primo tentativo di regolamentazione della materia fatto a livello sovranazionale. E, ancora, i possibili abusi dell’AI come strumento di cybercrimine e disinformazione: li stiamo già vedendo, e paradossalmente è la stessa intelligenza artificiale

(integrata nelle soluzioni di cybersicurezza e nei sistemi di filtro dei social network) a poterli arginare.

Quel che è certo è che la trasformazione non solo tecnologica ma ontologica della nostra società è legata a doppio filo all’AI, alle sue molte abilità di apprendimento automatico, di analisi dei dati, di generazione di contenuti e anche (sempre più, a tendere) di mimesi dei comportamenti umani individuali e collettivi. Il cammino verso l’agognata o temuta Artificial General Intelligence, l’intelligenza artificiale pienamente autonoma e capace di sostituirsi all’uomo, probabilmente sarà ancora lungo: per il presidente di Microsoft, Brad Smith, ci vorranno anni, se non molti decenni. Forse più rapidi, ma non di troppo, i tempi immaginati da OpenAI, che in un documento interno (trapelato nel corso dell’estate da indiscrezioni di Bloomberg) ha teorizzato un percorso evolutivo su cinque livelli, sull’ultimo dei quali si collocano i sistemi di AI altamente autonomi e capaci di svolgere i compiti non di una singola persona ma di gruppi, organizzazioni. Ebbene, gli attuali Gpt (cioè gli algoritmi Generative Pre-trained Transformer su cui si basano applicazioni come ChatGpt e Midjourney) sono appena all’inizio di questo percorso, in transizione fra il “livello 1” e il “livello 2”. Che cosa diventeranno un domani, oggi non possiamo nemmeno a immaginarlo.

Il futuro è ora

Ma chi ha tempo non aspetti tempo, come si suol dire. Sull’adozione dell’intelligenza artificiale le aziende e la Pubblica Amministrazione devono maturare idee e strategie fin da ora. Questo ci dicono le società sviluppatrici di software e servizi, tirando acqua al proprio mulino, ma lo stesso affermano analisti e osservatori del mercato. E la consapevolezza della necessità di prepararsi all’AI fin da ora, senza aspettare, appare chiara nella men-

Immagine
di rawpixel su Freepik

CYBERSICUREZZA IN PRIMO PIANO

Quanto vale l’intelligenza artificiale generativa? Tralasciando il valore indiretto, cioè l’impatto sulla produttività e sulle economie nazionali, gli analisti si concentrano su quanto entra ed entrerà nelle tasche delle aziende che sviluppano, vendono e rivendono intelligenza artificiale. Secondo Fortune Business Insight, da un giro d’affari di 43,87 miliardi di dollari registrati nel 2023 si salirà quest’anno a 67,81 miliardi, per arrivare quasi al “trilione” (cioè a mille miliardi) nel 2030, 967.650 miliardi per la precisione. Attualmente circa metà del giro d’affari si concentra in Nord America. A detta degli analisti, nei prossimi anni la sicurezza informatica sarà per l’intelligenza artificiale una tra le aree a maggior crescita. Secondo MarketsandMarkets, quest’anno il mercato della cybersicurezza basata su GenAI sarà quantificabile in circa 7.100 miliardi di dollari: la somma include sia gli stru-

te di chi governa l’Italia, nelle Pubblica Amministrazione centrale e locale, come emerso dai molti interventi che compongono il nostro report Digital Italy 2024 (di cui trovate alcuni estratti alle pagine 8-9). Prepararsi, sì, perché – sebbene i chatbot ci stiano abituando all’immediatezza di un risultato a portata di click – bisogna seminare prima di poter raccogliere i veri frutti dell’intelligenza artificiale, quella promessa di incremento di produttività, efficienza e qualità nel lavoro di cui tanto si parla. Secondo una citatissima ricerca condotta da The European House - Ambrosetti per Microsoft nel 2023, se adottata estensivamente da aziende e Pubblica Amministrazione, l’AI generativa potrà aumentare fino al 18% la produttività del sistema-Paese, aggiungendo ogni anno fino a 312 miliardi di euro al PIL nazionale a parità di ore di lavoro svolte. Tenendo il PIL come costante, invece, si stima un potenziale risparmio complessivo di 5,4 miliardi di ore di lavoro all’anno (corrispondenti all’impegno di 3,2 milioni di dipendenti a tempo pieno in dodici mesi), grazie all’automazione e alle azioni che l’AI può

menti di cybersicurezza arricchiti da intelligenza artificiale (per esempio quelli per il threat hunting e la riparazione postattacco) sia gli strumenti votati a proteggere i sistemi di GenAI, i dati e gli algoritmi in quanto potenziale bersaglio di hackeraggi e manomissioni. La società di ricerca stima un tasso di crescita annuale composto del 33,4% tra il 2024 e il 2030, per arrivare a un valore di 40.100 miliardi di dollari circa. Primariamente, la crescita sarà trainata dal potenziamento degli strumenti di cybersicurezza esistenti, in cui saranno integrati algoritmi di AI per attività di rilevamento delle anomalie, threat hunting automatizzato, penetration testing e simulazioni complesse. D’altra parte crescerà anche l’altra metà del mercato, quella degli strumenti per la protezione dei sistemi di AI, per l’integrità dei dati e la tutela della privacy.

svolgere al posto delle persone. Si tratta peraltro di una tecnologia molto trasversale, per cui Ambrosetti e Microsoft lo scorso anno già evidenziavano 23 casi d’uso osservati su 15 settori economici e otto tipologie di processi aziendali. Tra le aziende del campione, più del 50% aveva già adottato l’AI generativa per qualche attività.

La medesima ricerca sottolineava però un problema: senza competenze non si andrà lontano. Data la scarsità di laureati e diplomati in ambito informatico e dato il progressivo invecchiamento della popolazione, l’Italia rischia di arrivare al 2040 con un deficit di 3,7 milioni di professionisti con competenze digitali, che il mercato del lavoro non riuscirà a reperire. A meno di cercarli altrove, magari dall’estero. Per quanto stime ipotetiche, questi numeri suonano come un campanello d’allarme che il sistema-Italia deve necessariamente ascoltare, se vorrà fare dell’intelligenza artificiale un’opportunità per l’occupazione. Quello delle competenze è, non a caso, un altro filo rosso emerso nel report Digital Italy 2024: quelle delle nuove leve che entreranno

nel mondo del lavoro (e qui il ruolo primario spetta al sistema scolastico e universitario) ma anche quelle delle generazioni meno giovani, che necessitano di formazione continua per restare al passo con l’innovazione tecnologica. O, in certi casi, per reinventarsi da capo.

Tra certezze e incertezze

Se una certezza è il fatto che con l’AI le aziende e la Pubblica Amministrazione dovranno confrontarsi, in un modo o nell’altro, d’altro canto lo scenario attuale è nebuloso. Quante aziende già usano l’intelligenza artificiale, e come? Si stanno riproponendo le stesse dinamiche di shadow IT (cioè tecnologie che sfuggono al controllo e alla visibilità dell’IT aziendale, usate dai dipendenti su iniziativa personale) già viste con smartphone, app e ser vizi cloud? Oppure le aziende hanno imparato dall’esperienza, e con l’AI riusciranno a bilanciare le esigenze di controllo con una fruttuosa apertura all’innovazione? Anche queste domande restano sospese.

I dati sui livelli di adozione dell’AI in Italia non mancano, ma sono spesso di-

DALL’HYPE SI PASSA ALLA FASE DEL PRAGMATISMO

Una volta superati l’entusiasmo, la curiosità e la sperimentazione della novità, nelle aziende resteranno in piedi solo i progetti di intelligenza artificiale che apportano valore e che giustificano l’investimento. Secondo nuove previsioni di Gartner, entro il 2025 le aziende abbandoneranno almeno il 30% delle iniziative di AI generativa avviate, non proseguendo oltre la fase di proof-of-concept.

Diverse le motivazioni: i risultati di scarsa qualità (direttamente figli della qualità dei dati), l’inadeguatezza dei controlli sui rischi, l’assenza di un chiaro valore per il business. E poi i costi, troppo elevati o non gestibili.

“Dopo l’hype dell’ultimo anno, i dirigenti aziendali sono impazienti di vedere dei ritorni sugli investimenti in GenAI, e tuttavia le aziende faticano a dimostrare e concretizzare valore”, ha dichiarato Rita Sallam, distinguished vice president analyst di Gartner. “Con l’allargamento del raggio delle iniziative, l’onere finanziario di sviluppare e distribuire modelli di GenAI è sempre più sentito”. In particolare, nell’analisi di Gartner si dettagliano i costi incontrati dalle aziende a seconda dell’approccio adottato

scordanti. Modesto è, per esempio, il quadro dipinto da Istat: nel 2023 si limitava 5% la percentuale di imprese (dai dieci addetti in su) utilizzatrici di tecnologie di AI, contro una media dell’Unione Europea pari all’8% La percentuale saliva però al 24,1% tra nel aziende con oltre 250 addetti. Leggermente diverso lo scenario dello studio “EY Italy AI Barometer” pubblicato da EY a inizio settembre: sugli oltre 500 manager italiani intervistati, il 43% ha detto di utilizzare l’AI principalmente nella vita privata, il 20% la usa prevalentemente sul lavoro e il 13% in entrambi gli ambiti. Il 60% dei manager italiani si aspetta che, grazie all’AI, la propria azienda riesca a incrementare i profitti e a tagliare alcuni costi. Sono percentuali incoraggianti, inferiori solo a quelle di Spagna e Svizzera, secondo l’indagine di

(uso di applicazioni di GenAI già pronte, utilizzo di API per app customizzate, affinamento con dati proprietari, creazione di modelli ex novo) e dei casi d’uso (assistenza alla programmazione, creazione di contenuti per le vendite, ricerca documentale, assistenti virtuali, Llm per il settore medico, finanziario e assicurativo). “Sfortunatamente, con la GenAI non c’è una soluzione buona per tutti e i costi non sono prevedibili come quelli di altre tecnologie”, ha commentato Sallam. “La spesa compiuta, i casi d’uso su cui si investe e l’approccio nel deployment determinano i costi”.

A prescindere dall’approccio e dagli obiettivi di ciascuna azienda, imbarcarsi in progetti di GenAI richiede una “elevata tolleranza” all’eventualità di dover affrontare altri costi in più momenti, anziché attendersi un immediato ritorno sull’investimento. E questo, rimarca Gartner, potrebbe scontrarsi con la tradizionale mentalità dei direttori finanziari, non propensi a considerare voci di spesa per progetti dall’esito incerto. Con l’AI generativa, invece, bisogna ragionare in termini di strategia a lungo termine, e non di semplice tattica. V.B.

EY. Inoltre, in base alle interviste, nel nostro Paese l’AI risulta essere tra le priorità di investimento del prossimo anno per un’azienda su tre. Citiamo ancora Microsoft e Ambrosetti ma questa volta con la seconda edizione dello studio sullo stato di adozione dell’AI in Italia, pubblicata a inizio settembre: nel campione d’indagine addirittura il 100% delle aziende ha già adottato o prevede di adottare soluzioni di IA Generativa nel prossimo futuro. Un sensibile incremento rispetto al 78% emerso dall’analogo studio del 2023. Ma non solo le imprese private stanno aprendo le proprie porte all’AI. Anche la Pubblica Amministrazione, specie gli enti centrali, ha avviato sperimentazioni che oggi si trovano in fase più o meno avanzata, aderendo al decalogo di raccomandazioni stilato da AgID, l’Agenzia per l’Italia Digitale. La Pubblica Ammi-

nistrazione locale procede più lentamente: secondo l’indagine “2024: Cloud, AI, Cybersecurity nella PA italiana” condotta tra giugno e luglio 2024 da Gruppo Maggioli e TIG – The Innovation Group su 461 enti territoriali (in prevalenza Comuni, ma anche Regioni e altro) solo il 6% sta già utilizzando l’intelligenza artificiale. Un dato modesto, che si affianca però a un 13% di enti locali che prevede di adottare l’AI per alcune attività e a un 24% che è “in fase di studio”. Resta il fatto che la maggioranza delle realtà della PA locale, il 57%, al momento non ha intenzione di rivolgersi all’AI. Dallo studio risultano come principali ostacoli all’adozione la carenza di competenze nel personale, i costi, la resistenza al cambiamento e l’attuale immaturità tecnologica delle soluzioni disponibili sul mercato. Valentina Bernocco

LA POTENZA E LE INCOGNITE DELL’ONDA CHE SI AVVICINA

Nella giustamente declamata rivoluzione dell’AI, il modello economico, la ricerca di normative condivise e i costi sociali sono criticità da affrontare.

“L’onda che sta arrivando è un super-cluster, un’esplosione evolutiva simile all’esplosione cambriana, la più intensa eruzione di nuove specie nella storia della terra, con molte migliaia di potenziali applicazioni”. Il saggio di Moustafa Suleyman, The Coming Wave, uscito nel 2023, rappresenta un vero e proprio manifesto di questa visione, che vede nella regolamentazione un semplice ostacolo all’innovazione tecnologica. Una visione potente, quella della coming wave: non a caso abbiamo scelto la metafora dell’onda che si avvicina per sottotitolare la nona edizione del “Digital Italy Summit” , in programma a Roma dal 12 al 14 novembre prossimi. Certo, riconosce Suleyman, la rapida evoluzione dell’innovazione tecnologica basata sull’AI può implicare grandi costi umani e mancare la sfida del contenimento può avere effetti drammatici. Ma a suo dire la semplice regolamentazione non è in grado di fermare criminali motivati o di prevenire incidenti, né fornisce alternative realistiche dati gli immensi interessi finanziari in palio. C’è il rischio, inoltre, che i diversi Paesi non riescano a convergere su regole comuni per governare un fenomeno transnazionale come è l’avanzata dell’intelligenza artificiale. Un tema cruciale sarà quello della tutela dei dati personali. Non possiamo ignorare il fatto che quantità enormi di dati di privati cittadini vengano utilizzati dalle grandi “fabbriche globali” di intelligenza artificiale per essere convertiti in asset commerciali e tecnologici, che rafforzano oligopoli di mercato già difficilmente contendibili. Ma c’è una domanda da porsi: l’AI ha il potere di fornire quell’atteso aumento di produttività? In collaborazione con l’Institute for Business Value di Ibm, Barclays Research ha esplorato il potenziale dell’intelligenza artificiale per alimentare un boom di produttività che rafforza le economie. Secondo i risultati della ricerca, esistono principalmente due ragioni per credere che l’AI potrebbe portare un aumento della produttività che il mondo non vedeva da tempo: l’accessibilità e la versatilità di questa tecnologia. Questi due attributi fondamentali suggeriscono che un’ampia diffusione dell’AI generativa potrebbe incontrare meno ostacoli rispetto a precedenti innovazioni tecnologiche, fornendo così un vero impulso alla produzione di beni e servizi. Su questa base un recente rapporto di Goldman Sachs ipotizza che l’AI generativa potrebbe determinare un aumento del prodotto interno lordo globale pari al 7%. Tuttavia, per sfruttare appieno il potenziale della tecnologia di AI e limitarne gli effetti negativi sarà necessario implementare la giusta combinazione di politiche, sia dal punto di vista normativo sia a livello aziendale. D’altro canto secondo alcuni, nonostante le capacità tecniche dell’AI stiano migliorando rapidamente, la sua adozione da parte delle imprese potrebbe continuare a essere relativamente lenta e limitata principalmente alle grandi aziende. Eventuali benefici economici reali, anche modesti, potrebbero manifestarsi in una vera crescita della produttività tra molti anni, come è successo in passato per altre tecnologie. Le normative nazionali potrebbero ostacolare seriamente gli sviluppi tecnologici; ad esempio, le protezioni della proprietà intellettuale potrebbero compromettere il dispiegamento di modelli addestrati su milioni di dati che potenzialmente includono la proprietà intellettuale di terzi. Infine, secondo alcuni il modello economico dell’AI potrebbe cozzare contro il cosiddetto scaling ceiling: cioè gli investimenti in risorse computazionali, in raccolta dati e addestramento dei modelli e i costi energetici crescerebbero con una dimensione di scala tale che, alla lunga, la spesa non sarebbe compensata dal ritorno prevedibile sugli investimenti stessi.

Roberto Masiero

Immagine di Freepik generata dall’AI

LE VOCI DEL DIGITAL ITALY REPORT

“La crescente domanda di AI nel mercato dei trasporti è dovuta principalmente all’aiuto concreto che questa tecnologia è in grado di apportare nell’ambito della sicurezza, oltre a rendere le infrastrutture più moderne e sostenibili e i servizi di manutenzione più efficaci. La guida autonoma, la connessione dei veicoli, le forme di assistenza e di pagamento integrato sono solo alcuni esempi dei nuovi paradigmi che stanno trainando la trasformazione del settore e la creazione di un ecosistema di mobilità sostenibile, intermodale e ricco di servizi”.

Giorgio Agrifoglio, Dirigente Trasformazione Digitale, Open Data, Applicazioni, Portali e Comunicazione Istituzionale, Ministero delle Infrastrutture e dei Trasporti

“Nonostante i potenziali benefici dell’AI, ci sono anche crescenti preoccupazioni riguardo ai rischi di un dispiegamento frammentato e non governato di questa tecnologia nel settore pubblico. Tali rischi includono l’amplificazione dei bias, la mancanza di trasparenza nella progettazione del sistema e le violazioni della privacy e della sicurezza dei dati, tutte cose che potrebbero portare a risultati ingiusti e discriminatori, con profonde implicazioni sociali. Per questo il settore pubblico ha la forte responsabilità di usare le nuove tecnologie in modo da minimizzare i danni e dare priorità al benessere degli individui e delle comunità, soprattutto quando l’AI viene utilizzata in ambiti politici sensibili come l’applicazione della legge, il controllo dell’immigrazione, i benefici sociali e la prevenzione delle frodi”.

Lorenzo Basso, VIII Commissione Ambiente, Transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica del Senato della Repubblica

“Il mercato del lavoro è polarizzato tra chi è coinvolto e chi è escluso dalla trasformazione digitale. Le imprese e persone che non riescono ad adattarsi rischiano di rimanere indietro. Per affrontare la transizione verso un’economia più tecnologica, è essenziale ‘riformare la formazione’ per ridurre il divario di competenze e preparare le persone a lavorare efficacemente con l’AI. Il Ministero del Lavoro potrà coordinare gli attori che collaboreranno alla stesura e all’aggiornamento continuo della mappatura delle competenze e al matching tra domanda e offerta di lavoro solo dotandosi di adeguati mezzi tecnologici. Lo strumento già introdotto è il Sistema Informativo per l’Inclusione Sociale e Lavorativa, che si candida a diventare il marketplace digitale nazionale”. Vincenzo Caridi, direttore Dipartimento per le politiche del lavoro, previdenziali, assicurative e per la salute e la sicurezza nei luoghi di lavoro del Ministero del Lavoro e delle politiche sociali

“La missione dell’Inps di adottare l’AI non è solo una risposta agli obblighi legislativi europei, bensì una volontà di trasformare profondamente il modo in cui i servizi pubblici vengono erogati, puntando a un progresso continuo e sostenibile. I valori di responsabilità, inclusività, miglioramento continuo, rispetto, concretezza e ascolto guidano ogni iniziativa, garantendo che l’uso delle tecnologie sia etico e orientato al benessere dei cittadini”. Massimiliano D’Angelo, direzione Centrale Tecnologia, Informatica e Innovazione di Inps, e Diego De Felice, direzione Centrale Comunicazione di Inps

“Tutte le grandi questioni che l’AI pone – impatto sul mercato del lavoro, aumento delle disuguaglianze, disinformazione, “rischi esistenziali” – sono di natura globale e richiederebbero risposte globali. Considerando però il contesto geopolitico di forte tensione e i diversi approcci di governance, immaginare oggi la definizione di un quadro di regole condivise a livello internazionale è piuttosto velleitario. Le logiche geopolitiche negli ultimi anni stanno acuendo divergenze e frammentazioni che hanno già colpito la Rete, portando a una balcanizzazione delle infrastrutture e degli standard che potrebbe riproporsi anche nell’ambito dell’AI”.

Antonio Deruda, senior communications advisor, G7 Sherpa Unit, Presidenza del Consiglio dei Ministri

“Le tecnologie di intelligenza artificiale possono potenzialmente avere un impatto su tutti gli ambiti della trasformazione digitale, con benefici in termini di efficientamento, semplificazione, potenziamento dei servizi. Nella nostra visione, però, ogni applicazione dell’AI deve sottostare a un’identica procedura di valutazione e assessment, per far sì che ogni beneficio non abbia una contropartita negativa su altri aspetti, come la sicurezza, la privacy, la libertà di scelta e l’utilizzo etico. Per questo motivo, dentro PagoPA da alcuni mesi ha preso vita un osservatorio aziendale sull’intelligenza artificiale: un nuovo team multidisciplinare con il mandato di fare ricerca, valutare e discutere gli ambiti e le soluzioni in cui l’AI può avere un impatto positivo nell’ecosistema di servizi pubblici”.

Maurizio Fatarella, direttore generale di PagoPA

“È fondamentale investire nella formazione continua per garantire che i dipendenti siano in grado di utilizzare efficacemente queste nuove tecnologie. Questo include non solo competenze tecniche, ma anche soft skill come il problem solving e la capacità di adattamento, nonché un approccio di squadra e multidisciplinare. Difficilmente le amministrazioni che non dispongono e non valorizzano internamente professionisti di tale fattura riusciranno a realizzare risposte sostenibili e adattate ai bisogni dei propri cittadini, per i rispettivi servizi di competenza”.

Francesco Raphael Frieri, direttore generale alle risorse, Europa, Innovazione e Istituzioni, CDO della Regione Emilia-Romagna

L’edizione di quest’anno del report, titolata “Digital Italy: Rapporto sull’Intelligenza Artificiale in Italia” vuol essere un’analisi corale dello scenario attuale (tecnologico, normativo ed economico) e delle prospettive future. Vi proponiamo alcuni estratti da questo lavoro, edito da Gruppo Maggioli.

“Se è vero che l’AI crea nuove opportunità lavorative, è altrettanto vero che genera preoccupazioni, perché rende obsolete alcune mansioni tradizionali. Tuttavia, le rivoluzioni tecnologiche passate hanno dimostrato che, piuttosto che aumentare la disoccupazione, esse tendono a ricalibrare le competenze richieste. È quindi cruciale comprendere come agganciare questa discontinuità tecnologica attraverso la formazione di nuove competenze e la riqualificazione professionale. Naturalmente è un percorso complesso, perché si gioca su più tavoli: quello delle imprese dell’offerta digitale, quello politico, quello formativo, quello degli stakeholder”. Paola Generali, presidente di Assintel

“Negli ultimi anni c’è stata un’ampia presa di coscienza riguardo all’intelligenza artificiale. Tuttavia, a livello sistemico persistono ritardi significativi che richiedono un forte impegno sul fronte dello sviluppo di adeguate competenze. Gli sforzi per dispiegare efficaci programmi di upskilling e reskilling sono quindi essenziali. In questo senso, sono state intraprese diverse iniziative, con particolare fervore da parte degli enti locali, attratti dall’idea di innovazione e desiderosi di sfruttare le nuove opportunità. Questa cultura sull’AI, che viene dal basso, ha comunque bisogno di essere guidata da una visione organica e sistemica per evitare l’isolamento delle singole iniziative e favorire la creazione di una rete operativa su scala nazionale. Attualmente, l’obiettivo principale non è tanto avvicinare la PA all’intelligenza artificiale, quanto farlo in modo efficace”. Gianluigi Greco, direttore del Dipartimento di Matematica e Informatica, Università della Calabria; presidente di AIxIA(Associazione Italiana per l’Intelligenza Artificiale); e coordinatore Comitato di coordinamento per l’aggiornamento della strategia nazionale sull’IA, Presidenza del Consiglio dei ministri

“La domanda di servizi basati su Intelligenza Artificiale è in piena espansione e la Pubblica Amministrazione italiana è pronta a cogliere questa opportunità. Con il sostegno del governo e gli investimenti previsti dal Pnrr, questo è il momento ideale per agire. Noi di Polo Strategico Nazionale siamo qui per accompagnare le Amministrazioni nella trasformazione digitale. La tecnologia è pronta, le risorse ci sono, e il futuro digitale dell’Italia non è mai stato così promettente”.

Polo Strategico Nazionale

“Considerate le diverse e notevoli potenzialità e opportunità legate all’uso dell’AI come strumento a supporto del processo di transizione ecologica, e considerati gli aspetti da attenzionare di natura energetica, ambientale ed etica associati al suo utilizzo, è essenziale perseguire un approccio equilibrato, responsabile e inclusivo, orientato al bene comune e a un futuro più sostenibile. È fondamentale, quindi, che la ricerca sull’AI sia guidata non solo dalle tendenze attuali, ma anche da una visione a lungo termine che tenga conto delle sue potenziali applicazioni e implicazioni”.

Giulia Monteleone, direttrice Dipartimento Tecnologie Energetiche e Fonti Rinnovabili di Enea

“Molte amministrazioni hanno già realizzato numerosi progetti in cui l’AI viene utilizzata per diversi scopi, dal contrasto alle frodi al miglioramento dell’erogazione di servizi. Nel Piano Triennale per l’informatica nella PA 2024-2026, che per la prima volta contiene una sezione dedicata all’intelligenza artificiale, abbiamo avviato una mappatura delle best practice di alcune amministrazioni, mettendole a disposizione delle altre 23.000 PA, in modo da condividere processi e soluzioni, e fornendo anche le prime indicazioni che permetteranno di governare questa nuova tecnologia anziché subirla”. Mario Nobile, direttore generale di AgID (Agenzia per l’Italia Digitale)

“L’esempio del Gdpr – pure molto meno articolato e più facilmente digeribile dell’AI Act – può essere utile: troppo spesso la piccola e media impresa e le piccole e medie pubbliche amministrazioni europee si ritrovano a violare le regole della privacy semplicemente perché non sono state in grado di procurarsi le professionalità necessarie a comprendere le regole del gioco. Potrebbe accadere anche con l’AI Act e sarebbe un autogol, perché è proprio quello il tessuto imprenditoriale nel quale l’intelligenza artificiale potrebbe fare la differenza”.

Guido Scorza, componente del Collegio del Gdpg (Garante per la Protezione dei Dati Personali)

“L’introduzione dell’AI determina la necessità di ripensare le nostre organizzazioni, i nostri servizi e con essi le competenze necessarie per far sviluppare e far evolvere il business, anche nella Pubblica Amministrazione. L’organizzazione (sempre più digitale) che discende da un’integrazione con l’AI presuppone di investire nella formazione e nel reclutamento di nuove figure, per garantire che l’implementazione delle nuove tecnologie sia al tempo stesso efficace, sicura ed etica. L’introduzione dell’AI richiede un mix di professionalità per garantire una visione a 360° e per sfruttare appieno il potenziale della tecnologia”.

Stefano Tomasini, dirigente generale Csr presso Rgs del Ministero dell’Economia e delle finanze

“Per trasformare le tecnologie emergenti in strumenti di progresso, è fondamentale che le industrie investano nella formazione continua dei loro dipendenti, attraverso l’implementazione di programmi di reskilling e upskilling che non solo insegnino le competenze tecniche necessarie per utilizzare le nuove tecnologie, ma che sviluppino anche capacità trasversali come il problem solving, il pensiero critico e la capacità di adattamento. Non si tratta solo di insegnare ai lavoratori come utilizzare nuove macchine, bensì di sviluppare una mentalità aperta all’innovazione continua e all’apprendimento permanente”.

Flavio Tonelli, Full Professor in Industrial Mechanical Plants, Digital Manufacturing, Industrial Sustainability dell’Università di Genova

CHIEF INFORMATION OFFICER IN PRIMA LINEA

Note e spunti dall’evento “Cio Panel” di Milano, organizzato da TIG e Cefriel. Aggiornamento tecnologico, governance sui dati e competenze le sfide sul piatto.

Dello sfruttamento dei dati delle soluzioni di intelligenza artificiale a supporto del business oggi si parla in abbondanza. Ma la teoria e la pratica, anche qui come in molti altri ambiti, sono separate da un fossato di sfide in buona misura ancora da affrontare. L’appuntamento “Cio Panel” di Milano, organizzato da TIG – The Innovation Group e Cefriel, si è concentrato sui principali aspetti che occorre affrontare per prepararsi a una più diffusa e strutturata adozione dell’AI nelle aziende. Il presupposto di partenza è che esista, e non solo nell’IT, una radicata consapevolezza dell’importanza dei dati come asset fondamentale e volano per la crescita delle aziende. L’ indagine

“Digital Business Transformation Survey”, realizzata da TIG, ha messo in luce come, nella graduatoria dei progetti digitali innovativi previsti per il 2024, i primi due posti siano occupati proprio dall’intelligenza artificiale, nella sua declinazione generativa (45%) e in quella più ampia del machine learning (41%). Tuttavia, solo il 3% dei Cio sta utilizzando l’AI in modo diffuso e un altro 33% ha iniziato a lavorare con l’AI generativa in contesti molto specifici.

Fra vecchie e nuove tecnologie

Tre i macro filoni di discussione che hanno coinvolto gli oltre trenta Cio (o figure assimilabili) intervenuti all’evento milanese. Quello forse più basilare

ha riguardato l’evoluzione dello stack tecnologico architetturale e applicativo, legata all’adozione di soluzioni costruite sull’AI, soprattutto di tipo generativo. Il quadro di partenza ricavato dalle testimonianze delle aziende intervenute fa capire come, oggi, la strada maestra per introdurre sperimentazioni sia quella del proof-of-concept, ritenuto necessario per costruire correttamente gli algoritmi, ma anche per creare conoscenze fra le persone che li dovranno utilizzare. Non sono ancora stati fatti particolari investimenti dedicati e, pertanto, si tende a lavorare sulle tecnologie già disponibili in azienda e a fare attività di esplorazione delle soluzioni di AI integrate nei sistemi IT già in uso (Crm, piattaforme di automazione, sistemi di gestione della produzione o altro). Oltre a comprendere come disegnare algoritmi, i Cio sono impegnati anche a rendere i dati più accessibili ad altre componenti della propria azienda,

Immagine di ijeab da Freepik

I WORKFLOW DIVENTERANNO UN RICORDO?

Non solo un pappagallo stocastico, ma anche un vampiro semantico. Così Carlo Alberto Carnevale Maffè, professora associate di Pratiche di Strategia e Imprenditorialità della Sda Bocconi School of Management, definisce l’intelligenza artificiale generativa. In pratica, uno strumento che replica in modo probabilistico concetti già espressi da altri e che fa propri dei dati appartenenti ad altri. Questa, comunque, è una logica destinata a farsi strada nelle aziende e a riorientare profondamente il lavoro dei Cio. Se fin qui, infatti, la tecnologia è servita a supportare workflow di processi organizzativi, in futuro manuali e repository di dati non serviranno più. L’AI generativa, infatti, sta progressivamente introducendo la logica della domanda e della risposta in tempo reale, alla quale anche i Cio si dovranno adattare. Secondo Carnevale Maffè, questa rappresenta un’opportunità notevole per chi saprà uscire dalle

sfruttando il potenziale offerto dal cloud soprattutto in termini di scalabilità (ma permane una certa preoccupazione sui costi) e anche la disponibilità degli Open

Data per arricchire quelli interni e creare, così, algoritmi che forniscano risultati percepiti come utili.

La governance dei dati

Un secondo macrotema di confronto ha riguardato la governance dei dati e la definizione dei modelli operativi collegati agli sviluppi verso l’AI. Lo scenario di riferimento vede solo una piccola parte delle aziende già dotata di una vera e propria data strategy, di un framework di governance completo, di iniziative di diffusione di “cultura sul dato” e processi di miglioramento continuo (continuous improvement). Nella maggior parte dei casi, è stato avviato il presidio solo di alcune delle dimensioni indicate. Il regolamento europeo AI Act, in attesa di recepimento, dovrebbe dare un supporto in questa direzione ma per ora il livello di conoscenza della normativa è ritenuto ancora scarso e non esistono nemmeno iniziative di breve termine per colmare

gabbie procedurali o dalle dashboard poi comunque da interpretare, per costruire soluzioni che diano risposte ragionevolmente efficaci e in tempo reale. Naturalmente questa evoluzione non è esente da rischi, ma appare inevitabile. Tanto più con il consolidamento dell’utilizzo dei dati sintetici, che di fatto sono invenzioni costruite su informazioni reali, ma consentono di superare i limiti di ciò che oggi ancora non è “pulito” e presenta dei bias, dei pregiudizi, garantendo comportamenti statistici più che paragonabili. Questo scenario è già nelle menti organizzative dei Paesi più avanzati dal punto di vista delle risorse (energetiche, umane, tecnologiche) disponibili, in particolare Stati Uniti e Cina. L’Europa è indietro e l’Italia è in fondo alle classifiche continentali. C’è di che riflettere, ma soprattutto c’è da agire, magari partendo dalle risorse messe a disposizione dal Pnrr.

la lacuna. In questo contesto, si percepisce come la governance sia un tema molto caldo e come l’AI stia generando nuove complessità, legate all’esigenza di sincronizzare gli sviluppi più tradizionali già realizzati con quelli di nuova implementazione. Nelle aziende è ancora carente la consapevolezza sia dei vantaggi sia dei rischi dell’intelligenza artificiale, soprattutto collegati a modelli e applicazioni di AI generativa. L’individuazione di un corretto ed efficace modello operativo sarebbe un ottimo punto di arrivo, ma non sono state individuate best practice condivise, anche a fronte di un panorama tecnologico (e di cambiamento di paradigmi) mutevole e instabile. Nel breve-medio termine, pertanto, le evoluzioni saranno ancora perlopiù onpremise, con progetti “sartoriali” e con l’apporto esterno di un ecosistema di partner modulare (per evitare, anche qui, il rischio di lock-in).

Ruoli e competenze

In fine, la terza macroarea di analisi ha riguardato lo stato dell’arte dei ruoli, delle competenze e capacità (skill e capa-

bility) necessarie per sviluppare l’AI nelle aziende. Qui il panorama, per ora, vede la maggior parte dei Cio procedere con le sperimentazioni facendo leva sulle risorse interne già disponibili, semmai integrate da collaborazioni esterne con fornitori, consulenti e anche università. Le nuove competenze sarebbero un desiderio di tutti, ma individuarle sul mercato è complesso e anche i limitati budget a disposizione spesso non aiutano. Certamente, i partecipanti del “Cio Panel” di Milano convengono sulla necessità di accrescere le risorse in direzione della conoscenza e dell’integrazione nei processi aziendali, per saper meglio rispondere alle esigenze di business. Dal punto di vista tecnico, ai data scientist si affianca la domanda di gestire progetti e attuare l’affinamento ( fine tuning) dei modelli di AI. Tra le strade individuate come percorribili per migliorare la situazione, si possono citare la volontà di riqualificare i collaboratori senior che vogliano offrire un contributo tecnico e la formazione di data steward o AI steward da inserire nelle direzioni per garantire qualità del dato e compliance. Roberto Bonino

IL RETAIL DIVENTA

“RET-AI -L”

Secondo i dati di Jakala, circa l’80% delle aziende del settore già utilizza tecnologie basate sull’AI, con diversi vantaggi.

Il retail è un settore cruciale per l’economia dell’Italia, considerando il suo impatto significativo sui consumi, sull’occupazione e sulla vita quotidiana dei cittadini. Nel nostro Paese questo settore si distingue per una vasta rete di punti vendita diffusa su tutto il territorio, che riflette una cultura radicata dello shopping. Uno shopping che oggi è sia tradizionale, nei negozi, sia digitale. In questo contesto, l’adozione dell’AI sta trasformando profondamente il modo in cui le aziende apportando miglioramenti non solo in termini di crescita dei ricavi, ma anche di ottimizzazione dei costi, e rendendo l’intero sistema più efficiente e competitivo.

Secondo una ricerca condotta dall’Os-

servatorio Retail di Jakala nel 2024, circa l’80% delle aziende del settore ha già iniziato a integrare tecnologie basate sull’AI, focalizzandosi in particolare su sei aree principali: iper-personalizzazione della relazione con il consumatore, ottimizzazione della proposizione commerciale, automazione del customer service, ottimizzazione delle operazioni aziendali, innovazione di prodotto e servizio, e infine gestione dei rischi. Questi sei ambiti non solo rappresentano delle opportunità di crescita per le imprese ma indicano anche una nuova direzione per l’intero comparto, che dovrà affrontare sfide sempre più complesse per rimanere competitivo in un mercato globale in rapido cambiamento.

Alla conquista dei clienti

L’AI consente una personalizzazione sempre più avanzata dell’esperienza cliente, che non solo aumenta l’engagement, ma rafforza anche la fedeltà del consumatore verso l’azienda o marchio. L’iperpersonalizzazione emerge come l’area più esplorata dai retailer italiani. Il 62% delle aziende del settore utilizza l’intelligenza artificiale per migliorare l’esperienza del cliente, sia online sia offline. Grazie alla capacità dell’AI di analizzare e interpretare grandi volumi di dati, come i comportamenti d’acquisto e le preferenze espresse dai consumatori, i brand possono creare strategie di marketing altamente mirate, in grado di rispondere a esigenze specifiche dei singoli clienti. Non si tratta più solo di offrire prodotti o servizi, bensì di costruire un’esperienza su misura, che rafforza il legame emotivo tra il cliente e il marchio. Un esempio significativo è l’a-

dozione di tecniche di intelligenza artificiale generativa, che permette di produrre contenuti testuali e visivi su larga scala, personalizzandoli in base ai bisogni del consumatore. Questi contenuti vengono declinati velocemente in diverse lingue e formati, con un impatto positivo sulle campagne di marketing, che vedono un incremento del tasso di apertura del 15% e un aumento del tasso di conversione fino al 25%.

Un’altra area di grande impatto è l’ottimizzazione della proposizione commerciale. L’AI consente ai retailer di offrire suggerimenti personalizzati in tempo reale, migliorando così l’interazione tra venditore e cliente. Sistemi di assistenza virtuale, basati su algoritmi di machine learning, analizzano dati storici e comportamentali per fornire al venditore suggerimenti su quali prodotti o servizi proporre al cliente, aumentando la probabilità di acquisto. Questi sistemi possono essere implementati sia in negozi fisici, dove assistono i venditori durante la cerimonia di vendita, sia in piattaforme di e-commerce, dove l’AI consente ai consumatori di interagire direttamente con l’offerta tramite assistenti virtuali che rispondono a domande in linguaggio naturale. Ad esempio, un utente potrebbe chiedere suggerimenti per un regalo o indicazioni sugli ingredienti di una ricetta, ottenendo risposte personalizzate che migliorano la sua esperienza d’acquisto.

Tra efficienza e innovazione

L’automazione del customer service rappresenta un altro aspetto rivoluzionario dell’adozione dell’AI nel retail. Chatbot intelligenti e assistenti virtuali sono in grado di rispondere a richieste complesse in linguaggio naturale, offrendo un supporto immediato e personalizzato. L’utilizzo di questi strumenti non solo migliora la qualità del servizio offerto ai clienti, ma consente anche alle aziende di ridurre i costi operativi, spostando il lavoro de-

gli operatori su attività più strategiche e ad alto valore aggiunto. Il taglio dei costi operativi varia tra il 2% e il 5%, generando significativi benefici in termini di efficienza.

Anche l’ottimizzazione delle operazioni aziendali è un ambito in cui l’AI sta apportando grandi benefici. Le aziende stanno implementando sistemi di automazione che coprono vari aspetti della catena di valore, dalla produzione alla logistica. Algoritmi avanzati di machine learning vengono impiegati per monitorare e controllare i processi produttivi in tempo reale, per identificare anomalie e prevedere guasti alle macchine, riducendo così i tempi di fermo e migliorando la produttività. Nel settore della logistica, l’AI viene utilizzata per ottimizzare i percorsi dei veicoli, tenendo conto di fattori come traffico, condizioni meteorologiche e tempi di consegna richiesti. Questo consente di ridurre i costi di trasporto e migliorare l’efficienza della distribuzione. Inoltre, l’AI può essere impiegata nella gestione degli assortimenti e delle scorte

di magazzino, prevedendo la domanda e ottimizzando i livelli di giacenze, riducendo così il rischio di overstock o stockout e migliorando il servizio al cliente.

L’AI è anche un potente strumento per l’innovazione di prodotto e servizio.Gli algoritmi di intelligenza artificiale possono aiutare ad accelerare i processi di ricerca e sviluppo, simulando e testando nuovi prodotti in ambienti virtuali. Questo riduce notevolmente i tempi e i costi di sviluppo, migliorando anche la qualità del prodotto finale. Analizzando i dati provenienti da feedback dei clienti e tendenze di mercato, l’AI permette di identificare opportunità per lo sviluppo di nuovi prodotti o per il miglioramento di quelli esistenti, garantendo che le aziende rimangano competitive in un mercato sempre più dinamico.

E ancora, nel campo delle risorse umane l’intelligenza artificiale facilita il reclutamento, la gestione dei talenti e la pianificazione delle successioni, ottimizzando i processi e migliorando l’efficienza operativa delle aziende. Ad esempio, l’AI può analizzare grandi quantità di dati sui candidati per identificare i profili più adatti alle esigenze aziendali, riducendo bias e migliorando l’efficacia del processo di selezione. Infine, la gestione dei rischi rappresenta un ulteriore ambito in cui l’intelligenza artificiale può fare la differenza: gli algoritmi di machine learning possono analizzare grandi volumi di dati per identificare potenziali minacce e vulnerabilità, permettendo alle aziende di adottare misure preventive. Questo è particolarmente utile nella prevenzione delle frodi, dove l’AI è in grado di rilevare attività sospette o anomale, e nella gestione dei fornitori, dove è possibile analizzare la stabilità finanziaria e la performance storica per ridurre i rischi legati alla catena di fornitura.

Stefano Brigaglia,

Head of Data, AI & Location Intelligence di Jakala

Stefano

l’intervista UNA NUOVA ERA PER LO SPECIALISTA

DEL SOFTWARE-DEFINED

Un’offerta semplificata, continui miglioramenti tecnologici e un focus sull’AI “privata”: così si muove Vmware dopo l’acquisizione da parte di Broadcom.

Un’unica piattaforma tecnologica per la modernizzazione delle infrastrutture IT, secondo il paradigma del cloud ibrido: questa la direzione intrapresa da Vmware in seguito all’acquisizione da parte di Broadcom per 69 miliardi di dollari. La Vmware Cloud Foundation (Vmc) sarà sempre più la sintesi di un’offerta completa ma più semplice da capire e da fruire. Così ha raccontato a Technopolis Joe Baguley, chief technology officer Emea di Vmware.

Chi è oggi Vmware? Che cosa è cambiato dopo l’acquisizione?

Il Ceo di Broadcom ha fatto chiare dichiarazioni su dove intenda portare Vmware: le direttrici sono investimenti e semplificazione. Negli anni lo sviluppo tecnologico ha portato a una certa complessità nell’offerta di prodotti, nelle licenze e nei prezzi: ora andremo verso la semplificazione dell’offerta e, allo stesso tempo, dell’approccio al mercato. Siamo passati dall’avere migliaia di prodotti e configurazioni a, sostanzialmente, tre bundle. Inoltre c’è stato un passaggio totale dalle licenze perpetue alla sottoscrizioni: in questo non c’è nulla di drastico, siamo stati tra le ultime aziende a compiere questa scelta, che oggi caratterizza il mercato.

Quale sarà, quindi, la vostra roadmap tecnologica?

Un aspetto importante, dal punto di

vista tecnologico, è la convergenza su un’unica piattaforma, cioè Vmware Cloud Foundation (Vcf). Abbiamo inventato l’espressione softwaredefined data center, su cui nel tempo abbiamo sviluppato gli strumenti di gestione soprastanti. Ora ci siamo focalizzando sul nostro prodotto leader. Non vendiamo storage, computing o virtualizzazione, ma vogliamo proporre la migliore piattaforma per il cloud ibrido disponibile, la piattaforma definitiva. Un prodotto che, crediamo, per i nostri partner sarà anche più facile da vendere. Potranno usarla su Google o Azure senza complicazioni di sottoscrizioni. Il recente

aggiornamento 5.2 di Vcf è stata la prima major release dall’acquisizione ed evidenzia alcune delle direzioni chiave da noi intraprese. Un aspetto da sottolineare dal punto di vista tecnico è l’introduzione del supporto al live patching: ciò significa poter installare aggiornamenti o correttivi in un sistema senza doverlo fermare e senza spostare una macchina virtuale da un server all’altro. Un altro aspetto da sottolineare è la semplificazione: se finora Vcf è stata usata dai clienti per lo storage, il networking o la virtualizzazione, cioè per l’una o l’altra attività, ora può essere sfruttata per importare un’intera infrastruttura, diventando così per i clienti la piattaforma per il cloud ibrido d’elezione.

In che cosa pensate di distinguervi ancora dalla concorrenza?

Penso che non sia solo la tecnologia a fare la differenza: negli anni abbiamo costruito intorno a noi un incredibile ecosistema di partner. Alcuni nostri concorrenti hanno un ecosistema forte sullo storage, altri sull’iperconvergenza, e via dicendo. Vmware è l’unica azienda ad avere tutte le componenti tecnologiche racchiuse in una piattaforma e associate a un forte ecosistema di partner.

Abbiamo parlato di offerta, ma dal punto di vista della domanda dove sta andando il mercato?

Osserviamo un focus primario sulla

Joe Baguley

cybersicurezza e sulla resilienza: i chief information officer non vogliono avere a che fare con incidenti di sicurezza, vogliono dormire sonni tranquilli. La seconda preoccupazione è la modernizzazione dell’infrastruttura, che resta un tema fondamentale, a cui contribuiamo rendendo il private cloud più semplice, sicuro ed economico. Il terzo luogo c’è la esperienza d’uso in cloud degli sviluppatori, che dev’essere la migliore e la più facile possibile per favorire la velocità del business.

Oggi è impossibile non parlare di intelligenza artificiale. Qual è la vostra previsione in merito?

Naturalmente c’è molto entusiasmo intorno ai Large Language Model ma esistono anche preoccupazioni di sicurezza. Per questo oggi si parla mol-

AVANTI VERSO IL CLOUD PRIVATO

La colossale operazione da 69 miliardi di dollari con cui Broadcom ha acquisito Vmware è stata completata nel novembre del 2023, creando un nuovo polo (tecnologico e commerciale) del software e dell’hardware infrastrutturale. Ma la prima vera uscita pubblica della “nuova” Vmware è arrivata solo lo scorso agosto, con la convention “Explore” svoltasi a Las Vegas, tra annunci di strategia e novità di prodotto.

Sul palco Hock Tan, amministratore delegato di Broadcom, ha indicato la strada del cloud privato come scelta d’elezione per le aziende, come ambiente in cui ospitare i dati e anche i modelli e le applicazioni di intelligenza artificiale, di cui oggi tanto si parla.

Vanno in questa direzione gli ultimi sviluppi, annunciati a Las Vegas, della piattaforma Vmware Cloud Foundation (Vcf) e di Tanzu.

La prima, arrivata alla versione 9, è un sostanziale avanzamento verso la tanto attesa “console unica”, capace di integrare implementazioni autonome di diverse soluzioni Vmware. In precedenza era già possibile gestire l’hypervisor vSphere, lo storage virtuale vSan e la suite di rete virtuale Nsx come un’unica installazione Vcf; ora sono stati aggiunti anche vDefend (il sistema di protezione dei carichi di lavoro in cloud) e Avi Load Balancer (soluzione che automatizza la gestione delle risorse di rete).

Altro protagonista di “Explore” è stato Tanzu: inizialmente progettato

to di Private AI e noi abbiamo la capacità di realizzarla grazie alle nostre partnership con Nvidia, Ibm e Intel, consentendo di eseguire i modelli in modo sempre sicuro. Dal punto di vista dell’infrastruttura necessaria per l’AI, credo che in molti non vogliano ripetere l’errore fatto con il cloud, legandosi a uno o all’altro hyperscaler, mentre altri semplicemente per questa attività non vogliono affidarsi al cloud pubblico. Noi, con la nostra piattaforma, consentiamo di eseguire l’AI on-premise o anche nel cloud pubblico, ma all’interno di un’istanza privata. Si può scegliere un grande provider e restarvi legato per sempre, oppure scegliere di essere indipendenti e liberi, e questo è ciò che offriamo.

Valentina Bernocco

come una distribuzione Kubernetes, il prodotto si è arricchito nel tempo con strumenti rivolti agli sviluppatori software, come Cloud Foundry PaaS e il framework di sviluppo Spring. La versione 10 introduce funzionalità aggiuntive come il supporto per ambienti air gap (isolati), il bilanciamento globale del carico dei server, il networking avanzato con Avi Load Balancer e altro ancora.

A Las Vegas è stato dato spazio anche alla partnership tra Vmware e Hitachi Vantara. Le due aziende hanno collaborato nella progettazione di una nuova soluzione di infrastruttura, che mette combina i sistemi integrati Unified Compute Platform di Hitachi Vantara con Vmware Cloud Foundation. R.B.

L’AI IRROMPE NELLA CONTABILITÀ

Esker, azienda di origine francese, punta a crescere ancora in Italia, sull’onda di tecnologie rivelatesi vincenti.

A fine estate una voce di corridoio diceva che Esker fosse in trattativa per un ingresso nel capitale del fondo britannico Bridgepoint (un big del settore, con 40 miliardi di euro di asset gestiti nel mondo). La società di origine lionese ha confermato l’interesse del potenziale investitore, precisando tuttavia in un comunicato ufficiale come non vi sia “alcuna certezza che queste discussioni portino a un accordo o a una transazione”. L’indiscrezione, comunque, suggerisce quanto possa far gola una realtà da oltre 178 milioni di fatturato, peraltro a propria volta impegnata a valutare “regolarmente le opzioni di mercato, compresa la ricerca di nuovi azionisti strategici, ma anche la continuazione dello straordinario viaggio come società quotata in Borsa”. In sostanza, Esker valuterà offerte che possano agevolare un percorso di crescita già consolidato.

Fondata da Jean-Michel Berard nel 1985, l’azienda si appresta a compiere quarant’anni. Nel tempo l’offerta si è focalizzata sulla dematerializzazione dei documenti di gestione amministrativa e oggi si concentra sulle aree finance, procurement e servizio clienti delle aziende utenti, con una piattaforma in cloud che automatizza il cosiddetto Cash Conversion Cycle. “All’interno sono compresi tutti i processi del ciclo attivo e passivo, dal procurement agli ordini, dalla gestione dei clienti a quella dei crediti”, ha spiegato Giovanni Gavioli, managing director di Esker Italia.

“Abbiamo scelto di andare sul cloud nel 2007, in largo anticipo rispetto all’esplosione del fenomeno e ci siamo sempre contraddistinti per la completezza della nostra soluzione. Altri competitor coprono solo parte della nostra proposizione, spesso con prodotti più complessi. Non è un caso che Gartner ci abbia inserito nel quadrante magico sia per il ciclo attivo sia per quello passivo”. In Italia l’azienda è presente dal 1995 e oggi conta su una trentina di persone in organico. “Facciamo storicamente leva sui partner, un tempo più legati al concetto di distribuzione, mentre oggi parliamo di sviluppo congiunto di progetti costruiti sulla

nostra piattaforma”, ha illustrato Gavioli. “Emblematico, in questa logica, il recente accordo sottoscritto con V-Valley, che offrirà ai suoi partner in cloud una soluzione per l’automazione dei principali processi aziendali source-to-pay e order-to-cash, innestandosi nei progetti di trasformazione digitale dei clienti finali. Ma lavoriamo anche con realtà come Elmec, per un’offerta integrata che vada dall’infrastruttura fino ai processi gestionali”. Lo scorso anno Esker in Italia è cresciuta del 22% e, secondo Gavioli, nel 2024 l’obiettivo è raggiungere il 30%. “Siamo forti in settori verticali come il fashion e il farmaceutico”, ha precisato. “Opportunità interessanti per noi si aprono dove occorre consolidare operazioni di merge & acquisition, mentre ci stiamo attrezzando per avere maggior peso nel finance e nel settore pubblico”.

Una delle leve fondamentali di sviluppo è rappresentata dall’AI, integrata nella piattaforma per il riconoscimento documentale, mentre il recente lancio di Synergy Transformer punta ad automatizzare l’elaborazione degli ordini dei clienti estraendo i loro dati indipendentemente dal supporto digitale di partenza. Da non trascurare, infine, l’apporto alle strategie di sostenibilità delle aziende, che si esplicita non solo con nella dematerializzazione ma anche nella creazione dei report Esg, con la possibilità di estrapolare dati sui consumi energetici direttamente dalle fatture.

Roberto Bonino

NIS2, LE AZIENDE ITALIANE SONO PRONTE?

Si avvicina la scadenza per l’allineamento alla normativa europea sulla gestione del rischio cyber. Ecco come affrontarla, secondo Bitdefender.

La Nis2 è in dirittura d’arrivo, o almeno dovrebbe esserlo. Come noto agli addetti ai lavori della cybersecurity, l’Europa ha deciso da tempo di far evolvere la Direttiva Nis (Network and Information Security) per aumentare il livello di sicurezza nelle aziende ed eliminare le attuali discrepanze all’interno dei Paesi Ue. La Nis2 è stata costruita con l’intenzione di rafforzare la protezione dei dati europei su diversi assi, che spaziano dalla gestione del rischio alla capacità di risposta agli incidenti, dalla sicurezza della supply chain alla crittografia dei dati, con i relativi obblighi di reporting e condivisione delle informazioni. A essere interessate non sono le sole infrastrutture critiche (come imponeva la Nis), bensì tutte le realtà essenziali o importanti (in base alle dimensioni e ai settori di appartenenza) per ogni Paese: ovvero, in Italia, un numero che si avvicina a diecimila. La data del 17 ottobre 2024, spesso citata in relazione all'entrata in vigore della Nis2, rappresenta in realtà il termine ultimo per il recepimento del testo nell’ordinamento nazionale. Ciascun Paese avrà poi tempo fino al 17 gennaio 2025 per informare la Commissione Europea delle norme e delle misure adottate, quindi fino al 17 aprile 2025 per presentare l’elenco delle entità importanti ed essenziali interessate.

Da più parti si sente dire che il mondo industriale italiano sia tutt’altro che pronto all’allineamento alla nuova direttiva: è davvero così? “Le best practice contenute nella direttiva sono note da tempo a chi si occupa di cybersecurity”, ha commentato Giovanni D’Amato, sales engi-

neering manager Seeur di Bitdefender. “Molti accorgimenti e piani potevano essere implementati già da tempo e chi lo ha fatto si trova, oggi, certamente avvantaggiato. Per gestire correttamente il rischio, occorre saperne individuare le potenziali fonti nella propria infrastruttura, mettere a punto un piano di remediation e poi dotarsi di tecnologie e servizi per intervenire in presenza di incidenti”. Una delle novità fondamentali di Nis2 riguarda il coinvolgimento non solo delle aziende che rientrano nei profili settoriali e dimensionali già accennati, ma anche dei loro fornitori di servizi, che hanno accesso all’infrastruttura dei clienti. “La supply chain è un anello debole del processo”, ha detto d’Amato. “Le grandi aziende hanno più o meno messo a punto dei Kpi che misurano la validità dei fornitori, tramite parametri minimi da rispettare. In fase di accesso, occorre avere un Security Operations Center (Soc) di appoggio, un’efficiente capacità di detection & response, un servizio di garanzia sulle vulnerabilità. Tutto questo per le Pmi rappresenta un onere complesso da affrontare. Noi stiamo spingendo sull’adozione della Managed Detection & Response per la protezione dei nostri partner, i quali, a loro volta, possono poi offrire lo stesso tipo di servizio ai loro clienti. Così si può arrivare a garantire un alto livello di sicurezza”.

In pratica, affidarsi a un partner può rappresentare una via d’uscita per chi deve allinearsi alla normativa e non dispone di mezzi o risorse interne, a partire dal Soc, costoso e da presidiare in logica “h 24”. Tuttavia, occorre defini-

Giovanni D’Amato

re un rapporto contrattuale chiaro, per capire chi si debba assumere le responsabilità e gli oneri (anche di tempestiva comunicazione) in caso di incidenti. “Oltre alla capacità di intervenire per tempo, occorre fornire la reportistica necessaria per ricostruire gli avvenimenti ed effettuare analisi forensi”, ha confermato D’Amato. “Non sempre i partner sono disponibili o in grado di fornire questo genere di supporto e qui intervengono le polizze assicurative, extrema ratio come via d’uscita”. Naturalmente, le aziende devono aver integrato la tecnologia necessaria a prevenire o rilevare per tempo una vulnerabilità: Bitdefender ha creato la piattaforma Gravity Zone, che integra le principali best practice di sicurezza informatica coprendo la gestione dei rischi, la distribuzione automatizzata delle patch, la crittografia e la threat intelligence su dati di telemetria.

Roberto Bonino

ESTRARRE DAI DATI IL VERO VALORE

Standardizzazione e interoperabilità sono i cardini della piattaforma tecnologica e della strategia di Cloudera.

Il dato, di per sé, non è un valore. Quel valore va estratto e per farlo servono delle architetture e piattaforme basate sulla standardizzazione e sull’interoperabilità, tanto più necessarie per poter cavalcare l’onda dell’intelligenza artificiale. “Un numero crescente di aziende sta cercando di trasformare le proprie attività per creare soluzioni digitali AI-based per i propri clienti, tendenzialmente con una strategia architetturale ibrida e multicloud”, ha osservato Fabio Pascali, regional vice president Italia, Grecia e Cipro di Cloudera. “Per poter sfruttare efficacemente le capacità dell’intelligenza artificiale, le organizzazioni devono progettare e incorporare architetture e piattaforme di dati standardizzate e incentrate su processi che consentano a team diversi di attingere a tutti i dati necessari, indipendentemente da dove risiedano, sia in locale sia nel cloud”.

L’azienda gestisce oggi oltre 25 exabyte di dati dei propri clienti e ha costruito una proposizione basata sul concetto di data lakehouse aperto e ibrido, dove tecnologie di intelligenza artificiale e analytics convergono per estrarre il valore citato all’inizio. La recente acquisizione di Verta è andata a rafforzare questa linea di sviluppo, consentendo di integrare una piattaforma ibrida e multicloud, progettata per accelerare soprattutto la creazione di applicazioni di GenAI.“L’operazione ci ha consentito di coprire la componente AIOps, per poter gestire differenti modelli, crearli, presidiarli lungo il ciclo di vita e occuparsi anche della loro dismissione, che potrebbe rendersi necessaria per ragioni di compliance o presenza di bias”, ha commentato Pascali.

Negli ultimi tempi si è diffusa una certa proliferazione di strumenti innestati su

diversi scenari di utilizzo nel moderno stack di dati presente nelle aziende. Per questo, l’interoperabilità è diventata un elemento cruciale, in grado di semplificare la gestione dei dati tra formati e piattaforme. Qui Cloudera ha posto uno degli elementi differenzianti della propria proposizione, in un mercato che si sta affollando, tra specialisti in forte crescita (Snowflake, Databricks) e player tradizionali che provano a sfruttare uno storico presidio di mercato (Oracle su tutti). “Per noi è centrale poter offrire la possibilità di utilizzare i dati in maniera efficace e in modo indipendente rispetto alle infrastrutture presenti, ora e in futuro”, ha spiegato Pascali. “I workload risiedono su diversi ambienti e questo può avere un senso per vari motivi, Quello che conta è consentire lo spostamento in modo semplice e trasparente, perché non è pensabile dover riscrivere algoritmi solo perché si vuole passare dall’on premise al public cloud, per esempio. Noi copriamo ogni genere di infrastruttura, per consentire una migrazione di dati o modelli rapida e con gli stessi livelli di sicurezza”.

Lo scenario fin qui descritto si applica pari pari al contesto italiano? “Molte aziende hanno avviato dei proof-ofconcept e c’è un interesse palpabile verso sviluppi su una trusted AI”, ha rilevato Pascali. “La Pubblica Amministrazione appare molto attiva, anche per ragioni di allineamento normativo, ma anche settori come il finance e l’energy stanno investendo, soprattutto in direzione della sicurezza del dato, da noi integrata nella piattaforma. Non è un caso se quest’anno siamo risultati la miglior country a livello Emea sia in termini globali sia, più nello specifico, per la componente cloud”.

Fabio Pascali

UNO STORAGE VOTATO ALLA FLESSIBILITÀ

La rinnovata piattaforma di Hitachi Vantara permette alle aziende di creare un ecosistema dati unificato, integrandovi le tecnologie già in uso.

Un marchio storico nel campo dello storage e della gestione dei dati, che oggi percorre un nuovo corso grazie a un management rinnovato e a un più chiaro focus sull’innovazione. Hitachi Vantara, azienda nata nel 2017 sulla fondamenta di un secolo di storia del gruppo Hitachi (un colosso che nell’anno fiscale 2022 ha fatturato 93 miliardi di dollari), oggi ha un’offerta al passo con in tempi: da un lato, risponde alle esigenze sempre più critiche di protezione dei dati, e dall’altro si modernizza con l’intelligenza artificiale. Negli ultimi tre anni, tra acquisizioni e attività di sviluppo interno, l’azienda ha investito 3,7 miliardi di dollari nell’area dell’AI, mentre è pari a 2,4 miliardi di dollari, la spesa annua in R&D. Il nuovo posizionamento strategico è racchiuso nel payoff “data foundation for innovation” e nella pratica si traduce nella Virtual Storage Platform One, definita dal vendor come “la piattaforma dati per il cloud ibrido”. Un’architettura che vuole permettere alle aziende di comporre in modo flessibile una piattaforma per gestire tutti i propri dati, preservando gli investimenti fatti negli anni, senza cioè dover sostituire i sistemi di infrastruttura in uso. Più precisamente, Virtual Storage Platform One (Vsp One) vuol essere un ecosistema dati unificato che integra storage a file, oggetti e blocchi, scalabile senza limiti, con protezione dati nativa e servizi cloud self-service. E, fatto non trascurabile, con una disponibilità (availability) garantita al 100%. Al momento Vsp One Sds è già disponibile sia on-premise su Aws, ma è già prevista una futura estensione ad altri fornitori cloud.

“Ci concentreremo sempre di più sulle infrastrutture, su sistemi e software per la gestione dei dati”, ha raccontato in conferenza stampa Marco Tesini, vice president & general manager Western & Northern Europe di Hitachi Vantara. “Una prima grande novità è che l’azienda nell’ultimo anno ha sostanzialmente cambiato il proprio management, focalizzato nel quartier generale di Santa Clara ma anche abbastanza diffuso geograficamente: è una nuova leadership che proviene da molti dei nostri competitor, con esperienze maturate nell’ambito dei dati”. Una seconda novità è lo scorporo della componente dei servizi digitali, che ha portato alla creazione di una newco, Hitachi Digital Services, e alla fusione con ITPro. “Hitachi Vantara si presenta oggi come un’azienda end-to-end, in grado di gestire l’intero ciclo della filiera produttiva: dalla produzione allo sviluppo, alla realizzazione, commercializzazione e perfino alla distribuzione dei propri prodotti”, ha rimarcato Tesini. La terza novità è il ripensamento dell’offerta: sono state riviste tutte le roadmap di

sviluppo e la segmentazione, in modo da evidenziare alcune focalizzazione ovvero il cloud (ibrido e multicloud), la protezione dei dati e dell’IT, la compliance alle normative, la sostenibilità (che è diventata “non un’opzione ma una linea guida della strategia di Hitachi Vantara”, ha precisato Tesini) e l’utilizzo dell’intelligenza artificiale.

La divisione italiana nell’anno fiscale 2023 ha registrato una crescita di ricavi del 30% sull’esercizio precedente, contando in larghissima parte sul proprio ecosistema di canale (da cui passa il 96% del fatturato). “Siamo riusciti a ottenere questi numeri sia grazie alla vicinanza del mercato, sia grazie alla capacità di soddisfare le esigenze specifiche delle nuove dinamiche di mercato, anche mettendo a disposizione strumenti di generazione delle domanda”, ha detto Salvatore Turchetti, country manager & general manager Italy. “Il piano di consolidamento e crescita per il 2024 si fonda su quattro pilastri: infrastrutture di cloud ibrido, intelligenza artificiale, gestione dei dati e green IT”.

Valentina Bernocco

Marco Tesini
Salvatore Turchetti

l’opinione

REGOLE PIÙ SEVERE, CYBERSICUREZZA PIÙ FORTE

Un nuovo disegno di legge introduce una serie di reati informatici e le relative sanzioni. L’analisi di Cyber Guru.

Una notizia buona per l’Italia. Il Disegno di legge sulle Disposizioni in materia di rafforzamento della cybersicurezza nazionale e di reati informatici è stato recentemente approvato alla Camera. Si tratta di un importante e atteso ulteriore strumento sul fronte della sicurezza informatica, teso ad assicurare una più elevata capacità di protezione e risposta a fronte di emergenze cibernetiche, rafforzando la sicurezza nazionale a favore delle pubbliche amministrazioni, delle imprese e dei cittadini. Il tutto, anche attraverso una governance centralizzata sugli aspetti della sicurezza e a disposizioni per la prevenzione e il contrasto dei reati informatici, anche grazie al rafforzamento delle funzioni dell’Agenzia per la Cybersicurezza Nazionale e al suo coordinamento con l’autorità giudiziaria.

Il decreto introduce una serie di reati informatici attraverso la modifica di alcuni articoli correlati del Codice penale: dall’accesso abusivo a un sistema informatico o telematico (che, in caso di fatto commesso da un pubblico ufficiale, prevede la reclusione da due a dieci anni) alla detenzione, diffusione e installazione abusiva di apparecchiature, dispositivi o programmi informatici diretti a danneggiare o interrompere un sistema informatico o telematico (reato che, nell’ipotesi semplice, verrebbe sanzionato con la reclusione da due a sei anni e in quella aggravata con la reclusione da tre a otto anni).

Il Ddl prevede che venga punita la fatti-

specie del delitto di estorsione mediante reati informatici. Introduce, inoltre, le aggravanti sulla truffa aggravata, prevedendo la confisca obbligatoria dei beni e degli strumenti informatici o telematici utilizzati in tutto o in parte per commettere il fatto, oltre che dei profitti prodotti da questo genere di reati. Tra i punti qualificanti del Ddl c’è l’obbligo di segnalazione entro 24 ore all’Agenzia per la Cybersicurezza Nazionale di alcuni tipi di incidenti che hanno impatto sulle reti. A definire il perimetro di questo obbligo, e quindi quali saranno gli enti pubblici e privati tenuti alla segnalazione, sarà la presidenza del Consiglio su proposta del Comitato interministeriale per la cybersicurezza. Si tratterà in ogni caso, in generale, di operatori che svolgono funzioni istituzionali o essenziali per gli interessi dello Stato. L’Italia insomma, grazie anche alle risorse del Pnrr, si sta fortificando e allineando agli altri Paesi europei e occidentali, tanto che l’ultimo Gruppo di lavoro del G7, dedicato proprio alla sicurezza informatica, si è tenuto recentemente a Roma.

Un passo importante

L’approvazione del Ddl Cybersicurezza rappresenta un passo significativo verso il rafforzamento di una corretta postura digitale del nostro Paese, evidenziando l’importanza della consapevolezza in materia di cybersecurity a tutti i livelli della società. Se da un lato il Ddl si concentra sugli aspetti strutturali e

istituzionali, dall’altro non possiamo dimenticarci che la vera forza di qualsiasi strategia di sicurezza risiede nelle persone. La formazione continua e la sensibilizzazione di dipendenti e cittadini rimangono elementi cruciali per creare un ecosistema digitale resiliente. Le organizzazioni dovrebbero accogliere questa opportunità per rivedere e potenziare i propri programmi di formazione sulla sicurezza informatica. Investire nella consapevolezza dei dipendenti non è solo una questione di conformità, ma una strategia aziendale intelligente che può prevenire costosi incidenti di sicurezza. In questo nuovo contesto normativo, credo che la collaborazione tra settore pubblico e privato sarà fondamentale per costruire una cultura della cybersecurity diffusa e radicata. Solo attraverso uno sforzo collettivo e costante potremo realizzare appieno il potenziale di questa legge e garantire un futuro digitale più sicuro per tutti. Vittorio Bitteleri, country manager Italia di Cyber Guru

Vittorio Bitteleri

DATI, IL CARBURANTE DELLA FORMULA 1

La scuderia Mercedes F1 si affida alle soluzioni di Sap, dall’Erp all’intelligenza

Mercedes è una tra le scuderie più prestigiose e vincenti degli ultimi anni, soprattutto con Lewis Hamilton al volante. Da quest’anno nel novero degli sponsor rientra anche Sap, nel contesto di un accordo (annunciato alle fine del 2023) che prevede anche una collaborazione tecnologica. Mercedes F1 è un meccanismo organizzativo complesso, che vede persone impegnate in differenti ambiti, dalla progettazione delle monoposto alla gestione degli spostamenti fra un gran premio e l’altro. Altri si occupano dell’analisi (in tempo reale ed ex post) dell’enorme quantità di dati generati dalle migliaia di componenti di un’autovettura in pista.

Uno degli ambiti dove l’utilizzo della tecnologia di Sap fornisce supporto è il controllo sul rispetto dei parametri economici imposti dalla massima autorità della F1, ovvero la Federazione Internazionale Automobilistica (Fia). “I regolamenti sono stringenti e il mancato rispetto comporta sanzioni anche pe-

santi”, ha spiegato Bradley Lord, chief communication officer del team Mercedes-Amg Petronas F1. “Il loro rispetto si ottiene anche potendo prevedere i costi e il fabbisogno di componenti necessarie per ogni competizione, allo scopo di ottimizzare la catena di approvvigionamento e gli articoli da tenere sempre a disposizione, in base a una catalogazione e a una disposizione nei paddock molto precisa, a vantaggio soprattutto del lavoro dei meccanici”.

Oltre agli aspetti economici, per Mercedes contano anche le ripercussioni in termini di sostenibilità: “Ogni spostamento da una pista all’altra viene eseguito su una ventina di camion”, ha proseguito Lord. “Per questo, cerchiamo di lavorare per minimizzare l’impatto sull’ambiente, monitorando quanto possibile e studiando come migliorare con costanza, arrivando nel tempo al completo riciclo degli pneumatici e all’utilizzo dei motori elettrici sui nostri mezzi di trasporto. Ma non trascuriamo nemmeno la supply

artificiale.

chain, visto che interagiamo con oltre duemila fornitori e vogliamo tenere sotto controllo anche le loro policy e pratiche di sostenibilità”.

Per tutto questo, Sap ha messo a disposizione di Mercedes la propria infrastruttura S/4Hana e soluzioni specifiche come Finance, per rendere efficiente l’allocazione e l’utilizzo delle risorse. La gestione dei dati naturalmente riveste un ruolo fondamentale e anche qui soluzioni come la Business Technology Platform o Build forniscono l’apporto necessario per integrare informazioni provenienti da varie aree organizzative: “Mercedes può far leva su un modello dei dati comune a tutto il parco applicativo”, ha sottolineato Hagen Heubach, global vice president Industry Business Unit Automotive di Sap. “Per noi questo genere di collaborazione è terreno fertile di sperimentazione. L’automotive è un settore fondamentale per noi e la nuova generazione dell’Erp indirizzato a questo comparto si costruisce anche in questo modo”.

Poteva mancare l’intelligenza artificiale in tutto questo? Certamente no, e non viene utilizzata solamente nell’analisi dei dati, nella gestione della supply chain o nella prototipazione. “Più ancora che nel design”, ha proseguito Heubach, “l’apporto che vediamo oggi si trova nell’organizzazione dei dati utili a effettuare simulazioni, che ci consentono di capire il comportamento della vettura anche di fronte a eventi imprevisti. Si tratta di un terreno sul quale oggi, forse, non c’è ancora la giusta maturità, ma che sta generando molte aspettative”.

UNA NUOVA RIVOLUZIONE (UGUALE

E DIVERSA)

L’intelligenza artificiale ha segnato un nuovo punto di rottura, come accadde con il Web 2.0. Futureberry evidenzia le similitudini e differenze tra i due fenomeni.

Risorse umane, competenze, change management : sono tutti ambiti fortemente toccati dall’evoluzione tecnologica. E oggi la spinta innovativa dell’intelligenza artificiale induce a riflessioni sul ruolo dell’elemento umano nelle aziende. Ne abbiamo parlato con Dino Torrisi, Ceo di Futureberry, società di consulenza milanese nata nel 2008 e dall’anima digitale.

Come è cambiato il panorama dell’innovazione nelle aziende italiane, secondo il vostro punto di vista?

Siamo nati nel 2008, poco dopo la nascita del Web 2.0, lavorando ini-

zialmente sull’innovazione di prodotto e di servizio e sui modelli di business. Ma sempre di più abbiamo capito di dover lavorare sulla cultura dell’innovazione, aiutando le aziende a compiere un salto evolutivo nel modo in cui operano.

Prima della pandemia nelle aziende la parola d’ordine era “trasformazione digitale”, e la pandemia stessa ha accelerato questo processo ma d’altro canto ha fatto nascere un nuovo grande bisogno di reimmaginare le modalità di lavoro, gli spazi e gli strumenti. È come se fosse un po’ sparito, nel lessico delle aziende, il concetto di trasformazione digitale. Ora, negli ultimi mesi, non esiste conversazione

in cui non emerga il tema dell’AI, sia nelle risorse umane sia con i dirigenti. Siamo all’alba di una nuova trasformazione digitale, per certi versi simile a quella del Web 2.0 e per altri molto diversa.

In che senso simile e diversa?

Cinque o sei anni fa era chiaro quale fosse la strada da seguire, e che ciascuna organizzazione potesse modulare quella trasformazione con le proprie tempistiche. Oggi la sensazione di inevitabilità è più forte e la spinta al cambiamento è più veloce. Il focus è su una sola tecnologia e questo pone le aziende nella situazione disagevole di non sapere esattamente dove si andrà a parare e di non avere il controllo. La trasformazione dell’AI è molto veloce, viene percepita come dotata di un potenziale dirompente molto maggiore rispetto al Web 2.0, e di fatto non si controlla perché dipende da altri soggetti, le Big Tech. Inoltre ora sull’AI c’è una maggiore consapevolezza dei rischi, come dimostra anche il tentativo fatto dall’Unione Europea per normare la materia.

Qual è l’atteggiamento delle aziende vostre clienti, rispetto a tutto ciò?

Non vediamo nessuno che escluda a priori l’intelligenza artificiale, ma questo non significa che tutti i progetti debbano includere elementi di AI. Le riflessioni strategiche, il futuro, la sfera delle competenze: in questi ambiti è quasi imprescindibile collegarsi all’AI.

In ogni caso ci sono aziende che stanno approcciando l’AI con più coraggio e apertura, cioè sperimentando e lasciando spazio alle persone, mentre altre faticano un po’ di più.

Dino Torrisi

Che cosa suggerite alle aziende per approcciare correttamente questa rivoluzione?

La grande sfida, per le aziende, è quella della cultura. Applicando a una tecnologia nuova dei modelli di lavoro vecchi, basati sul controllo e sul governo, si commette a mio parere, un grande errore. La tecnologia nuova ci impone di cambiare i nostri modelli di lavoro, se lo facciamo allora possiamo usarla per creare

qualcosa di grande. La giusta via è lasciare alle persone lo spazio per potersi esprimere. Oggi, con l’emergere dell’AI, la leadership delle organizzazioni non sa quale sarà il futuro e non può esercitare un controllo attraverso divieti.

Come usate l’AI in Futureberry?

Innanzitutto, la usiamo per tutta la parte di diagnostica su grandi clienti, per capire sulla base dei loro dati

AZIENDE PIÙ OTTIMISTE SUL FUTURO

come stiano le organizzazioni a livello di risorse umane. Inoltre stiamo esplorando l’uso dell’AI nell’area della formazione, dell’apprendimento e dello sviluppo di competenze, in logica on-demand e di maggiore vicinanza alle persone. Abbiamo anche organizzato recentemente un hackaton che ha coinvolto trecento persone, e con il quale abbiamo voluto indagare l’utilizzo dell’AI nei team dei creativi. V.B.

Le aziende sono mediamente ottimiste sul futuro, o almeno più di quanto non lo fossero un paio di anni fa. Al digitale si legano attese di crescita dei ricavi, in particolare grazie alla possibilità di monetizzazione dei dati e ai vantaggi portati dall’intelligenza artificiale. Questo emerge dal nuovo report “Tech Index” dello studio legale internazionale Dla Piper, basato sul feedback di 1.200 dirigenti, investitori, funzionari governativi e regolatori di cinque aree geografiche (Europa, Nordamerica, America Latina, Medio Oriente, Africa e Asia-Pacifico). Nonostante la perdurante instabilità geopolitica, nel settore Ict due aziende su tre prevedono un aumento dei ricavi nei 12 mesi successivi al sondaggio e il 40% stima una crescita superiore al 6%. L’indice complessivo, che riflette i risultati quantitativi del sondaggio, è pari a 71, ovvero tre punti in più rispetto a quanto emerso dall’analogo studio del 2022: è il segnale di una fiducia crescente nel settore Ict, anche se il punteggio europeo è pari a 68, inferiore quindi alla media globale. Emerge un generale ottimismo sullo scenario economico, sul mercato dei venture capital, sulla disponibilità di talenti da reclutare e sul contesto normativo di riferimento, mentre in alcuni mercati i regimi fiscali sono percepiti come critici.

Tra le ragioni del relativo ottimismo c’è anche l’intelligenza artificiale, che viene identificata dal 63% dei rispondenti come la più importante area di crescita per la propria azienda od organizzazione. Il 70% vede l’AI come un “importante sviluppo che alimenterà in modo significativo il cambiamento e l’innovazione nei prossimi cinque anni”. Per una su tre è addirittura un fattore critico per il successo futuro. La quasi totalità degli intervistati, il 98%, pensa che la monetizzazione dei dati sia anch’essa una leva di crescita (peraltro strettamente connessa al tema dell’AI). “Il Tech Index evidenzia il continuo ottimismo del settore tecnologico globale, nonostante le sfide legate alla conformità normativa”, ha commentato Giulio Coraggio, partner responsabile del dipartimento Intellectual Property and Technology di Dla Piper in Italia. “L’intelligenza artificiale e la monetizzazione dei dati emergono come driver essenziali per la crescita futura. Il report sottolinea l’importanza per le aziende di affrontare strategicamente questioni come la privacy, la sicurezza informatica e l’adeguamento alle normative, trovando un equilibrio tra innovazione e conformità”.

Solo il 9% degli intervistati considera come proibitivi i costi di adozione dell’AI, mentre il 91% li ritiene un investimento giustificato e il 58% già pensa di gestire questi costi in modo efficace. In questo scenario non mancano le criticità, riguardanti in particolare il problema della competenze e la governance dell’AI. Solo il 38% delle aziende impiega al proprio interno uno o più data scientist, e raramente l’adozione dell’intelligenza artificiale nasce su iniziativa o con il supporto degli amministratori delegati. Il 32% dei rispondenti ha, inoltre, citato preoccupazioni legate alla privacy e alla sicurezza dei dati, il 29% le questioni di conformità normativa e legale, il 28% le implicazioni etiche.

LA CYBER RESILIENZA NON È SOLTANTO BACKUP

Per minimizzare l’impatto di un incidente informatico bisogna agire su più fronti, dalla difesa proattiva al ripristino. Il punto di vista di Rubrik.

Il backup è un pilastro della protezione dei dati ed è anche, probabilmente, l’ingrediente più importante di qualsiasi piano di ripristino o disaster recovery. Ma da solo non basta più, in un’epoca di minacce sempre più sofisticate e distruttive. Non solo bisogna fare il possibile per evitare un attacco (sapendo che l’azzeramento totale del rischio è un’utopia) ma ciò che conta è soprattutto la capacità di assorbire l’urto e ripartire avendo subìto il minimo danno possibile. Secondo una ricerca condotta in Wakefiled Research, basata su interviste a Cio e Ciso e sui dati di telemetria di Rubrik, nel 2023 il 94% delle aziende è stato bersaglio di almeno un attacco informatico, ma la media pro capite è di una trentina di tentativi di attacco all’anno. Gli episodi ransomware sono cresciuti del 70% a volume rispetto al 2022. “Spesso si crede che avere disporre di un backup dia la garanzia di poter ripristinare la situazione dopo un attacco, ma non è così”, ha commentato Giampiero Petrosi, regional vice president sales engineering Southern

Europe di Rubrik. “La cyber recovery non si limita al backup, servono altri elementi per poter recuperare i dati. Il fatto che, con l’immutabilità, non siano impattati da una cancellazione o modifica è importante, ma bisogna anche valutare chi accede ai dati o se essi sono impattati da fattori temporali o altro. Ma poter recuperare il dato ancora non basta: bisogna avere un piano di recovery strutturato e testato”.

Utilizzando un file system proprietario, Rubrik fornisce una soluzione che chiama “bunker-in-a-box”, la quale protegge i backup doppiamente, con funzioni di immutabilità (cioè impossibilità di cancellare o modificare i dati) e di air-gapping logico (con la creazione di ambiente di backup protetto e separato dal restante ambiente IT). Alla piattaforma si sono aggiunte, via via, ulteriori funzionalità di sicurezza proattiva, come quelle di monitoraggio delle minacce, di threat hunting e di ricerca degli indicatori di compromissione. “Siamo in grado di garantire la recuperabilità dei dati gra-

zie a una serie di feature molto innovative e native nella nostra tecnologia”, ha spiegato Alessio Stellati, regional director per l’Italia. “Con il nostro bunker in-a-box possiamo rimettere in piedi l’azienda in caso di attacco”. Nella circostanza di un attacco già avvenuto, aver predisposto un piano d’azione dettagliato è un notevole aiuto, che permette di evitare perdite di tempo dovute all’indecisione. Tuttavia anche così, di fronte a ransomware che cancellano dati e bloccano le attività di un’azienda, per il personale IT è facile sentirsi soverchiati o farsi prendere dal panico. “Non ci limitiamo a fornire ai clienti la nostra tecnologia”, ha proseguito Stellati. “Mettiamo a disposizione senza costi aggiunti, e indipendentemente dal tipo di licenza attivato, un team globale di esperti”.

Sempre reperibile, “24/7”, il team dà supporto con le proprie conoscenze e best practice per guidare, passo passo, l’azienda colpita nelle azioni di mitigazione dell’attacco, nel ripristino, nella comunicazione con gli stakeholder e negli aspetti legali spesso implicati in caso di furto di dati o ransomware. Una curiosità: lo stesso fondatore e amministratore delegato di Rubrik, Bipul Sinha, ne fa parte.

Con un corredo di tecnologie e servizi sempre più ampio, la società di Palo Alto conta attualmente 3.500 collaboratori e ha registrato nell’ultimo esercizio fiscale una crescita di ricavi pari al 46% anno su anno. Per l’esercizio 2025 si attende un giro d’affari compreso tra 810 e 824 milioni di dollari. Valentina Bernocco

Alessio Stellati
Giampiero Petrosi

CONTROLLO, RISPARMI E SICUREZZA CON LA STAMPA GESTITA

I servizi di managed printing di Brother aiutano le aziende a ridurre costi e impatti ambientali, ma anche a proteggere dati e documenti.

Si dice stampa e si pensa a una stampante, oppure a un dispositivo multifunzione che fa anche da scanner e fotocopiatrice. Ma la stampa per le aziende è molto di più: è gestione dei documenti e dei flussi di lavoro, è prendersi cura dei contenuti e dei dati in modo che non finiscano nelle mani sbagliate, ed è anche ottimizzazione dei costi e dei consumi. Secondo Idc, circa metà dei documenti di business oggi è ancora in formato cartaceo, dunque la stampa è un ingranaggio chiave nel funzionamento delle aziende. A ciò si somma il fatto che, sempre più, i dispositivi di stampa sono degli oggetti connessi a Internet e ad altri dispositivi, tramite interfacce Ethernet, Wi-Fi, Bluetooth e Usb, che diventano porte d’accesso per hackeraggi e furti di dati. Trascurare la sicurezza dei dispositivi e dei processi di stampa può avere pesanti conseguenze.

Un servizio per tutte le taglie

Un’ottima risposta a tutte le esigenze di gestione, ottimizzazione e sicurezza dei processi documentali sono i servizi di stampa gestita: come quelli proposti da Brother con un’offerta consolidata e diversificata, che incontra le necessità di aziende piccole, medie e grandi. Alle piccole imprese è dedicata un’offerta con cui è possibile gestire fino a 20 dispositivi di stampa, per quelle di media dimensione c’è un diverso pacchetto di servizi (pensato per parco macchine massimo di 50 dispositivi) e per le realtà enterprise si realizzano progetti su misura con maggior grado di personalizzazione (dai piani di pagamento alla customizzazione del portale utente, Cloud Brother).

Una gestione dalla “A” alla “Z”

Il servizio di stampa gestita Pagine+ copre attività di installazione e manutenzione delle macchine, consegna dei materiali di consumo, consulenza e supporto tecnico specializzato. Attraverso un team di esperti dedicato, le aziende ricevono supporto dalla fase di scelta dei dispositivi da installare alla risoluzione dei problemi (con operazioni di help-desk e assistenza tecnica multicanale), e inoltre possono ottimizzare i consumi, ottenendo vantaggi in termini sia di taglio dei costi sia di sostenibilità. Aderendo al programma di riciclo toner, per esempio, si ha la garanzia che le cartucce esauste (che vengono ritirate in sede da un corriere autorizzato a norma di legge) verranno riciclate o rigenerate in modo sostenibile. A ciò si affiancano i servizi di monitoraggio in tempo reale, di analytics e di reportistica

sui consumi, per un completo controllo sui costi di stampa sia in ufficio sia in smart working: è dunque possibile ottenere una panoramica su consumi e costi delle periferiche di stampa per tutte le aree aziendali, suddivisi per singolo utente.

Focus sulla sicurezza

Per quanto riguarda la sicurezza, una delle soluzioni proposte è Secure Print+, funzionalità che aiuta a proteggere i dati e ad agire in piena conformità al Gdpr: solo gli utenti autorizzati possono accedere a documenti riservati, tramite codice Pin o card Nfc, ed è possibile impostare un timer per il ritiro delle stampe dal dispositivo. Il servizio Secure Print Advanced aggiunge a tutto ciò la possibilità, per gli utenti, di eseguire l’autenticazione su una stampante o un dispositivo multifunzione Brother posti nelle vicinanze e che condividono la stessa rete. Un altro servizio di managed printing è quello attivabile a corredo della soluzione di Kofax ControlSuite, e che permette di controllare l’intero parco stampanti in uso e di automatizzare operazioni come la richiesta di toner o l’assistenza tecnica. Consente, inoltre, il rilascio degli ordini di stampa tramite app mobile o codici.

L’INNOVAZIONE VIAGGIA IN TANGENZIALE

Milano Serravalle sta trasformando il modo in cui svolge le proprie attività di monitoraggio del traffico e manutenzione.

Nel complesso del sistema autostradale italiano, 187 chilometri di tratta possono sembrare pochi. Questa è la lunghezza totale gestita dalla società Milano Serravalle –Milano Tangenziali. Come, tuttavia, suggerito dal nome, rientrano sotto la responsabilità della concessionaria non solo il tratto della A7 che parte dal capoluogo lombardo e arriva a Serravalle Scrivia, ma soprattutto le tre tangenziali di Milano, su cui si stima transitino ogni giorno in media 160mila veicoli.

La missione che l’azienda stessa ha pubblicato sul proprio sito recita: “Milano Serravalle si impegna a potenziare le infrastrutture, migliorare la qualità dei servizi e promuovere la mobilità sostenibile, mettendo al centro delle sue attività la soddisfazione del cliente e lo sviluppo professionale dei dipendenti”.

Dietro questo proclama si celano le principali incombenze di una concessionaria: dal monitoraggio costante di tutti i percorsi viari alla gestione degli interventi di manutenzione, da un’attenzione agli automobilisti che necessariamente presuppone miglior gestione possibile dei flussi di traffico alla qualità del lavoro di chi opera sul campo. Di fatto, in tutti questi processi oggi c’è un significativo contributo della tecnologia, nel contesto di un cambiamento culturale più complessivo orientato, negli ultimi anni, ver-

so il miglioramento dei servizi all’utenza ma anche dell’ambiente operativo in cui lavorano i dipendenti. Dell’apporto dell’innovazione digitale nel percorso evolutivo di Milano Serravalle abbiamo parlato con il chief operating officer, Marco Colloredo.

In quali aree il contributo della tecnologia si è già consolidato e dove, invece, si notano i più significativi cambiamenti in atto?

Lo scenario complessivo è in evoluzione, ma certamente possiamo considerare più mature attività come la gestione dei pedaggi e quanto direttamente collegato alla strada, ivi compresa la rilevazione della velocità dei veicoli. La tecnologia sta supportando un percorso di semplificazione dei processi aziendali e delle attività operative. Uno degli obiettivi fonda-

mentali del processo di digitalizzazione di Milano Serravalle è poter integrare le informazioni sulla viabilità con quelle riguardanti l’asset management stradale, in modo tale da ottenere analisi preventive sull’impatto degli interventi da effettuare e potendo, quindi, programmarli in momenti a minor impatto. In futuro, vorremmo riuscire a produrre anche analisi di tipo predittivo.

Quali sfide stanno connotando il vostro percorso di innovazione?

Ci siamo inizialmente concentrati su sistemi che rilevano dati in maniera statica da apparecchiature come radar, fibra ottica o sensori. Ma occorreva prendere in considerazione anche la componente dinamica rappresentata dalle squadre di intervento sulla viabilità, che si trattasse di persone impegnate nella manutenzione vera e propria oppure dedicate al monitoraggio. Per questo, le evoluzioni più recenti sono andate in direzione della possibilità di digitalizzare queste attività, in modo tale che le persone siano in grado di fornire ulteriori dati da convogliare nell’ecosistema principale. In precedenza, tutto avveniva attraverso documenti cartacei o comunicazioni via radio registrate, mentre la nostra idea evolutiva era di eliminare completamente la carta e trasformare tutto in un sistema digitalizzato che potesse permettere anche una gestione più omogenea dei dati e una loro catalogazione univoca. Abbiamo così proceduto alla catalogazione di tutte le tipologie di interventi, poi inserendo le in un database che i tecnici possono consultare per descrivere in modo stan dardizzato ogni lavoro svolto, le ragioni che lo hanno reso necessario e lo stato di avanzamento. La piattaforma tecnologi ca utilizzata è quella di Salesforce, acqui sita in versione full service, ma ci siamo avvalsi anche del supporto di Almaviva. Oltre ad aver sostituito processi cartacei con omologhi digitali, abbiamo potuto

integrare le informazioni all’interno del sistema di gestione del traffico e anche dell’applicazione che si occupa di definire turni e programmazione del lavoro degli operatori.

A che punto siete nello sviluppo di questo progetto?

Il sistema di geolocalizzazione dinamica è in fase di completamento e abbiamo iniziato a lavorare anche su un digital twin della nostra infrastruttura. La componente di gestione pura del traffico è già operativa, mentre ora stiamo lavorando sull’integrazione con lo Smart Road System. La piattaforma Salesforce si pone al di sopra di tutto questo e fa convogliare i dati sia verso il digital twin sia verso il sistema di gestione del traffico. L’obiettivo finale del progetto è poter realizzare una pianificazione degli interventi sulla base dei dati effettivi di traffico, per ridurre il più possibile l’impatto di un cantiere. Ma questo sistema dovrebbe portarci, in prospettiva, anche a minimizzare il più possibile gli incidenti e a ottenere riscontri in termini ambientali, attraverso la riduzione delle emissioni.

Come siete organizzati nell’ideazione e successiva realizzazione dei vostri progetti innovativi?

La struttura delle operations che presiedo coordina l’attività di diverse direzioni,

di innovazione. Non abbiamo la figura del Cio, bensì un direttore che presiede l’information technology strettamente collegata agli impianti. Il modello che si pone alla base della gestione dei dati descritta in precedenza è stato creato da me e condiviso con la mia squadra e con le persone direttamente coinvolte dal punto di vista operativo. Per fortuna, esiste anche un’ampia delega sulle impostazioni, sulle scelte e sulla definizione degli obiettivi, mentre il management condivide con noi i macro obiettivi, che possono riguardare il raggiungimento dell’efficienza o il processo di digitalizzazione.

Come hanno reagito i dipendenti alle novità tecnologiche introdotte?

Sapevamo che si trattava di una componente critica, per cui abbiamo cercato di coinvolgere fin dall’inizio soprattutto gli operatori delle sale radio e della viabilità sia nell’implementazione sia nello sviluppo della piattaforma. La condivisione fin dalle prime fasi ha consentito di ridurre il rischio di conflittualità o mancato utilizzo, anche se dobbiamo ancora lavorare per eliminare del tutto la carta. Sicuramente gli operatori della viabilità hanno visto il proprio lavoro semplificarsi e i loro responsabili ricevono report più chiari e utili per le azioni successive.

Su quali sviluppi state lavorando?

Stiamo concentrando l’attenzione sui sistemi di rilevazione del traffico, con l’implementazione di sistemi a videocamera per la rilevazione delle targhe, utili per determinare così i flussi effettivi di traffico in termini di numero di veicoli, tipologie, velocità media e così via. In parallelo, abbiamo avviato un progetto sperimentale per la rilevazione del numero di veicoli e delle velocità basata sulle vibrazioni della fibra ottica posizionata sulla strada. Il processo di digitalizzazione segue di pari passo questi sviluppi. Roberto Bonino

IL DIGITALE AMICO DELLA SALUTE

Un’esplorazione profonda dell'innovazione digitale in sanità: questo vuol essere l’Healthcare Innovation Summit organizzato da Aisis e TIG - The Innovation Group.

Il panorama della sanità sta affrontando una trasformazione senza precedenti, grazie all’affermarsi e al diffondersi di tecnologie digitali che stanno modificando le filiere di cura e – più in generale – la gestione della salute e dei sistemi sanitari. La digitalizzazione sta cambiando radicalmente la diagnosi e il trattamento, migliorando l’accessibilità, così come l’efficienza e la personalizzazione delle cure. Tecnologie come i dispositivi indossabili, i sistemi di telemonitoraggio e le applicazioni mobili stanno permettendo interventi precoci e una gestione più proattiva delle patologie, e allo stesso tempo le biotecnologie

e la ricerca scientifica compiono nuovi progressi proprio grazie al digitale.

L’“Healthcare Innovation Summit 2024”, dal 9 all’11 ottobre all’Hotel Nhow di Milano, raccoglie il fulcro di questa evoluzione, riunendo leader di settore, innovatori e professionisti per un’esplorazione approfondita delle ultime frontiere nel campo della sanità digitale. L’evento sarà un’importante piattaforma di confronto sulle applicazioni pratiche delle nuove tecnologie, dal machine learning alla telemedicina fino alla gestione avanzata dei dati clinici. Tra i principali focus tematici dell’evento, si parlerà di spesa sanitaria e

degli scenari di sviluppo del Sistema Sanitario Nazionale a 45 anni dalla sua nascita, ma anche di innovazione digitale nell’ecosistema della sanità e delle scienze della vita. Ancora, nelle tre giornate dell’evento (di cui la seconda e la terza aperte al pubblico) si discuterà di ricerca ed health innovation, oltre che di di prospettive e applicazioni concrete dell’intelligenza artificiale in sanità. Per una sanità data-driven, poi, si approfondiranno i temi della governance e dell’interoperabilità dei dati sanitari, oltre agli aspetti fondamentali della cybersecurity e della privacy in sanità.

In un contesto in cui la salute pubblica è al centro dell’attenzione globale, l’“Healthcare Innovation Summit 2024” rappresenta una tappa fondamentale per tutti coloro che sono impegnati a spingere le frontiere dell’innovazione e a migliorare la qualità della vita attraverso la tecnolo-

Immagine di Freepik

TRA DATI, APPLICAZIONI E DISPOSITIVI

Servizi, soprattutto, ma anche software, dispositivi e piattaforme abilitanti. Alla base di tutto, in questo settore ancor più che altrove, quella materia prima preziosissima (e in questo caso anche, spesso, delicatissima) che sono i dati. Il mercato delle tecnologie digitali per la sanità, o digital healthcare per dirla all’inglese, ha raggiunto nel 2023 un giro d’affari mondiale di oltre 240 miliardi di dollari, in base alle stime di Grand View Research. Vero è che, dal 2021 al 2024, forse anche per effetto della pandemia di Covid gli investimenti hanno rallentato la corsa, un po’ per il dirottamento delle priorità e un po’ per il generale contesto economico. Ma d’altro canto proprio la pandemia ha reso palese la necessità di usare la leva digitale, più e meglio, per sopperire a carenze strutturali dei sistemi sanitari nazionali, per alleggerire il carico sui pronto soccorso, per migliorare la relazione medico-paziente, per agevolare l’iter di cura (dalle prenotazioni al ritiro dei referti) e per garantire una forma di assistenza efficace ai malati cronici. E ancora, usare il digitale per supportare la ricerca medica e biotecnologica. Si potrebbe andare avanti, ma questi esempi lasciano intuire perché in Italia (Paese in cui, secondo Istat, il 40% della popolazione soffre di una patologia cronica) un’intera “Missione” del Pnrr sia dedicata alla riforma del Ssn, anche grazie a leve digitali come la telemedicina e il Fascicolo Sanitario Elettronico. Tornando ai dati di Grand View Research, secondo gli analisti il mercato avrà un tasso di crescita annuale composto pari al 21,9% tra il 2024 e il 2030. I principali fattori di traino saranno la forte domanda di piattaforme software per la telemedicina, di applicazioni mobili e dispositivi indossabili per il monitoraggio della salute e dell’aderenza alle cure (l’ambito dei digital therapeutics), oltre che di sistemi per l’emissione e la gestione delle ricette elettroniche. Un’altra società di analisti, MarketsAndMarkets, cita tra i fattori di spinta anche la crescente diffusione degli smartphone a tutte le latitudini. Privacy, sicurezza e interoperabilità dei dati alcune delle sfide sul piatto.

gia. Mettendo in dialogo e a confronto le più rilevanti voci del settore: dirigenti e operatori del mondo sanitario pubblico e privato, imprese e fornitori di infrastrutture, sistemi, servizi e piattaforme per la sanità e la salute, e ancora chief information officer, IT manager, responsabili di data center e infrastrutture IT, Ciso, Cso,

security manager, fondazioni e centri di ricerca. I partecipanti avranno l’opportunità di ascoltare interventi di esperti di fama internazionale, di scoprire casi studio illuminanti e di partecipare a sessioni interattive che stimoleranno il dibattito e l’innovazione. L’evento non solo offrirà una panoramica delle tecnologie informa-

tiche emergenti, ma servirà anche come spazio per la creazione di collaborazioni e sinergie tra i vari attori del settore: sul palco, in platea e in un’area di networking realizzata ad hoc. Con l’obiettivo di lasciare un segno nel dibattito sulla sanità digitale in Italia.

Gianluca Dotti

Con l’evolversi delle tecnologie sanitarie si va affermando un modello di connected care che mette al centro il paziente, e in cui la condivisione e l’interoperabilità dei dati sanitari tra gli attori coinvolti nei processi di prevenzione e cura sono di importanza fondamentale. Questo modello necessita di una connettività semplice, affidabile e sicura , capace di gestire velocemente ed efficacemente la condivisione dei dati e di garantirne al tempo stesso privacy e sicurezza. Per questo le soluzioni di rete di HPE Aruba Networking per il settore sanitario offrono un’infrastruttura unificata per ogni caso d’uso, integrando in un’interfaccia comune il controllo degli accessi alla rete cablata o wireless basato sul ruolo e le informazioni di posizione, così da migliorare l’esperienza utente e ridurre gli interventi dei team IT. Con la sicurezza Zero Trust, grazie a soluzioni come Aruba ClearPass, siamo inoltre in grado di garantire la profilazione e la corretta autorizzazione all’accesso alla rete di tutti i dispositivi medici, di tutti gli utenti e di ogni elemento connesso a Internet. Grazie all’AIOps, infine, è possibile ottimizzare le prestazioni in tempo reale e prevenire i problemi, così da evitare interruzioni di rete e garantire la continuità di funzionamento di ogni applicazione clinica.

HPE Aruba Networking

La cura del paziente inizia alla sua prima telefonata. Facilitare il contatto con la struttura sanitaria e ridurre le lunghe attese telefoniche per prenotare o modificare un appuntamento è il primo segnale di attenzione al paziente. La soluzione arriva dallo sviluppo di un assistente virtuale che dialoga con i pazienti al telefono, via Sms, webchat, WhatsApp, email, e che consente di prendere appuntamenti, cancellarli o spostarli in autonomia, fornisce informazioni e risponde a molteplici telefonate simultanee. Si tratta di Smile.CX GAIA, una soluzione di intelligenza artificiale sviluppata da Esosphera (Gruppo Covisian). Smile.CX GAIA non si limita solo alle prenotazioni: attraverso sondaggi avanzati di customer satisfaction veicolati in modo intelligente sui canali preferiti dall’utenza, GAIA supporta le attività di Business Intelligence volte a migliorare l’erogazione dei servizi. GAIA è attiva anche in alcune realtà del settore pubblico italiano, che hanno scelto di affidare all’AI la notifica della cessazione del Medico di Medicina Generale, eliminando le comunicazioni in cartaceo: GAIA ha avvisato oltre 1.600 persone in poche ore via email e telefono permettendo la scelta del nuovo medico con un click. In un mondo in cui il tempo è prezioso, l’AI ci aiuta a mettere al centro le persone. Non è una scelta tra tecnologia e umanità, ma l’opportunità di integrare entrambe per migliorare la patient experience. Corrado Tritto, Tech Sales Manager Area HealthCare di Smile.CX GAIA di Esosphera

L’adozione di soluzioni digitali nella sanità è fondamentale per garantire sostenibilità ed efficienza. La dematerializzazione dei consensi e referti, attraverso la firma elettronica e l’onboarding digitale, riduce l’uso di carta, promuovendo un approccio eco-friendly. Euronovate Group, in quanto azienda specializzata nei servizi di dematerializzazione cartacea, combina avanzati moduli hardware come la tavoletta grafometrica Nfc a soluzioni software, permettendo di velocizzare l’accoglienza e la gestione delle informazioni. Questo connubio migliora l’esperienza del paziente, riduce i tempi di attesa e garantisce una gestione sicura e trasparente dei dati. La governance e l’interoperabilità dei dati sono pilastri per una gestione conforme e sicura delle informazioni, assicurando protezione della privacy. Questi processi non solo ottimizzano le risorse, ma contribuiscono a una sanità più inclusiva e accessibile. Investire in tecnologie digitali significa costruire un sistema sanitario resiliente, capace di affrontare le sfide future con efficienza e sostenibilità.

Group

Il nuovo paradigma dell’intelligenza artificiale generativa sta rivoluzionando il settore sanitario a livello globale. Questa tecnologia innovativa sta aprendo nuove frontiere nella ricerca medica, migliorando l’efficienza operativa degli erogatori e ridefinendo l’esperienza del paziente. AWS svolge un ruolo chiave nell’abilitare l’adozione responsabile dell’AI generativa nel settore sanitario e nelle life sciences. Attraverso servizi come Amazon Bedrock, AWS offre alle organizzazioni sanitarie gli strumenti per sfruttare le potenzialità di questa tecnologia in modo sicuro ed etico, accelerando la trasformazione digitale e migliorando l’esperienza di pazienti e operatori sanitari. I principali casi d’uso di AI generativa in ambito sanitario includono la sintesi automatica di cartelle cliniche, la generazione di note cliniche, l’esplorazione e analisi di dati sanitari complessi, fino all’implementazione di chatbot per i pazienti. Grazie all’integrazione con i servizi AWS, queste applicazioni possono essere sviluppate in modo sicuro e scalabile, contribuendo a ridurre il carico di lavoro dei clinici e a migliorare l’accesso alle informazioni sanitarie.

Amazon Web Services (AWS)

Tra i problemi più urgenti del nostro Ssn vi sono liste d’attesa e Pronto Soccorso. Per affrontarli in modo efficace, dobbiamo concentrarci sulla razionalizzazione della domanda e sull’ottimizzazione dell’offerta : in entrambi i casi l’innovazione digitale può fare la differenza. Lato domanda, è necessario lavorare sull’appropriatezza prescrittiva rispetto a linee guida e protocolli, grazie a strumenti digitali avanzati che consentono di alleggerire la richiesta di prestazioni non necessarie. Grazie a sistemi basati sull’intelligenza artificiale, è possibile prevedere e gestire i potenziali no-show al fine di ridurli. Lato Pronto Soccorso, nel 2023 circa il 22% degli accessi sono stati considerati impropri. Occorre dunque lavorare su più fronti attivando servizi sanitari di comunità per intercettare i casi non urgenti e rendendo disponibili funzioni di self-triage, per indirizzare i cittadini verso la struttura più appropriata alle loro reali necessità. È anche necessario lavorare sull’ottimizzazione dell’offerta, attraverso soluzioni che “liberano tempo per la cura” e pianificano efficacemente l’uso delle risorse per erogare servizi sanitari efficaci e efficienti. Le soluzioni digitali offrono opportunità uniche che dobbiamo cogliere senza esitazione. La trasformazione digitale non è un costo, ma un investimento per il futuro della nostra società.

Vincenzo Giannattasio Dell'Isola, Regional General Manager di Dedalus Italia

Ad oggi, l’intelligenza artificiale è una delle principali forze di crescita in Italia. Uno studio di Teha Group e Microsoft Italia ha rivelato che l’AI generativa può contribuire in misura del 18% al PIL italiano, e che il 47% delle imprese utilizzatrici di questa tecnologia riporta un aumento della produttività di oltre il 5%. In ambito sanitario, questo si traduce in una maggiore efficienza e qualità dei servizi, migliorando la cura dei pazienti. Microsoft offre una piattaforma tecnologica che abilita allo sviluppo di scenari avanzati di intelligenza artificiale e gestione del dato per raggiungere questi obiettivi. In Italia collabora già con vari enti sanitari, tra cui l’Ausl di Reggio Emilia per ottimizzare il processo di identificazione e la raccolta della storia clinica dei pazienti, l’Ospedale San Raffaele per la cura del tumore del polmone non a piccole cellule (supportando la selezione dei pazienti candidabili all’immunoterapia), e l’Ausl4 Chiavari per prevedere le ri-ospedalizzazioni e diagnosticare precocemente patologie croniche in pazienti poli-patologici.

Marco Fischetto, Direttore Pubblica Amministrazione di Microsoft Italia

Le app sanitarie stanno cambiando il modo in cui i dati medici vengono gestiti e condivisi, ma con esse emergono nuove sfide di cybersecurity. Il Rapporto Clusit 2024 per l’healthcare mette in luce che gli incidenti informatici nel settore stanno aumentando, sia in valore assoluto sia in percentuale globale, con un impatto significativo sulla continuità dei servizi. Inoltre, fa emergere che le vulnerabilità e i malware sono i principali vettori di attacco. Questi dati sottolineano la necessità di misure di sicurezza avanzate per contrastare le crescenti minacce cyber che colpiscono anche le app sanitarie. Una strada inizia a essere tracciata con lo European Health Data Space (EHDS), iniziativa UE tesa a migliorare la gestione dei dati sanitari, promuovendo privacy, sicurezza e interoperabilità. L’iniziativa rimarca la necessità di adozione di misure di sicurezza strategiche per garantire la protezione dei dati e la continuità dei servizi. In sintesi, le app sanitarie offrono enormi benefici nella gestione dei dati medici ed è essenziale affrontare le sfide cyber con un approccio proattivo. Solo così sarà possibile garantire la sicurezza dei dati e mantenere la continuità dei servizi sanitari.

di Mobisec Italia

L’informatizzazione dei processi sanitari, l’interoperabilità e la dematerializzazione hanno concorso alla creazione di un patrimonio informativo rilevante ma spesso basato su dati qualitativamente inadeguati. Il tema della cultura del dato diventa quindi strategico al fine di garantire la qualità necessaria per l’utilizzo efficace dei dati in un approccio orientato al data-driven. L’obiettivo sfidante è arrivare ad avere dati – correttamente gestiti dal punto di vista semantico, della metadatazione e della privacy – che diventino informazioni, complete e comprensibili, a supporto dei processi decisionali a partire dall’analisi di metriche e KPI, per efficientare l’organizzazione e le performance, fino all’applicazione in scenari di intelligenza artificiale a supporto delle decisioni cliniche e della diagnosi. Nell’ambito dell’interoperabilità, il concetto di cultura del dato dovrà necessariamente comprendere la piena consapevolezza della finalità di utilizzo del singolo dato per i diversi fruitori. La sinergia tra tutti i soggetti che concorrono al Sistema Sanità sarà, sempre più, un elemento chiave per la realizzazione di un modello di condivisione efficace e affidabile.

Giovanni Bianchi, CEO di Oslo (Gruppo GPI)

Una delle grandi sfide in sanità è la necessità di integrare e distribuire i dati di imaging aggregandoli e rendendoli interoperabili in ambito intra ed extra ospedaliero, a supporto del processo decisionale clinico. Per questo è fondamentale che ci sia uno scambio fluido di dati tra i diversi ospedali e aziende ospedaliere, non soltanto quelle pubbliche, ma anche quelle private accreditate. Ne consegue la necessità di disporre di piattaforme informatiche vendor-neutral archive scalabili che raccolgano informazioni da più fonti, abbracciando la neutralità del fornitore per dati DICOM e non, e che rendano queste informazioni disponibili per qualsiasi postazione di lavoro, anche al di fuori dell’ospedale, in modo che le decisioni cliniche possano essere prese in qualsiasi momento e ovunque. L’ interoperabilità consente di collegare sistemi, reparti ospedalieri e percorsi di cura in modo da avere una visione più completa della salute del paziente nel tempo, contemporaneamente riducendo il numero di esami diagnostici non necessari. Un’assistenza sanitaria incentrata sui dati e sul paziente consente ai clinici di effettuare diagnosi più precise e accurate e di erogare cure più efficaci, e permette ai pazienti di partecipare più attivamente al percorso sanitario.

Philips

La tecnologia sta cambiando il nostro mondo, sta influenzando tutto ciò che facciamo nella nostra vita quotidiana e, rispetto ad altri settori in cui la trasformazione digitale è già una realtà consolidata, nel settore sanitario ha iniziato ad accelerare in modo esponenziale solo negli ultimi anni. Il potenziale tecnologico a disposizione, grazie a strumenti digitali quali ad esempio le Clinical Decision Support Solutions e i Data Analytics tool (solo per citarne alcuni), sembra tuttavia non ancora del tutto compreso e viene spesso trascurato. Questo nonostante la maggiore consapevolezza da parte delle organizzazioni del settore sanitario riguardo la crucialità dell’uso innovativo dei dati per rispondere alle sfide sanitarie più importanti. Un approccio decisionale basato sui dati può aumentare la velocità e migliorare la qualità del percorso diagnostico-terapeutico, riducendo al contempo inefficienze e costi. Ne troviamo esempi nell’ambito della “medicina personalizzata”, in cui, grazie ai dati e tecnologie all’avanguardia, è sempre più possibile offrire una diagnosi, un trattamento e un follow-up più efficaci rispetto al modello classico. Non vanno però trascurate le connesse sfide per una gestione dei dati che dev’essere conforme ai requisiti e alle normative sulla privacy e sulla proprietà intellettuale. Il processo di trasformazione digitale in sanità richiede quindi un approccio olistico, rispetto al quale tutti gli attori coinvolti, forti della propria expertise, possono dare un contributo prezioso, sia in termini di co-creazione di soluzioni in grado di generare valore per tutti gli stakeholder dell’healthcare, sia in termini di facilitazione del cambiamento culturale che la trasformazione stessa richiede.

9 - 10 - 11 ottobre

Hotel Nhow – Milano

HEALTHCARE INNOVATION

Digital Innovation in Life-Science

Organizzato da AISIS e TIG – The Innovation Group, il summit offrirà una panoramica dell’innovazione digitale nel campo della Sanità, del Biotech e delle Scienze della vita.

Focus su:

 Scenari di sviluppo del Sistema Sanitario Nazionale

 L’innovazione digitale nell’ecosistema della Sanità e delle Scienze della vita

 Ricerca ed Health Innovation

 Prospettive e applicazioni concrete dell’intelligenza artificiale in Sanità

 Governance e interoperabilità dei dati sanitari

 Cybersecurity e privacy in Sanità

INFO: WWW.THEINNOVATIONGROUP.IT

MAIL:

CARLOTTA.DIFALCO@TIG.IT

LA TRASFORMAZIONE IN DIVENIRE

Efficienza operativa, controllo dei costi e velocità di esecuzione restano gli elementi portanti di un’innovazione cominciata da tempo. Che sta, però, cambiando rotta.

Il settore manifatturiero sta attraversando una fase di profonda evoluzione guidata dai rapidi progressi della tecnologia e dalla crescente domanda di operazioni più efficienti, sostenibili e basate sui dati. Dall’indagine “Digital Business Transformation Survey 2024”, realizzata da TIG – The Innovation

Group, emerge come ormai la maggior parte delle aziende italiane si trovi in una fase avanzata lungo il percorso di trasformazione digitale, con un 45% di realtà che nemmeno parla più del tema, essendo ormai parte integrante del modo di operare e fulcro delle decisioni sia strategiche sia operative.

Il settore manifatturiero non si trova allo stesso livello di avanzamento, per fare un esempio, di quello dei servizi, tuttavia ha subìto un’accelerazione negli ultimi anni sotto la spinta dell’evoluzione digitale complessiva, ma anche dell’affermazione del paradigma di Industria 4.0, caratterizzato dall’integrazione di tecnologie avanzate come Internet of Things (IoT), intelligenza artificiale (AI) e robotica nel processo di produzione.

Per analizzare lo stato dell’arte del percorso di trasformazione digitale del settore manifatturiero italiano, TIG ha realizzato una ricerca qualitativa che ha coinvolto poco meno di venti aziende diverse per dimensione e modello industriale, ma accomunate dalle medesime problematiche (tipiche di strutture governate dalle esigenze della produzione) e da obiettivi di crescita e rapporto con i rispettivi mercati. Proprio per l’articolazione del campione selezionato, i percorsi di innovazione mostrano una certa varietà di declinazioni. Tuttavia emergono alcuni tratti comuni, riguardanti da un lato l’evoluzione dei sistemi informativi in quanto tali e dall’altro ciò che è stato o sarà introdotto negli ambienti di fabbrica.

Immagine di nuraghies da Freepik

L’Erp resta al centro

In generale, è l’indiscutibile centralità dell’Erp a condizionare il cammino delle aziende. La migrazione verso soluzioni più moderne, allocate in cloud e tendenzialmente più standardizzate è, in molti casi, in corso o pianificata. Tale passaggio richiede tempo, anche in ragione della dispersione geografica delle sedi da allineare, e porta con sé diramazioni verso altri processi collegati. Aree come la gestione della supply chain, del magazzino o dell’order-to-delivery stanno a loro volta vivendo una fase di aggiornamento, generalmente in una logica di maggior integrazione rispetto al passato. Di sicuro, un elemento che accomuna i processi di ammodernamento è la volontà di standardizzare e sfruttare al meglio i dati che tutte queste applicazioni forniscono, cercando nel miglior modo possibile di armonizzare il processo di raccolta e integrazione con quanto arriva dai sistemi implementati all’interno delle fabbriche.

Anche su questo fronte, infatti, è in corso un percorso di innovazione, che tocca tematiche di gestione complessiva degli stabilimenti, di controllo operativo sulle macchine e di automazione dei processi collegati al rilascio del prodotto. Il primo ambito ha a che fare soprattutto con l’implementazione di un sistema Mes (Manufacturing Execution System), ormai presente in buona parte del campione analizzato.

Da qui, ma anche dalle rilevazioni eseguite direttamente sulle macchine, si ricavano i dati essenziali per impostare una manutenzione almeno di natura preventiva e per assicurare gli standard di efficienza operativa, che sono in cima alle priorità dei chief operating officer, con inevitabili riflessi sul lavoro di supporto richiesto ai Cio (chief information officer). Tuttavia, accanto alla generazione e all’analisi dei dati utili a garantire la continuità del processo di fabbrica, nelle aziende emerge una crescente attenzione

al benessere degli operatori. L’aumento dell’automazione a livello di macchina, infatti, in diversi casi viene interpretato anche come volontà di sgravare i dipendenti da compiti ripetitivi e poco qualificanti, spostando il focus verso compiti di controllo.

In linea con quanto indicato nello scenario complessivo del mercato, anche nel contesto più ristretto qui preso in esame la resistenza al cambiamento domina come principale fattore di freno a un’innovazione più spinta. Una resistenza opposta soprattutto dalle persone con la maggior anzianità aziendale e con un attaccamento ad abitudini di lavoro difficili da modificare. Anche la complessità degli ambienti di produzione, dove in alcuni casi sono ancora presenti sistemi molto datati (ma funzionali ai processi in essere), è un fattore di rallentamento. La persistenza di installazioni legacy e un certo disordine nell’introduzione di nuove soluzioni portate avanti nel tempo determinano, poi, anche problematiche di sicurezza specifiche del mondo OT e non facili da conciliare con le policy definite a livello di azienda. Infine, come capita in molti altri settori, anche qui la carenza di competenze è un fattore limitante e non di facile soluzione, soprattutto per le aziende geograficamente radicate in luoghi non densamente popolati o lontani da strutture universitarie da cui reperire nuovi talenti.

Il peso del fattore umano

Per comprendere meglio il contesto del panel di aziende coinvolte nel progetto di ricerca, può essere utile esaminare un dato meramente quantitativo, ovvero la percentuale sul fatturato che ciascuna è disposta a spendere o ha già speso per l’adozione di soluzioni tecnologiche innovative tese al miglioramento dei processi produttivi. Si può notare come una metà del campione si collochi su valori al di sotto del 4%, mentre poco più di un

quarto superi l’8%. In termini assoluti, ci sono casi in cui il valore dell’investimento può anche essere significativo (le realtà più grandi), ma in generale il peso economico della digitalizzazione delle fabbriche appare ancora secondario nei budget complessivi stanziati annualmente.

Una certa evoluzione, per contro, si nota nei rapporti tra i dipartimenti IT e OT. Già oggi i Cio della aziende manifatturiere sono maggiormente coinvolti nelle strategie di business rispetto al passato, fatto che definisce più chiaramente l’importanza di un allineamento strategico tra le direzioni IT e quelle aziendali. La survey di TIG, infatti, indica che nel 51% dei casi c’è allineamento con gli obiettivi di business e un coinvolgimento nella definizione delle strategie aziendali. Interessante è notare che fra tre anni ai Cio sarà richiesto un maggior impegno per migliorare la digital experience dei dipendenti (34%) e l’assunzione di un ruolo di promozione del cambiamento organizzativo.

Abbiamo già indicato come gli investimenti attuali e futuri siano in parte orientati all’introduzione di tecnologie di intelligenza artificiale. Nel campione analizzato per questo studio qualitativo, troviamo esperienze piuttosto diversificate già portate avanti con l’AI “tradizionale”. Le aziende più strutturate appaiono più avanti nell’utilizzo di strumenti e algoritmi a supporto dell’efficienza dei macchinari, della manutenzione (preventiva, nella maggior parte dei casi), dell’image processing e anche dello sviluppo di servizi per i propri clienti. Evoluzioni interessanti sono attese nelle aree della manutenzione predittiva, degli advanced analytics e di un monitoraggio data-driven degli impianti. In molti casi, tuttavia, la qualità dei dati ancora non ottimale rappresenta un fattore condizionante.

Roberto Bonino

IL DIGITALE IN CATENA DI MONTAGGIO

L’inizio del nostro percorso strutturato di trasformazione risale all’incirca al 2016, quando abbiamo introdotto l’idea di “ digital league ”, ovvero un insieme di persone, non tutte provenienti dal team IT, unite nell’obiettivo di definire metodologie e strumenti funzionali alla digitalizzazione di tutti i processi di business. La base di tutti i successivi sviluppi è rappresentata dai dati: da qui ha preso forma il data lake aziendale. Registriamo una fruttuosa collaborazione con i responsabili delle differenti aree produttive e funzionali, con i quali collaboria-

mo per fare analisi e supportare i processi decisionali in maniera data-driven. Gaetano Arcuri, Cto di Avio Aero

Data la natura del nostro business, è fondamentale il progetto, partito circa quattro anni fa, denominato Cifa Vista. Alla base c’è una piattaforma digitale in cloud, attraverso la quale tutti i diretti interessati possono accedere ai dati di funzionamento delle macchine che produciamo e vendiamo. Su questa base, abbiamo costruito un’offerta di servizi

legati all’assistenza tecnica, con una forte riduzione dei tempi e delle modalità di intervento. Ora stiamo iniziando a impostare il processo che ci porterà a poter proporre una manutenzione anche di tipo predittivo.

Paolo Maini, direttore tecnico R&D di Cifa

Il nostro gruppo produce circa 50mila macchine per il caffè all’anno nei cinque stabilimenti oggi operativi. Nel corso degli anni ci siamo concentrati su modalità di produzione snelle, quindi con strumenti tipici del lean manufacturing, per organizzare il flusso dei processi, a partire dall’approvvigionamento dei componenti del magazzino fino al prodotto finito, nel modo più efficiente possibile. Dal punto di vista tecnologico, abbiamo deciso di portare in cloud i nostri sistemi principali, a cominciare dall’Erp. A questo si è affiancata l’adozione di un sistema Mes (Manufacturing Execution System) e, in tempi recenti, anche l’implementazione di un’applicazione che aiuta l’operatore di macchina a segnalare al referente più indicato eventuali anomalie di funzionamento.

Carlo Stupazzini, group IT Director di Cimbali Group

Al nostro interno possiamo citare l’utilizzo dei digital twin, che ha introdotto la possibilità di testare a monte gli impatti di ciò che in seguito verrà integrato nei nostri sistemi industriali, portando a una velocizzazione del time-to-market e a una parallela riduzione dei rischi e dei costi di produzione. Verso la clien-

Immagine di macrovector da Freepik

tela, nodale è la possibilità di raccogliere ed elaborare i dati che provengono dalle macchine, soprattutto per poter fornire un servizio più efficiente e, con l’introduzione dell’intelligenza artificiale, per passare dalla manutenzione preventiva a quella predittiva. Essa consente di intervenire, per esempio, su un componente prima di una possibile rottura già preconizzabile perché calcolata sulle serie storiche raccolte e analizzate a monte.

Giovanni Di Stefano, responsabile ingegneria soluzioni di automazione avanzata e robotica di Comau

Come in molte aziende, non solo del nostro settore, ci portiamo dietro una gestione della conoscenza spesso confinata nella testa delle persone. Noi abbiamo affrontato la problematica per creare un processo di condivisione più strutturato, già sostanzialmente completato per gli aspetti tecnologici, mentre ora ci stiamo occupando di far sì che ci sia un’adozione allineata a ogni livello dell’azienda. In questo modo, oltre a sopperire alla fuoriuscita per anzianità di professionisti con un forte know-how tecnico, mettiamo a fattor comune il lavoro dei nostri ingegneri in sede o impegnati in pista, accorciando di molto il tempo di reazione e analisi dati.

Alessio Romito, digital innovation manager di Dallara Automobili

Danfoss ha integrato l’Internet of Things e l’intelligenza artificiale, migliorando la visibilità e l’efficienza dalla produzione alla distribuzione. L’AI consente previsioni più accurate della domanda e una gestione efficiente delle scorte, riducendo sprechi e anticipando le esigenze dei clienti. Queste tecnologie hanno migliorato significativamente la qualità dei prodotti, permettendo di monitorare e risolvere rapidamente le anomalie e di

implementare miglioramenti continui. La prototipazione rapida accelera lo sviluppo dei prodotti, garantendo flessibilità e alti standard di qualità prima del lancio sul mercato. Grazie a queste innovazioni, Danfoss è diventata un partner ancor più capace di offrire soluzioni avanzate e affidabili ai propri clienti.

Gaia Balzarini, global director industry affairs and strategic projects di Danfoss Climate Solutions

In questi anni, abbiamo fatto notevoli progressi nell’intelligenza applicata alle macchine, allo scopo di misurare le performance di produzione. Ne abbiamo ricavato benefici certamente dal punto di vista dell’efficienza operativa, ma i risultati raggiunti si traducono anche in esiti positivi sul business poiché, lavorando su commessa, attraverso questi controlli

riusciamo a garantire la consegna nei tempi prestabiliti. La sfida della trasformazione del dato grezzo in elemento di valore è certamente ancora in corso, ma nuove prospettive si stanno aprendo con l’utilizzo dell’intelligenza artificiale, che ci aiuta anche sul sempre delicato fronte della cybersecurity.

Massimiliano Cappa, executive vice president & Cio di Danieli & C. Officine Meccaniche

Ferrero è una grande realtà, che ha messo l’innovazione al centro dei propri piani di sviluppo, in tutti gli ambiti di business. I nuovi paradigmi tecnologici, come l’intelligenza artificiale, possono rappresentare un’opportunità da cogliere ma allo stesso tempo da declinare correttamente all’interno del contesto analizzato. E Ferrero, in linea con la propria tradizione, sta seguendo que-

Immagine di vectorjuice da Freepik

sto approccio. Alcuni di questi sviluppi hanno riacceso il dibattito sull’affidabilità e la consapevolezza nella gestione di informazioni in contesti aziendali, anche in un’ottica di risk management. Anche per questo, stiamo valutando con tutta l’attenzione e la cautela del caso le possibili modalità di sfruttamento dell’AI generativa.

Marco Manganelli, direttore IT di Ferrero Italia

La trasformazione digitale dell’ambiente di produzione è iniziata, al nostro interno, da diverso tempo. Pur dovendo mantenere una necessaria convivenza con sistemi tradizionali ancora centrali per i nostri processi, abbiamo lavorato molto all’integrazione fra il mondo dell’Erp e gli strumenti di fabbrica, mentre ora stiamo studiando un progetto, destinato a completarsi entro il 2025, che prevede la costruzione di isole produttive con capacità di visualizzazione utili al lavoratore per operare in condizioni migliori. Questa iniziativa, di fatto, ci proietta già nel contesto di Industria 5.0, con l’obiettivo di dedicare un’attenzione crescente alle persone, soprattutto in chiave di ergonomia.

Gianantonio Vicentin, IT manager Italy di Ferroli

Ima realizza impianti industriali su commessa, in una logica engineering-toorder che rende complessa l’automazione dell’attività strettamente produttiva. Ciononostante, abbiamo investito molto nella circolazione e nella rapida fruizione di informazioni in azienda e verso i fornitori, per agevolare l’autonomia dei collaudatori e migliorare i processi di approvvigionamento. Allo stesso modo, abbiamo dotato di strumenti di virtualizzazione i nostri progettisti, riducendo notevolmente il margine di errore in fase antecedente alla produzione. Ma anche le macchine che costruiamo contengo -

no una forte componente digitale, utile soprattutto per fare manutenzione preventiva e rafforzare la nostra area di business legata alla servitizzazione.

Pier Luigi Vanti, Ict & Industry 4.0 corporate director di Ima

Nel contesto di una realtà giovane, ma capace di arrivare in dieci anni a un fatturato di oltre 500 milioni di euro, la digitalizzazione deve oggi allinearsi al ritmo di crescita complessivo in tutti i suoi aspetti, compresa ovviamente l’area della produzione. In particolare, ci stiamo concentrando sui processi, sia per eliminare la carte ancora presente sia per ricavare efficienza in termini organizzativi. In quest’ambito rientra, per esempio, l’aggiornamento del sistema di gestione del magazzino, fortemente integrato con la produzione. In prospettiva, abbiamo iniziato il processo di valutazione dell’applicazione dell’intelligenza artificiale: gli ambiti oggetto di approfondimento saranno la gestione dei contratti e la manutenzione predittiva, sia a livello produttivo sia relativamente ai prodotti finiti.

Luca Bonazzi, IT director di Magni Telescopic Handlers

Automazione, robotica, analisi evoluta del dato e utilizzo dell’intelligenza artificiale sono processi già in uso a supporto della nostra strategia industriale. Tra gli obiettivi ci sono la sicurezza, la tracciabilità, l’efficienza dei costi e l’incremento della produttività, insieme alla possibilità di analizzare sempre meglio i flussi dei materiali, prevenire l’errore umano e migliorare la qualità, arrivando fino alla manutenzione preventiva. La digitalizzazione coinvolge tutta la filiera della produzione, a partire dallo stoccaggio delle materie prime, fino alla pallettizzazione, al controllo di qualità e alla consegna del prodotto finito. Non siamo lontani dalla realizzazione di un

digital twin completo di fabbrica ed è allo studio l’applicazione della stessa logica anche allo pneumatico, per riuscire così a passare dal fisico al digitale in tutte le fasi della progettazione. Pier Paolo Tamma, senior vice president & chief digital officer, e Marco Guerrieri, senior vice president manufacturing di Pirelli

Stiamo investendo già da tempo nell’innovazione della produzione, tant’è che abbiamo installato qualche anno fa un sistema Mes che ci consente di organizzare complessivamente la produzione in modo molto più dettagliato. Dopo aver cambiato, lo scorso anno, la componente di gestione del magazzino, ora ci stiamo concentrando sul Plm (Product Lifecycle Management), destinato a diventare il perno del nostro ambiente di produzione. Lavorando alla creazione di dispositivi medici, siamo soggetti a regolamenti stringenti e la possibilità di assicurare tracciabilità e qualità del dato assume una rilevanza strategica. Un controllo più serrato dei parametri di produzione potrà avvenire, in futuro, anche da sistemi di collaudo automatico delle macchine a fine linea, che vorremmo implementare anche per ottenere i dati riutilizzabili all’interno dell’ambiente. Stiamo inoltre connettendo sempre più prodotti in rete per dare un migliore servizio ai clienti e per raccogliere dati. Da ultimo, stiamo facendo i primi esperimenti con l’intelligenza artificiale.

Alessandro Caprara, Ceo di Steelco

Siamo un’azienda che sui temi dell’innovazione si è sempre trovata in posizione piuttosto avanzata. Basti pensare che argomenti tutt’oggi attualissimi, come l’IoT e la relativa capacità di catturare i dati a bordo macchina, da noi sono applicati da molti anni. Semmai in passato

UN APPROCCIO SEMPRE PIÙ HUMAN-ORIENTED

Se osserviamo la ricerca con la lente degli innovatori tecnologici, il report di TIG – The Innovation Group mostra quanto le imprese siano sensibili nei confronti di temi quali l’analisi dei dati e l’efficientamento, aspetti che trovano soluzione in sistemi agevolatori dei processi. Risulta chiaro che gli investimenti in tecnologie tendono sempre più a conciliarsi con gli obiettivi di business; questo per far fronte a un mercato estremamente dinamico che mette le aziende sotto pressione su fronti come la competitività globale, la scarsità di risorse e la mancanza di manodopera specializzata. In questo senso, l’intelligenza artificiale e il machine learning permettono di ottimizzare le procedure produttive, generando effetti tanto desiderati come il massimo sfruttamento delle materie prime, la migliore gestione dei macchinari, l’onboarding facilitato di nuove risorse e la riduzione generale dei costi. Tutti concetti che hanno trovato compatibilità con il paradigma Industria 4.0 a suo tempo e che ora rispondono anche ai più attuali precetti di Industria 5.0. In linea generale, le aziende manifatturiere sono ben predisposte all’adozione di tecnologie innovative: questa ricerca ne conferma l’impegno o, nel caso in cui non abbiano ancora avviato un processo di digitalizzazione, la volontà di svilupparlo nei prossimi anni. Il consiglio che ci sentiamo di dare a queste realtà è di affidarsi a esperti competenti che valutino le tecnologie più adeguate con un approccio human-oriented, per mettere le innovazioni al servizio delle persone.

Noemi Zampiceni, marketing manager di Comarch Italia

occorreva creare ex novo applicazioni e modelli necessari per la raccolta dati, mentre adesso sono arrivati in soccorso gli strumenti di intelligenza artificiale. Non è un caso che, al nostro interno, stia crescendo il gruppo dei data scientist, da noi messi nelle condizioni di poter apportare benefici in termini di risparmi, migliorie, riduzione degli errori e degli scarti. Ora ci stiamo occupando di implementare una mobile private network 5G, in modo da offrire ai nostri utenti una connettività ancor più potente e spingere ulteriormente sulla digitalizzazione.

Roberto Provenzi, IT operations & infrastructure director di Tenaris

Partendo da una raccolta dei dati più strutturata rispetto al passato e convogliata sull’Erp, oggi stiamo avanzando sull’introduzione dell’IoT e sull’automazione in generale, anche se dobbiamo tener presente che non abbiamo una produzione di tipo seriale. Quanto già introdotto ci ha consentito di ottenere benefici in termini di ottimizzazione del tempo lavorato, poiché gli operatori non

sono più costretti a compilare manualmente i documenti. Inoltre, così abbiamo ottenuto una base dati più ampia e precisa per individuare la sorgente di potenziali problemi. Siamo molto concentrati, in questo periodo, su quanto precede la produzione e attiene alla pianificazione e all’ingegneria dei prodotti, con prospettive interessanti per l’integrazione di strumenti di intelligenza artificiale.

Fabrizio Negri, head of IT di Trench Italia

In questo periodo siamo impegnati nell’iter di trasformazione completa della nostra supply chain, a partire dall’organizzazione, passando dai processi per arrivare poi agli strumenti informatici di supporto. Stiamo ripensando anche il nostro Mes, che tra l’altro andrà a includere una componente visuale su tablet, utile per fornire informazioni in tempo reale sull’avanzamento della produzione. Al centro dell’innovazione c’è il ripensamento dei processi e non semplicemente l’introduzione di nuove tecnologie, come accadeva in passato. In questo percorso è fondamentale il coin-

volgimento di tutti i colleghi impattati, soprattutto quelli più resistenti al cambiamento.

Mauro Angelo Bernareggi, group Cio di Umbra Group

L’IoT è l’area che al momento meglio identifica il processo di innovazione di una realtà come la nostra, impegnata nella produzione di componentistica per il mondo degli ascensori. L’obiettivo è raccogliere i dati delle macchine di produzione per poterne analizzare l’efficienza e la produttività. In futuro, dovremmo allargarne l’impiego per anticipare le rotture e arrivare quindi alla manutenzione predittiva. Abbiamo anche l’intenzione di diventare un’azienda data-driven, quindi stiamo puntando sulla Business Intelligence per convogliare dati provenienti dalle fonti più svariate e creare dashboard e reportistica che aiuteranno a rendere più efficienti le attività dei nostri utenti. Molte aspettative sono riposte sull’AI applicata alla reportistica e al knowledge management interno, anche con strumenti generativi. Uma Shankar, group Cio di Wittur Group

CONCRETEZZA E INNOVAZIONE: UN DOPPIO MOTORE

Grazie a diversi fattori di spinta, come l’AI e (ancora) il cloud computing, il settore informatico italiano è vitale. Ma le aziende sono caute nell’investire.

Il mercato digitale si conferma volano di crescita e innovazione per l’intera economia italiana. Se nella Pubblica Amministrazione la spinta agli investimenti in informatica e telecomunicazioni è arrivata soprattutto dal Pnrr, sono anche i diversi settori verticali a concorrere alla crescita. È un momento di forte impulso per una digitalizzazione più evoluta, una trasformazione che guarda avanti e punta a sfruttare i dati. Il mercato digitale italiano si compone

di diversi attori: società di servizi IT, system integrator, software house, fornitori di servizi cloud. Tutti chiamati, oggi, a cogliere la sfida dell’intelligenza artificiale, che richiede di poter contare su uno stack infrastrutturale, di dati e applicazioni, di capacità elaborativa distribuita in cloud e di compliance ai regolamenti. Si tratta di uno sviluppo che non riguarda soltanto l’AI in sé stessa (gli algoritmi basati su tecniche di machine learning più classiche o i Large Language Model dell’intelligenza artificiale generativa) ma abbraccia tutto quanto l’ha preceduta, in termini di disegno architetturale, di know-how, di interoperabilità tra sistemi e silos informativi eterogenei. Le voci che proponiamo nelle prossime pagine, estratto di una ventina di interviste svolte da TIG – The Innovation Group con gli operatori del settore, sono

testimonianze dirette di questo apporto innovativo e contestualizzato, che contribuisce a rivitalizzare l’economia italiana. Il paradigma del cloud computing, ad esempio, oggi adottato dalla maggioranza delle aziende di qualsiasi settore e dimensione, ha avuto nell’ultimo decennio un’influenza fondamentale sui portafogli di offerta delle aziende Ict, modificando radicalmente le modalità di produzione ed erogazione del software, per avvicinarle con un time-to-market ridotto alle esigenze finali dei clienti.

Oltre ai software frammentati e distribuiti in vari cloud, un altro trend attuale è quello del governo dei dati, che non si vogliono più compartimentati in silos, bensì centralizzati e interoperanti. In un mondo sempre più interconnesso e distribuito, i dati diventano patrimonio trasversale da rendere accessibile per attività di analytics e per i nuovi sviluppi legati all’AI. A tutto questo si aggiunga la necessità di uno strato pervasivo di cybersecurity, con un approccio che da infrastrutturale diventa sempre più orientato al software.

L’offerta precede la domanda

Che cosa chiedono le aziende clienti? Con riferimento all’AI, come già avvenuto in precedenza, l’offerta gioca d’anticipo rispetto alla domanda. Se è vero che le aziende clienti sono molto interessate all’intelligenza artificiale, è anche vero che oggi i percorsi di adozione dell’AI generativa sono ancora in fase iniziale. Discorso diverso per il machine learning “tradizionale”, che è già utilizzato e presente in molteplici soluzioni negli ambiti più disparati, dal customer service, alla contabilità finanziaria fino ai monitoraggi di cybersecurity. Con riferimento alla GenAI, invece, le aziende utenti devono ancora comprendere quali saranno i casi d’uso che li riguardano più da vicino e con cui realizzare un reale vantaggio competitivo. Siamo infatti in un’era di

Immagine di Freepik

innovazione ma anche di concretezza, e gli investimenti in tecnologia sono oggi considerati con attenzione da un management aziendale più accorto rispetto al passato. I clienti spendono solo se valutano di ottenere, con il digitale, dei reali vantaggi di business.

Green IT in ascesa

Un’altra tendenza che vede sempre più gli operatori del mercato ICT impegnare risorse e sviluppi è il green IT: in linea con i nuovi tempi, il concetto della sostenibilità ambientale e sociale rinnova la proposizione di offerta Ict. Questo perché sono le stesse aziende clienti (in primis la grande impresa e le multinazionali, ma sempre di più anche le medie imprese tipiche del tessuto produttivo italiano) a richiedere requisiti di ecosostenibilità fin dalle prime fasi della negoziazione commerciale. Una tendenza che vedrà più il digitale assumere un ruolo centrale nell’attuazione degli obiettivi green delle imprese, anche con il supporto delle risorse del Piano Transizione 5.0 (circa 13 miliardi di euro nel biennio 2024-2025) per la modernizzazione tecnologica in ottica green e per soluzioni innovative che favoriscano sostenibilità, inclusione sociale ed equità.

Le nuove tendenze del digitale, che si tratti di AI, Big data, cybersecurity o green IT, richiedono poi agli operatori dell’offerta di operare in eterogenei ecosistemi di player, coinvolgendo quindi in modo trasversale sia aziende del canale (rivenditori, distributori, altre società di servizi che contribuiscono a raggiungere un maggior numero di clienti con offerte ampie e diversificate) sia player dell’innovazione come startup, università, incubatori e poli pubblici.

Nonostante una serie di ostacoli e difficoltà, il mercato digitale italiano rimane un fiore all’occhiello della nostra economia, per le capacità imprenditoriali dimostrate, per l’apertura internazionale e anche per la creatività del genio italico

applicata ai nuovi paradigmi del cloud, dell’AI, della cybersecurity e del green IT. La risposta alle sfide del mercato passa per i digital driver: la migrazione verso soluzioni cloud consente di migliorare l'agilità e la scalabilità delle operazioni, e inoltre l’approccio “as-a-service” consente di rispondere rapidamente ai cambiamenti del mercato. L’Internet of Things (IoT) e le piattaforme di Big Data supportano l’integrazione di dati

da più fonti per funzionalità avanzate di analisi e automazione. E in tutto questo la Generative AI ha grandi potenzialità in termini di ottimizzazione dei processi, produttività, efficienza e riduzione dei costi operativi. In questo contesto, riveste un ruolo sempre sempre più centrale la sicurezza informatica, necessaria per proteggere i dati e per mantenere la fiducia dei clienti.

GLI OSTACOLI ALLA CRESCITA

Dalle interviste emergono anche alcune criticità, elementi che limitano la crescita dell’intero sistema di offerta Ict. Vediamo i principali.

- Talenti. I rapidi sviluppi tecnologici stanno rendendo molto difficile per il sistema educativo soddisfare le esigenze del mercato del lavoro. Si assiste a una vera e propria caccia ai talenti nelle attività di selezione, che prosegue poi con azioni di retention del personale (per contrastare la tendenza all’abbandono) con investimenti su welfare, formazione costante, incentivi, gestione per obiettivi e hybrid working.

- Competizione. Il settore della consulenza tecnologica è altamente competitivo, esige continui investimenti per innovare, differenziarsi e mantenere il vantaggio sulla concorrenza. La stessa rapida evoluzione tecnologica richiede ricerca e sviluppo e un costante aggiornamento delle competenze del personale.

- Capitali. Manca un sistema finanziario di venture capital italiano che sostenga la crescita e gli investimenti nel settore.

- Tariffe professionali. Da anni si osserva una contrazione delle tariffe professionali, legata soprattutto ai ribassi a volte insostenibili nelle gare della Pubblica Amministrazione. Ciò ha come conseguenza un costante impoverimento e una maggiore difficoltà nel reperimento di talenti.

- Cultura digitale. Le piccole e medie imprese spesso sono refrattarie al cambiamento e difettano di una cultura digitale; competenze di natura informatica sono spesso assenti anche nei board. Nella Pubblica Amministrazione Locale si osserva un disallineamento rispetto al mondo privato in termini di capacità e velocità di innovazione.

- Incertezza normativa. Gli investimenti nascono da una convergenza di obiettivi business e IT: l’incertezza del quadro normativo (ad esempio sui crediti d’imposta) diventa un fondamentale inibitore.

- Lavoro. I professionisti, anche nel settore Ict, spesso faticano a rimettersi in gioco: una situazione che non favorisce i cambiamenti ed è frutto di una legislazione italiana molto orientata a tutelare il lavoratore, poco invece ad aiutare le aziende.

FRA TECNOLOGIE E COMPETENZE DA COLTIVARE

Capgemini investe In Italia sull’Open Innovation e ha un team specializzato nelle collaborazioni con le startup, i cui vantaggi sono molteplici: la capacità di proporre soluzioni innovative ai nostri clienti, di differenziarci dalla concorrenza e di favorire una cultura aziendale incentrata sull'innovazione. Negli ultimi diciotto mesi abbiamo selezionato oltre 30 startup potenziali partner e abbiamo creato casi d’uso specifici per i nostri clienti, sviluppando un'offerta dedicata e offrendo servizi di scouting Diego Chiavarelli, chief marketing officer & vice president di Capgemini Italy

In Datrix ci concentriamo sull’applicazione dell'AI in due aree chiave: la monetizzazione dei dati e l'ottimizza-

zione dei processi industriali e aziendali. Attraverso le diverse società del nostro Gruppo, affrontiamo le sfide e risolviamo i problemi concreti di oltre 300 clienti in vari settori, dall’industria al retail, dalla distribuzione al settore bancario. Quest’ultimo, in cui serviamo circa quindici banche, è particolarmente pronto a trarre vantaggio dall’integrazione dell’AI per valorizzare i propri dati: dall’efficientamento dei processi interni alla creazione di servizi bancari su misura per i clienti.

Fabrizio Milano D'Aragona, Ceo & co-founder di Datrix

La pervasività digitale sta trasformando i dati e gli strumenti di creazione di valore, come l’intelligenza artificiale, in protagonisti centrali del nostro tempo.

Questa rivoluzione apre nuove prospettive, promette servizi inediti e modalità di interazione avanzate con il mondo materiale. Per questo, Deda investe e collabora con centri di ricerca, università e startup, espandendo un ecosistema di innovazione distribuita e aperta che alimenta competenze, soluzioni e modelli di business.

Roberto Loro, director technology & innovation – Cto di Dedagroup

La sfida, non solo per gli operatori del mercato digitale italiano ma anche per le aziende nel loro complesso, è l’adozione efficiente ed efficace dell’intelligenza artificiale. Il nostro obiettivo è evitare il “paradosso dell’AI” ovverosia che un’adozione troppo acerba o mal gestita porti più a inefficienze che non a una radicale trasformazione. Per questo ci stiamo focalizzando su programmi di adoption verticali per una formazione capace di mettere a regime le diverse potenzialità.

Cora Scandroglio, head of marketing & communication di Econocom International Italia

Il tema del green IT è molto importante per noi: il data center Elmec, ad esempio, è nativo green e il nostro Campus Tecnologico si avvia verso l’autonomia energetica. Nell’ultimo anno abbiamo lavorato molto sulla neutralità carbonica dei nostri servizi. Inoltre, con la settimana della sostenibilità di giugno, abbiamo coinvolto clienti e stakeholder per approfondire il valore del benessere azienda-

le, per noi centrale in ogni iniziativa. Aspetto indispensabile per garantire competitività all’impresa, oggi inevitabilmente rappresentata, in ambito IT, dall’intelligenza artificiale.

Alessandro Ballerio, amministratore delegato di Elmec Informatica

Oggi la digitalizzazione è un elemento imprescindibile per lo sviluppo del Paese. In Engineering siamo però convinti che le nuove tecnologie debbano supportare non solo la crescita economica ma anche quella sociale, generando benefici reali per tutti. Per riuscirci bisogna puntare alla costruzione di un delicato equilibrio tra la spinta all’innovazione e la tutela dei diritti individuali e collettivi. È per questo motivo che il nostro Gruppo si impegna nel supportare e alimentare sinergie tra istituzioni e industria, e tra il mondo della formazione e quello della ricerca.

Emanuele Cacciatore, offering, innovation and go-to-market director di Gruppo Engineering

Abbiamo investito molto per integrare la tecnologia di AI con l’obiettivo di consentire ai nostri clienti di sfruttarne i benefici mantenendo il pieno controllo sui propri dati, garantendo sicurezza e privacy. I servizi offerti includono la gestione intelligente dei processi, come la classificazione e gestione delle email (o PEC), i chatbot per risposte su knowledge base aziendale, l’automazione nel recupero di file da cassetti fiscali o doganali e la gestione di dati da documenti non strutturati.

Alberto Berti, Ceo e sales manager di Faber System

La nostra specializzazione sta nel disegnare l’architettura IT sulla base dei bisogni complessivi del cliente, soppesando l’utilizzo di varie componenti (servizi

cloud, on-premise, con o senza servizi gestiti) e giungendo a un allineamento ideale tra le esigenze di business e l’architettura a supporto. La capacità di immaginare un mix di cloud privato, ibrido e on-premise è fondamentale in questa ottica, e lo sarà ancora di più man mano che le applicazioni di AI entreranno in azienda.

Danilo Rivalta, Ceo di Finix

Un ostacolo allo sviluppo del mercato digitale è l’accesso al credito, che è difficoltoso soprattutto per le Pmi; servirebbe rendere più veloce l’accesso almeno ai fondi per la ricerca e sviluppo. C’è poi il tema delle tariffe professionali, che

nell’IT sono molto basse (leggermente più alte al Nord). Una buona sinergia con le startup digitali permette alle medie aziende un completamento della propria offerta: lo sviluppo dell’ecosistema delle neo imprese in Italia va difeso e sviluppato.

Alfredo Adamo, presidente di Frontiere

La Generative AI presenta enormi opportunità per aumentare la produttività delle organizzazioni ma anche alcune criticità riguardanti trust e compliance Ibm ha deciso di sviluppare una piattaforma, watsonx, basata su approccio open, scalabile, responsabile e personalizzabile con dati proprietari. I founda-

Immagine di standret su Freepik

tion model di Granite, infatti, sono aperti alla comunità open source e, grazie al progetto InstructLab avviato con Red Hat, sono personalizzabili con dati aziendali proprietari in modo più rapido ed economicamente meno oneroso. Senza mai perdere di vista la governance della tecnologia.

Maurizio Decollanz , direttore marketing e comunicazione di Ibm Italia

Infocert si caratterizza per il forte impegno nell’innovazione digitale, avendo ottenuto negli ultimi sei anni 22 brevetti internazionali, e proteggendo molte delle soluzioni a portafoglio con uno o più brevetti. Con avvento dell’AI Generativa, creare documenti o immagini fasulle sarà sempre più facile: da qui l’importanza di utilizzare strumenti per il digital trust. Una firma digitale con marca temporale, oltre a garantire la veridicità di un contenuto sul Web, permette di certificare anche un processo.

Danilo Cattaneo, amministratore delegato di Infocert

Il tema dell'ecosistema è di fondamentale importanza. A questo scopo abbiamo avviato il Lutech Campus, innovativa piattaforma di Open Innovation, essen-

ziale per mantenere rapporti stretti con le università, i centri di ricerca e soprattutto con le startup più innovative, per le quali prevediamo un programma di accelerazione. Questo approccio è particolarmente rilevante nell’ambito dell’intelligenza artificiale, in cui lo sviluppo di un ecosistema ricopre un ruolo fondamentale.

Alberto Roseo, chief marketing, communication & innovation officer di Lutech

Un trend digitale molto importante sarà l’intelligenza artificiale, su cui M-Cube sta già investendo, principalmente nelle area della produzione e del customer service. L'AI verrà integrata nella produzione e gestione dei contenuti, nel supporto tecnico ai clienti e nel servizio clienti after sales. Come strumento di ottimizzazione interna, l'AI sarà fondamentale nella collaborazione aziendale per una multinazionale come la nostra, con uffici nel mondo.

Manlio Romanelli , presidente di M-Cube

In tema di AI, le tecnologie oggi ci sono ma manca ancora la chiarezza su che cosa sia possibile realizzare. Noi cerchiamo di prendere i clienti per mano

e di guidarli sui casi di utilizzo. Serve quindi fare sinergia con un ecosistema di partner che portino consulenza e soluzioni applicative. Oracle punta strategicamente al controllo di tutto lo stack, con un’offerta end-to-end incentrata sulla sicurezza dei dati, dall’addestramento dei Large Language Model con il nostro cloud infrastrutturale (Oci) fino all’integrazione della GenAI nelle nostre applicazioni SaaS.

Andrea Sinopoli , vice president e country leader cloud technology di Oracle Italia

La competizione per la ricerca dei talenti è elevata e attrarre giovani con competenze adeguate è una sfida costante. Inoltre, formare adeguatamente queste risorse rappresenta un ulteriore ostacolo: il gap tra le competenze possedute dai giovani laureati e quelle richieste dall’industria tecnologica è spesso significativo. Per questo da oltre 15 anni attiviamo percorsi post-laurea ad alta specializzazione, chiamati Sanmarco Academy. Si tratta di veri e propri master aziendali in linea con le richieste di prodotto e di mercato.

Michele Romano, business unit manager di Sanmarco Informatica

Immagine di Freepik

Il cloud abilita molti aspetti rilevanti per un’azienda, ad esempio aumentando la velocità di risposta ai cambiamenti imprevisti di mercato e la flessibilità. La necessità di diminuire il time-tobenefit orienta i clienti a standardizzare i processi in cui non risiedono vantaggi competitivi critici. Quanto più i progetti sono standard e in cloud, tanto più è facile ed economico migrare i sistemi verso nuove release. Il SaaS permette, infatti, un accesso costante alle ultime innovazioni. Sap offre soluzioni cloud anche alle Pmi, con una riduzione sensibile della soglia di ingresso e del costo totale di possesso (Tco).

Adriano Ceccherini , chief business officer di Sap Italia

Le tariffe professionali Ict nel nostro Paese sono fortemente depresse rispetto ai parametri internazionali, per cui i salari sono medio-bassi e molti professionisti IT lasciano le aziende italiane per realtà internazionali. In uno scenario di twin transition in cui i sistemi tecnologici rappresentano la spina dorsale, la nostra azienda investe sia sulla formazione di giovani talenti in materia cybersecurity sia sulla creazione di soluzioni software proprietarie: con l’applicazione dell’AI possiamo identificare le attività fraudolente e unitamente a programmi di awareness avanzato riduciamo notevolmente i rischi per i nostri clienti.

Alvise Biffi , co-founder & Ceo di Secure Network –BvTech

Un problema trascurato è quello della fallibilità dell’intelligenza artificiale, che è legata principalmente al fattore umano. L’uomo deve essere al centro dell’AI ma questo rende possibile l’errore. Poiché l’AI non è perseguibile, ne risponde l’azienda, e qui nasce un problema: nel momento in cui si compie la scelta di adottare questa tecnologia, l’azienda

deve tutelarsi e dimostrare di aver messo in atto tutte le procedure previste dalle norme, nel caso poi si verifichi un problema legato all’AI. L’utilizzo consapevole e controllato dell’intelligenza artificiale è cruciale per garantire sicurezza, etica, qualità decisionale ed efficienza operativa. Data l’attuale impossibilità di attribuire all’AI la soggettività giuridica, sorge la complessa questione della responsabilità legale in caso di danni o illeciti causati da sistemi di intelligenza artificiale. Per mitigare i rischi di responsabilità civile e penale, le aziende devono implementare un solido framework di gestione e controllo (AI Liability Shield). Questo processo strutturato mira a prevenire e gestire eventuali irregolarità o reati commessi attraverso l’interazione con sistemi di AI.

Pierguido Iezzi , strategic business director di Tinexta Cyber

Con riferimento all’AI, le aspettative dei clienti sono troppo elevate. Non esistono automatismi che assicurino, con la GenAI, il livello di qualità del software che oggi si ottiene con un supporto manuale. La GenAI può facilitare alcune attività, e sicuramente col tempo cambieranno le modalità con cui si eseguiranno i test del software; occorre però pragmatismo sulle aspettative. Noi abbiamo avviato piani di formazione e certificazione internazionali sull’uso della GenAI orientata al testing e stiamo valutando soluzioni nuove che si affacciano ora sul mercato.

Maria Grazia Brunetti , Ceo di Txt Quence

VoipVoice presta grande attenzione alle persone. Applichiamo lo smart working grazie al lavoro per obiettivi e alle tecnologie abilitanti e garantiamo l’orario flessibile. Abbiamo a cuore le pari opportunità: con una direzione composta

al 68% da donne, siamo una mosca bianca nel comparto Ict italiano. Dedichiamo molto tempo alla selezione dei futuri collaboratori che, una volta entrati, seguono un percorso di onboarding con formazione sui servizi e tecnologie oltre che con affiancamento e formazione continua nel tempo.

Martina Giacomelli , communication & digital PR manager di VoipVoice

Gli investimenti in R&D sono strategici per competere a livello globale e bisogna avere il coraggio di assumersi rischi per raggiungere obiettivi ambiziosi. Ogni giorno arrivano sul mercato innovazioni potenzialmente in grado di cambiare le regole del gioco, come l’AI, ed è importante farsi trovare preparati. L’evoluzione digitale è alla portata di ogni business, anche i più piccoli: non è la tecnologia a fare la differenza ma il modo in cui le persone sono in grado di accoglierla e farla fruttare.

Giovanni Farese, co-founder di Webidoo

Immagine di Racool_studio su Freepik

UNA SOLUZIONE SEMPLICE IN UN MECCANISMO COMPLESSO

Per rilevare potenziali minacce nella propria Intranet, l’azienda metalmeccanica ha scelto Qnap.

Paragonando il funzionamento di un’azienda a un ingranaggio complesso, la cybersicurezza è una rotella fondamentale, senza la quale l’intero meccanismo si sgretola. E la cybersicurezza è essa stessa un ingranaggio, composto da più parti che devono coordinarsi e combaciare tra loro. La metafora ben si adatta a Lomec Ingranaggi, società metalmeccanica bolognese fondata nel 1975, che opera come fornitore per colossi del settore automobilistico e motoristico, tra cui Stellantis, Iveco, Cnh, Omp, ZF e Bosch. L’azienda dà lavoro a una novantina di persone e si estende su tre stabilimenti di proprietà (due siti produttivi e un magazzino) di circa 3.500 metri quadri l’uno. “I nostri clienti richiedono ai fornitori di primo livello una serie di certificazioni, non solo di qualità ma anche di cybersicurezza”, racconta Daniele Sacchetti, responsabile IT di Lomec Ingranaggi. “Lavoriamo su progetti coperti da copyright e dobbiamo quindi garantire ai nostri clienti che tali progetti non escano dalla nostra azienda e anche spiegare come lo garantiamo, questo impegno viene verificato annualmente tramite audit condotti dai clienti stessi. A supporto di questa politica, l’azienda adotta un controllo di qualità rigoroso quotidiano, garantendo che ogni fase del lavoro rispetti i più elevati standard di sicurezza e precisione. Inoltre ci vengono richieste tempistiche di consegna rigorose, che dobbiamo rispettare per evitare penali salate”. Da qui la grande attenzione, in Lomec, ai temi della cybersicurezza, della protezione dei dati e della continuità operativa. L’architettura IT aziendale si fonda su centro di elaborazione dati che ospita 22 macchine virtuali, con due nodi configurati in

cluster in ambiente ridondato, (i nodi durante il normale utilizzo si dividono il carico di lavoro delle virtual machine, ma se uno dei due non è disponibile l’altro subentra in automatico). I cluster sono collegati tramite schede di rete a più switch di core, isolati e ridondati dalla restante rete e interfacciati tra di loro con un collegamento ad anello su fibra ottica. La stessa tecnologia di rete ad anello è stata sviluppata per interconnettere i tre stabilimenti (in modo da poter ridirezionare i dati se una tratta viene interrotta sia sulla rete core sia sulla Lan). L’azienda già disponeva di firewall di fascia enterprise, antivirus, sistemi antispam e di una soluzione di Endpoint Detection and Response. In questo “ingranaggio” mancava però una rotella: il rilevamento di attività sospette all’interno della rete. “Se un utente esterno, magari un consulente, si collega tramite cavo di rete alla Lan oppure tramite una connessione Vpn, quel Pc potrebbe contenere un malware latente e il firewall non potrebbe rilevarlo”, esemplifica Sacchetti. Il responsabile IT si è quindi affidato al proprio partner tecnologico, MisterWeb, che ha proposto i sistemi Adra di Qnap: si trat-

LA SOLUZIONE

Un sistema Adra è stato installato nel data center principale, collegato fisicamente alla Lan dei firewall, alla Wan, al controller della rete Wi-Fi, alle interfacce di gestione dei nodi, e ai Nas in utilizzo, per poi essere connesso alla Lan principale per il controllo della rete; l’altro è stato installato nel centro elaborazione dati del magazzino, collegato tramite PoE (Power over Ethernet) a sei antenne Wi-Fi, al sistema di videosorveglianza e all’antifurto.

ta di switch dotati di funzioni di rilevamento e risposta alle minacce sulla rete, ovvero di Network Detection & Response (Ndr). “Qnap ci offre prodotti di nuova generazione, che consentono a noi partner di proporre sempre qualcosa di nuovo e inedito, stimolando la curiosità dei team manager”, assicura Matteo Gualandi, sales account di MisterWeb. “Un prodotto come Adra ci ha da subito entusiasmati perché è una soluzione che non si sostituisce al firewall ma integra in modo molto efficiente la parte di protezione Intranet. L’offerta di Qnap per me è di altissimo livello e ha il vantaggio di potersi integrare anche in realtà aziendali più piccole”. Dopo una fase di test, Lomec ha scelto di utilizzarli proprio per le funzioni Ndr, usando invece altri switch per gestire la rete ad anello. I due sistemi Adra adottati rilevano potenziali minacce sulla rete Lan, sulla Wan, sui Nas, sulla Vpn, sul sistema di videosorveglianza e sull’antifurto. “Volevamo un sistema che potessimo controllare completamente e che avesse costi ragionevoli”, spiega Sacchetti. “Abbiamo scelto gli Adra di Qnap perché svolgono un’attività che i miei firewall non svolgono: riescono a capire se all’interno della rete ci sia qualcosa che non va, che si discosta dai comportamenti standard. Inoltre apprezziamo molto la possibilità di creare, con Adra, delle istanze “trappola” (honeypot) che fungono da esca per potenziali malintenzionati, identificano l’IP sorgente ed eventualmente bloccano tutte le sue attività in modo del tutto automatico, avvisando della minaccia gli amministratori IT ”.

NUOVI STRUMENTI

PER NUOVI MODI DI LAVORARE

Guidata dal partner Insight, la società cooperativa ha creato una nuova Intranet basata su Microsoft 365, migliorando la sicurezza e il controllo sui dati.

La trasformazione digitale per un’azienda si fonda spesso su nuovi strumenti informatici ma anche sull’apertura mentale al cambiamento, sulla disponibilità a modificare le abitudini consolidate per andare verso il meglio. Coopservice, società cooperativa leader nella fornitura di servizi di pulizia, sicurezza, logistica, energy e facility management, fino al recente passato utilizzava cartelle condivise e altri repository per contenere le informazioni e i documenti dei vari dipartimenti: tale prassi, pur rappresentando una comoda abitudine per la maggior parte dei dipendenti, in realtà era problematica. L’utilizzo eterogeneo di strumenti come Microsoft Sharepoint, Teams e OneDrive for Business, e l’uso esteso della condivisione di rete rappresentavano potenziali rischi per la sicurezza dei dati, oltre a favorire la creazione di file duplicati. “La situazione era quella di una proliferazione di informazioni duplicate e obsolete”, racconta Marco Caprari, IT infrastructure architect di Coopservice. “Mancava una governance sui dati aziendali ed esisteva un potenziale rischio per la sicurezza”. L’obiettivo aziendale del raggiungimento della certificazione ISO 27001, che richiede una corretta g estione dei documenti, aveva evidenziato la necessità di processi strutturati di controllo e governo dei dati. Inoltre l’azienda era sprovvista di flussi di lavoro comuni e ben definiti. “A seguito dell’introduzione dello smart working”, spiega Elena Ferrarini, IT project manager di Coopservice, “dovevamo trovare un nuovo modo per ge-

stire lavoratori che quasi quotidianamente svolgono la propria operatività da remoto. Questo ha portato a due esigenze: in primo luogo, accompagnare gli utenti in questo nuovo modo di lavorare, e in secondo luogo iniziare a gestire in maniera molto più controllata e restrittiva le questioni legate alla sicurezza dei dati”.

Per questo progetto, realizzato nel corso del 2023, è stato naturale per Coopservice rivolgersi a Insight, il partner che già l’aveva affiancata nell’opera di migrazione in cloud. Come lavoro preliminare, i project manager di Insight hanno strutturato un processo di interviste per identificare gli “utenti chiave” nelle varie funzioni aziendali e i processi su cui era necessario intervenire. “Insight è stata un partner affidabile e competente e soprattutto ci ha aiutato nella fase di change management, che per un progetto di questo tipo è estremamente delicata”, assicura Gianfranco Scocco, Cio di Coopservice. “Stiamo creando cultura in azienda: questo cambiamento di mindset è importante perché pone le basi per i futuri progetti di digitalizzazione”.

LA SOLUZIONE

La nuova Intranet aziendale basata su Microsoft 365 prevede l’uso di Sharepoint, Teams e OneDrive per la condivisione dei file, le comunicazioni e l’archiviazione. A oggi sono stati migrati 13 TB di dati e 9 milioni di file circa.

La creazione di una Intranet collaborativa, basata su Microsoft 365, ha permesso all’azienda di supportare le policy di smart working e assicurare affidabilità e sicurezza a documenti e informazioni aziendali. Il progetto ha previsto una riorganizzazione dell’infrastruttura di Sharepoint e l’ottimizzazione dei canali di Teams e dell’archiviazione su OneDrive for Business. Il progetto ha coinvolto finora tutte le funzioni di staff, circa 600 utenti, ma l’obiettivo è di estenderlo all’intera azienda.

“Insight”, prosegue Ferrarini, “ci ha aiutato non solo a realizzare il progetto ma anche a gestire la transizione senza generare ansie e resistenze negli utenti. Ora si sentono molto più confidenti nell’uso della tecnologia, e abbiamo rilevato un miglioramento significativo del modo in cui percepiscono e gestiscono i loro dati”. Questo è confermato dalla riduzione, pari al 50%, delle richieste di supporto IT. Altri risultati li illustra Caprari: “Abbiamo ottenuto una governance puntuale sui dati, come previsto dalla certificazione di qualità e sicurezza ISO 27001. Abbiamo semplificato e riorganizzato l’infrastruttura, ottimizzato la g estione degli spazi di archiviazione e dei processi di backup. Questo cambiamento culturale sarà la base per i futuri progetti di digitalizzazione”.

DALLA RETE ALLA PROTEZIONE TOTALE

La struttura sanitaria campana ha scelto Cisco per il monitoraggio e la risposta alle minacce cyber.

Fra mille difficoltà e continui tagli, la sanità italiana non rinuncia all’evoluzione tecnologica. Spesso partendo da situazioni di arretratezza digitale, per compiere però in un’unica soluzione un salto in avanti verso lo stato dell’arte richiesto oggi. Una testimonianza in tal senso arriva dall’Ospedale Pediatrico Santobono-Pausilipon di Napoli, dove fino a non molto tempo fa non esisteva nemmeno un’infrastruttura di rete propriamente detta.

Lo scenario è cambiato con l’arrivo di Gennaro Sirico nel ruolo di responsabile IT: “Sfruttando la possibilità, piuttosto rara, di poter costruire praticamente da zero e di dover coprire un’organizzazione distribuita su due soli presidi”, ricorda il manager, “abbiamo iniziato nel 2009 con il cablaggio strutturato, per poi scegliere le tecnologie abilitanti di tutte le comunicazioni verso l'interno e l'esterno. Nel tempo,

abbiamo introdotto la telefonia analogica, fatto crescere la banda passante per arrivare a 10 Gbit, integrato apparati per la gestione delle videoconferenze e siamo stati fra i primi ad aderire alla convenzione Psn per la migrazione lift & shift verso il cloud della nostra infrastruttura”.

Lo scorso anno l’azienda ospedaliera ha compiuto un ulteriore passo attraverso il progetto Cyber Plus, che ha permesso di rafforzare tutta la componente di sicurezza informatica a livello di presidio. “Anche qui dovevamo rimediare a una situazione resa complessa dalla preesistente disomogeneità delle connessioni in rete, dall’utilizzo diffuso di dispositivi di memoria Usb, dalla necessaria implementazione di connessioni Vpn nel periodo Covid e dall’obsolescenza dei Pc collegati ai dispositivi elettromedicali”, racconta Sirico.

“Abbiamo deciso di dotarci di firewall di nuova generazione, implementare un

LA SOLUZIONE

Cisco Xdr, utilizzata da Ospedale Santobono, raccoglie e correla dati e telemetria da più fonti (rete, cloud, endpoint, e-mail, identità e applicazioni) per fornire visibilità unificata e contesto approfondito su minacce avanzate. Include funzionalità di network detection & response native integrate e si integra con Cisco Umbrella, piattaforma software di protezione della rete aziendale basata su cloud.

Siem, rafforzare il controllo degli accessi tramite autenticazione multifattoriale. Soprattutto, siamo riusciti a ricondurre l’infrastruttura sotto un’unica centrale di controllo, lavorando in continuità con la scelta di campo storica verso Cisco, per adottare le soluzioni Xdr e Umbrella, quest’ultima per monitorare ciò che da noi viaggia verso l’esterno”.

Oggi l’Ospedale Santobono, in particolare il Soc interno, grazie a Cisco dispone di una dashboard unificata per la rilevazione in tempo reale della presenza di malware e si avvale del servizio di risposta agli incidenti messo a disposizione per un rapido intervento in caso di attacco. Inoltre ha potuto porre rimedio al problema dell’obsolescenza dei sistemi collegati ai dispositivi elettromedicali, utilizzando la soluzione di Virtual Patching di Cisco. A oggi, la correlazione fra i dati provenienti dalle fonti tecnologiche presenti in azienda ha già prodotto una più rapida individuazione dei falsi positivi e degli eventuali data breach: “Dobbiamo essere allineati a una normativa che impone la comunicazione alle autorità entro 72 ore”, precisa Sirico, “anche se per noi il massimo punto di attenzione riguarda la prevenzione dai ransomware, che sappiamo essere arma prediletta degli ormai numerosi gruppi specializzati nell’attacco alle infrastrutture sanitarie”.

UN ERP ALLEATO DEL PACKAGING

L’adozione di Sap Business One ha permesso di migliorare la tracciabilità, la gestione e la qualità della produzione.

Una storia di famiglia, iniziata nel 1961 e proseguita con un continuo orientamento all’innovazione e, oggi, anche alla sostenibilità. Plastopiave è un’azienda di Conegliano, in provincia di Treviso, che da più di sessant’anni è sinonimo di produzione e stampa serigrafica di imballaggi personalizzati, arrivata a sviluppare un fatturato annuo di 55 milioni di euro (nel 2023). Dal suo stabilimento di 40mila metri quadri escono flaconi, vasi, barattoli, pilloliere e taniche per l’industria cosmetica, farmaceutica, alimentare, chimica e automobilistica, creati con un alto livello di personalizzazione e con la possibilità di progettare stampi su misura. La ricerca di materiali a basso impatto ambientale ha portato all’impiego di materiali di recupero e bioplastiche per la realizzazione di contenitori a uso alimentare e cosmetico, a loro volta riciclabili. Il parco macchine per la produzione è completamente elettrico, alimentato da pannelli fotovoltaici e altre fonti rinnovabili, e inoltre è stato installato un impianto di trigenerazione che consente il recupero dell’energia termica (riutilizzata poi per processi di riscaldamento o raffreddamento).

Per garantire una costante conformità del prodotto alle normative di riferimento del settore di destinazione, Plastopiave deve operare con standard qualitativi molto elevati e in un contesto produttivo e ambientale altamente sicuro. Deve, inoltre, gestire aspetti tecnici e burocratici nelle dichiarazioni obbligatorie rese al Conai, il Consorzio Nazionale Imballaggi. Fino al recente passato l’azienda non era però dotata di un sistema Erp strutturato e standard, che potesse garantire il giusto “sostegno” e apporto di dati per i processi di tracciabilità

e certificazione. Il nuovo sistema ricercato da Plastopiave avrebbe anche dovuto integrarsi con i software verticali in uso. Da qui la scelta di rivolgersi alla tecnologia sinonimo di Erp: la necessità di creare un sistema di tracciabilità altamente qualificato, sostenuto da un’infrastruttura IT complessa e ricca di informazioni, è uno dei fattori che ha indirizzato l’azienda veneta su Sap. La soluzione Sap Business One, adottata da Plastopiave con il supporto di Var One Nord Est, permette di gestire e tracciare tutte le informazioni sul ciclo di realizzazione del prodotto, incluse le certificazioni, i risultati dei test di laboratorio, le schede tecniche delle materie prime utilizzate e tutte le lavorazioni effettuate. “La rigorosità di Sap Business One è strategica per gestire la complessità di processi e la mole di informazioni tipiche del nostro settore”, spiega Luigi Fedato, operations & HR manager di Plastopiave. “Inoltre, strumenti all’avanguardia sono la chiave per consolidare la nostra posizione nel mercato. Grazie al supporto di Var One Nord Est, che ha saputo sostenere l’implementazione tecnologica con personale attento e qualificato, con Sap Business One

LA SOLUZIONE

Sap Business One è un sistema Erp per piccole e medie imprese. Permette a Plastopiave di osservare le norme sulla tracciabilità del prodotto lungo tutte le fasi del ciclo di produzione, anche grazie alle integrazioni verticali con i software specifici di produzione, come il pianificatore e il Mes (Manufacturing Execution System).

siamo passati da una situazione di iperpersonalizzazione a un contesto gestionale più standard e strutturato. Questo ci ha consentito una maggiore governance dei processi aziendali, sia amministrativi sia di produzione, perché complessi e organizzati su più livelli. Era necessario un Erp capace di integrarsi con altri software verticali già in uso, e con la soluzione Sap lo abbiamo potuto fare”.

“Supportare un cliente come Plastopiave nell’implementazione e crescita tecnologica con Sap Business One è stato sfidante perché ha richiesto un equilibrio delicato tra competenze tecniche e capacità di comprensione delle esigenze uniche del loro business”, racconta Mauro Trevisan, amministratore delegato di Var One Nord Est. “Sap Business One sta guidando l’azienda nella riorganizzazione dei processi, attraverso un nuovo modello di lavoro più specifico e preciso”, sottolinea Fabrizio Moneta, direttore mid-market e canale di Sap Italia. L’adozione di uno standard operativo più elevato ha innalzato, di riflesso, la qualità dei processi e del prodotto finale, oltre a consentire una completa tracciailità. Inoltre Plastopiave ha ottenuto una maggiore flessibilità nella gestione tecnico-burocratica degli adempimenti richiesti dal Conai.

MILANO DIGITAL WEEK

Quando: 10, 11, 12, 13 e 14 novembre

Dove: Palazzo Giureconsulti e altre location, Milano

Perché partecipare: giunto alla settima edizione, l’evento diffuso (organizzato quest’anno da TIG – The Innovation Group) si rivolge a imprese e cittadini. Sei i filoni tematici: il digitale per le imprese; formazione e lavoro; cittadinanza digitale; tecnologie (con un focus sull’AI); smart city; cultura e intrattenimento.

DIGITAL ITALY SUMMIT

Quando: 12 (su invito), 13 e 14 novembre

Dove: Centro Congressi Roma Eventi Fontana di Trevi, Roma

Perché partecipare: alla sua nona edizione, il summit di TIG – The innovation Group dedicato alla trasformazione digitale del sistema-Italia quest’anno si focalizza sull’intelligenza artificiale. All’interno del programma, appuntamenti dedicati alla sicurezza informatica (Cybersecurity Summit, 13 novembre), alla Pubblica Amministrazione (PA Summit, 14 novembre) e al lavoro dei chief information officer (Cio Panel, 13 novembre).

NETCOMM FOCUS

DIGITAL EXPORT & MARKETPLACE

Quando: 5 novembre

Dove: Palazzo Giureconsulti, Milano (su invito) e in diretta streaming

Perché partecipare: il convegno è dedicato alle opportunità, alle novità e alle tendenze del mondo dei marketplace. Sul palco esperti di e-commerce e casi di successo di aziende proiettate verso il digitale.

SMAU MILANO

Quando: 29 e 30 ottobre

Dove: FieraMilanoCity, Milano

Perché partecipare: lo storico appuntamento dedicato all’innovazione digitale sarà, quest’anno, anche occasione per incontrare oltre 150 startup italiane e aziende appartenenti a diversi settori. In programma oltre 50 workshop gratuiti, live show, tavole rotonde e numerose premiazioni.

DIGITAL ITALY summit 2024 The Coming Wave

ROMA EVENTI FONTANA DI TREVI | 12-14 NOVEMBRE 2024

Il DIGITAL ITALY SUMMIT, giunto alla nona edizione, è l’annuale e più importante appuntamento di TIG - The Innovation Group dedicato alla trasformazione digitale

ALCUNI TEMI IN AGENDA

• La strategia nazionale per l’intelligenza artificiale

• PNRR e Repowering Europe: a che punto siamo?

• Dalla direttiva NIS2 al Data Act: lo stato dell’arte nelle aziende

• Prepararsi all’adozione dell’AI: tecnologie, governance, ruoli

• La sfida della produttività e delle competenze

• Il dilemma etico degli algoritmi

• La digitalizzazione della PA, tra cloud, dati e intelligenza artificiale

• Buone pratiche di trasformazione nella PA centrale e locale

• Ripensare la cybersicurezza nell’era dell’AI

LE TRE GIORNATE:

12 novembre: sessione riservata al Governo, alle autorità, ai rappresentanti del mondo dell’economia e della politica e ai rappresentanti delle aziende partner dell’evento.

13 novembre:

• sessione plenaria di apertura

• Tech Adoption Strategies

• Cybersecurity Summit

• CIO Panel

14 novembre: PA Summit

INFO: WWW.THEINNOVATIONGROUP.IT

MAIL: ALESSANDRA.MOSCONI@TIG.IT

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.