LE NUOVE FRONTIERE DEL BANKING
Il settore si apre sempre di più all‘intelligenza artificiale, mentre il percorso di trasformazione tecnologica si confronta con rischi e strettoie normative.
ITALIA DIGITALE
L‘ecosistema nazionale delle startup è parcellizzato ma dinamico e ad alto tasso d‘innovazione. E la sensibilità “green” non manca.
INFRASTRUTTURE
Dieci anni di Kubernetes: l‘evoluzione di una tecnologia open source diventata, oggi, un pilastro del nuovo modo di creare applicazioni.
SPECIALE CISO
I chief information security officer si confrontano sulle sfide della compliance, della gestione del rischio e della risposta agli incidenti.
COMPLIANCE EUROPEA, CYBER RESILIENZA E OT SECURITY
MILANO - 19 settembre 2024
Centro Congressi Fondazione Cariplo – Milano
L’evento, rivolto alla community dei chief information security officer (e figure analoghe), affronterà alcuni dei temi caldi della sicurezza informatica nelle aziende:
Il recepimento della Direttiva NIS 2, tra obblighi e opportunità
La cybersicurezza dei sistemi di controllo industriali
Il regolamento per le future macchine cybersicure
La gestione del rischio nella supply chain
Le strategie di risposta agli incidenti
MAIN PARTNER: PARTNER:
N° 63 - LUGLIO 2024
STORIE DI ECCELLENZA E INNOVAZIONE
Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012
Direttore responsabile:
Emilio Mango
Coordinamento:
Valentina Bernocco
Hanno collaborato:
Roberto Bonino, Stefano Brigaglia, Antonella Di Maria, Gianluca Dotti, Elena Vaciago
Foto e illustrazioni: 123rf.com, Burst, Freepik, Pixabay, Unsplash, Adobe Firefly
Editore e redazione:
Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it
Pubblicità:
The Innovation Group Srl tel: 02 87285500
Stampa: Ciscra SpA - Arcore (MB)
© Copyright 2024
The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati.
Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto.
Pubblicazione ceduta gratuitamente.
4 STORIA DI COPERTINA
La prossima frontiera della produttività
Automazione robotica e AI: preziosi alleati
In cammino verso la resilienza
Fintech verso il consolidamento
10 IN EVIDENZA
La gara dei market cap si gioca sull’AI
Dagli endpoint alla gestione della “postura”
Cloud e AI, un cammino intrecciato
L’intelligenza è anche collaborazione
Cyber intelligence per tutta la “catena”
Nuove competenze per cavalcare l’onda
Offerta consolidata, strategia nuova
Il nuovo “anno nero” dei cyberattacchi
GenAI e low-code indirizzano l’esperienza digitale
Data protection e Nis2: temi caldi per le aziende
Un supporto alla pianificazione con gli insight
Il networking incontra la sicurezza e l’osservabilità
Una sola piattaforma, tante alleanze
Il Business Process Outsourcing nell’era dei chatbot
Il “lift & shift” è un autogol
La “serenità tecnologica” non è un miraggio
Xdr, un trampolino per i fornitori di servizi gestiti
28 ITALIA DIGITALE
Piccole, veloci e sostenibili
La sanità hi-tech di una “storica” startup
32 INTELLIGENZA ARTIFICIALE
Il marketing è una questione “personale”
Presente e futuro dell’AI: un punto di vista italiano
36 INFRASTRUTTURE
Supercalcolo e AI trasformano i data center Il “timoniere” Kubernetes compie dieci anni
40 SPECIALE CIO
Gestire i rischi della supply chain
Le molte sfide dell’incident response Cyber resilienza da progettare
47 ECCELLENZE
Istituto Diagnostico Varelli Empoli Football Club Fassi Gru
50 APPUNTAMENTI
LA PROSSIMA FRONTIERA DELLA PRODUTTIVITÀ
Le banche si aprono all’intelligenza artificiale, anche generativa, ma l’adozione è ancora immatura. Il vero rischio, in ogni caso, è rinunciare all’innovazione.
Irisultati di bilancio delle banche italiane dicono che il 2023 è stato uno degli anni migliori di sempre, andato oltre le aspettative con risultati superiori rispetto ad altri ecosistemi nazionali. Per le prime cinque banche italiane, ad esempio, è stato un anno record con circa 21,7 miliardi di euro di profitti (+64% rispetto ai 12,8 miliardi del 2022), ma anche il panorama delle realtà medio-piccole ha ottenuto risultati superiori a quelli del 2022. Anche nel primo trimestre del 2024 le
sette principali banche italiane hanno realizzato un utile netto di 6,36 miliardi, il che significa un incremento del 26% rispetto a quanto fatto nello stesso periodo del 2023. Per queste banche è stato il miglior trimestre della loro storia e gli outlook per il 2024 fanno crescere le attese di ulteriori di profitti e buy-back azionari che stanno innalzando le quotazioni in Borsa.
L a crescita dei profitti è stata dovuta in gran parte all’effetto dei tassi sul margine di interesse che ha beneficiato
del veloce rialzo dei tassi voluto l’anno scorso dalla Banca Centrale Europea L’outlook per 2024 quindi è positivo pur considerando che, dopo il picco dei tassi avvenuto nel 2023, nel secondo semestre di quest’anno ci sarà una rimodulazione al ribasso, si spera non altrettanto repentina. Segnali positivi dopo un 2023 in c alo sono arrivati anche dalla ripresa dei ricavi commissionali, che sono aumentati dal 6% al 10%. L’eventuale diminuzione dei tassi, e quindi di una minore crescita legata al margine di interesse, sarà compensata da un’ascesa dei ricavi commissionali, in particolare del risparmio gestito e delle assicurazioni (con vantaggi maggiori per chi è proprietario anche delle fabbriche prodotto). La tenu-
ta del costo del rischio legato alle rettifiche sui crediti, previsti ai livelli del 2023, e del rischio Italia legato ai titoli di Stato avranno, ancora una volta, un impatto positivo sui bilanci degli istituti. L e banche italiane si sono mostrate anche resilienti al rapido rialzo dei tassi, che invece ha causato le crisi bancarie negli Stati Uniti, per un’oculata gestione del rischio di tasso e della liquidità, che permette al settore di continuare a fornire le risorse necessarie a sostenere la crescita economica del Paese. Bisognerà però, come indicato da Banca d’Italia , mantenere un equilibrio tra attività e passività con una gestione ottimale di liquidità e raccolta, e inoltre preservare la solidità del capitale, fare una valutazione oculata dei profili di rischio e migliorare la qualità dei servizi offerti ponendo la massima cura ai rapporti con la clientela. La normalizzazione dei tassi deve stimolare le banche a fare un salto ulteriore nel processo di trasformazione e innovazione digitale per essere preparate a nuovi “cigni neri” sempre in agguato, così come ai più silenziosi “rinoceronti grigi” (cioè potenziali pericoli ad alto impatto e ad alta probabilità che vengono sottovalutati).
Vedremo se le previsioni si mostreranno fondate oppure no, ma in ogni caso le banche devono comunque attrezzarsi e non rimanere sguarnite di fronte sia agli elementi di incertezza del quadro macroeconomico e geopolitico sia alla pressione competitiva e sia, non da ultimo, all’impatto dirompente delle nuove tecnologie digitali. Il pensiero va naturalmente all’intelligenza artificiale, e in particolare alle applicazioni di AI generativa basate su large language model
Innovazione con il freno a mano Nonostante la crescita degli ultimi anni, nel settore banking in Italia gli investimenti in tecnologie innovative – come intelligenza artificiale, cloud,
blockchain e Big Data – sono rimasti nel complesso ridotti, pari a pochi punti percentuali della spesa complessiva in tecnologie informatiche per l’elaborazione dei dati. Inoltre tali investimenti innovativi si concentrano su una piccola rosa di soggetti. Nella recente relazione del Governatore della Banca d’Italia (“Relazione Banca D’Italia 2024”) si evidenzia che “gli investimenti in tecnologie innovative realizzati dagli intermediari italiani sono quadruplicati dal 2017, ma rimangono limitati, e per le banche significative sono inferiori a quelli delle concorrenti europee. Vanno incrementati: sarebbe un grave errore accumulare ritardi su questo fronte”. Secondo Bankitalia, il principale ostacolo agli investimenti è la scarsa interoperabilità tra i progetti Fintech e i preesistenti sistemi informatici. Per quanto riguarda l’intelligenza artificiale, lo scenario è duplice: da un lato, quasi tutte le banche la utilizzano e molte stanno anche approcciando l’AI generativa con sperimentazioni, progetti pianificati o in corso; dall’altro lato, la maggior parte dei progetti avviati sono ancora in fase prototipale o esplorativa. Le banche stanno, cioè, cercando di posizionare l’AI in
modo strategico al proprio interno. I casi d’uso sono trasversali a molti processi aziendali, nei quali l’AI permette di ottenere efficienza (grazie all’automazione) e di migliorare la relazione con i clienti (grazie ad agenti conversazionali e con uso del machine learning per un ingaggio più personalizzato). Sfruttando, grazie all’intelligenza artificiale, il potenziale ancora inespresso dei dati interni ed esterni alla banca, sarà possibile ottimizzare ulteriormente i processi bancari di front e back office, semplificarli, aumentarne l’efficienza. In prospettiva, inoltre, l’intelligenza artificiale sarà utile non solo per la produttività ma potrà anche aiutare a disegnare nuovi modelli di business.
Rischi e opportunità dell’AI
Se usata estensivamente, questa tecnologia potrà avere un impatto su prodotti e servizi, sui modelli e processi operativi in tutti i segmenti del banking: dalla banca commerciale retail e corporate al risparmio gestito, fino ai pagamenti. Possiamo addirittura dire che l’intelligenza artificiale rappresenta la prossima frontiera della produttività e redditività per le banche? Il tema è di grande attualità (e sarà al centro del prossimo
AUTOMAZIONE ROBOTICA E AI: PREZIOSI ALLEATI
Più produttive, più precise nell’esecuzione, più brave ad assistere i clienti, più capaci di contrastare i rischi. Le banche procedono in queste direzioni soprattutto grazie a due tecnologie “sorelle”: l’automazione robotica di processo (Robotic Process Automation, Rpa) e l’intelligenza artificiale. Pur spesso usate in combinazione tra loro, si tratta di due tecnologie distinte. La Rpa automatizza, attraverso il software, dei processi deterministici: prendendo in carico le attività ripetitive e basso valore aggiunto, permette di ottenere velocità ed efficienza e sgrava il personale da parte del lavoro. L’AI, invece, è un tipo di apprendimento automatico in cui un algoritmo (cioè una funzione software) può imparare dall’osservazione empirica dei dati e, su questa base, produrre insight o sostituirsi in parte all’azione umana. Come evidenziato dalla “Indagine Fintech 2023”, pubblicata da Banca d’Italia nell’aprile di quest’anno, nel settore finanziario Rpa e AI vengono impiegate per “assicurare modalità di esecuzione più accurate e tempi più rapidi, mitigando i rischi operativi”. Per lo più, nelle iniziative che le prevedono entrambe, queste due tecnologie non sono
“Banking Summit” di The Innovation Group) e possiamo, nel frattempo, osservare che il settore finanziario oggi è in testa nella corsa all’AI, anche quella generativa.
L’AI viene considerata dagli economisti una Gpt, cioè una tecnologia generalista (General Purpose Technology), con la previsione di un impatto significativo su tutti i settori economici e non solo quello finanziario, anche se gli effetti di aumento della produttività a livello macro sono ancora da dimostrare nei numeri. Il settore bancario è identificato da analisti e osservatori come il quello su cui l’impatto può essere il più significativo per profondità ed estensione dell’utilizzo dell’AI. È necessario che le banche passino velocemente dalla fase prototipale (spesso dispersiva) in cui molte si trovano a una fase realizzativa, dimostrando capacità di mettere a scala progetti di impatto complessivo e che generano valore. Si dovrà però continuare a inno-
strettamente complementari ma piuttosto vengono usate in fasi distinte di uno stesso progetto. Quali sono gli utilizzi concreti? Nel processo del credito, Rpa e AI intervengono un po’ in tutte le fasi, dallo screening all’erogazione dei finanziamenti, al successivo monitoraggio. L’intelligenza artificiale, nello specifico, rende automatico il calcolo dello score creditizio di un cliente e permette di captare in anticipo situazioni da sottoporre a monitoraggio. Queste due tecnologie trovano spazio anche nella gestione documentale, dove velocizzano e rendono più accurati e standardizzati i vari processi di lavoro. L’AI, in particolare, può essere usata per l’analisi semantica dei pareri di compliance emessi. Nell’ambito della gestione del rischio, invece, Rpa e AI sono soprattutto utili per l’antiriciclaggio, consentendo di automatizzare i controlli e di analizzare rapidamente grandi quantità di dati. Banca D’Italia sottolinea, comunque, che i sistemi di AI per l’antiriciclaggio possono sbagliare: sono più o meno affidabili a seconda della quantità e qualità dei dati ingeriti. V.B.
vare, a sperimentare nuovi casi d’uso, e allo stesso tempo cominciare a strutturarsi per portare su larga scala quelli a maggior valore. Inoltre il settore dovrà necessariamente affrontare le sfide legate all’integrazione tecnologica, alle competenze, alla compliance, e non da ultime alle questioni di affidabilità e di etica. Il processo di evoluzione delle banche è guidato parallelamente alla tecnologia e dalle normative, che seguono la roadmap degli enti regolatori. Le esigenze di compliance guardano al regolamento europeo Dora (Digital Operational Resilience Act, che norma la gestione dei rischi operativi), al regolamento Micar (per le cripto-attività), oltre che naturalmente all’AI Act, e ancora a normative legate alle tematiche Esg (Environmental, Social and Governance) e alle modifiche del regolamento Csdr sui depositari centrali di titoli. Occorre, ad esempio, che le banche affianchino il processo di definizione e realizzazione del modello alla
base dell’euro digitale, perché esso costituirà un ulteriore elemento di innovazione e trasformazione tecnologica non solo nei pagamenti ma nel rapporto complessivo tra banche e clienti. Naturalmente occorre settare realisticamente le aspettative nell’utilizzo di queste nuove tecnologie e considerare i relativi rischi, che si estendono dall’impatto sulle professioni e sulle occupazioni alla reputazione delle banche, al rapporto fiduciario costruito con clienti e stakeholder. Bisognerà anche evitare di creare, con la tecnologia, un nuovo digital-divide interno alle banche e verso i clienti. Tutte le sfide e le complessità fin qui elencate non devono, però, frenare l’innovazione. Considerando la forza dei suoi potenziali impatti, l’intelligenza artificiale potrebbe diventare anch’essa un “rinoceronte grigio” per quelle banche che non si attrezzano con un approccio strategico e complessivo alla sua adozione e al suo utilizzo.
Ezio Viola
IN CAMMINO VERSO LA RESILIENZA
Il percorso verso la conformità al Digital Operational Resilience Act (Dora) comporta delle sfide, ma è anche un’occasione per ripensare alla gestione dei rischi.
Il lavoro non è ancora completo e, fin qui, è stato difficile, ma le banche sembrano ora ben avviate verso l’appuntamento del 17 gennaio 2025, quando il Digital Operational Resilience Act (Dora) entrerà in vigore. L’obiettivo del legislatore europeo è noto: garantire che chi eroga servizi bancari o finanziari sia in grado di fronteggiare compiutamente la gestione del rischio Ict, così da tutelare la stabilità e l’integrità dei mercati finanziari per proteggere investitori e consumatori dell’Unione Europea. Per il mercato finanziario, Dora è una sfida che si colloca nel panorama più ampio della digital transformation. L’importanza, quindi, va oltre l’obiettivo di conformità da raggiungere entro la fine dell’anno. L’applicazione della normativa ha messo banche e imprese di fronte a non poche difficoltà, alcune delle quali esterne alle organizzazioni. Per esempio, la mancanza nel regolamento di un quadro dei rischi informatici e operativi, che ha reso necessaria l’emanazione di regole ulteriori per armonizzare i principali obblighi di resilienza operativa digitale. Un passaggio che ha certamente pesato sui tempi di reazione degli operatori.
A giustificazione del regolatore europeo, va detto che gli ambiti applicativi di Dora sono numerosi e diversificati: impossibile prevederli nel testo del regolamento. Il percorso verso la conformità ha, però, riproposto con forza il problema del governo dei rischi, emerso con evidenza già nella mappatura e classificazione dei contratti con le terze parti, punto essenziale del regolamento. Oltre che dalle specificità dei singoli servizi oggetto di mappatura, questa fase è stata resa difficile dalla molteplicità delle funzioni coinvolte e dalle regole che disciplinano nelle organizzazioni i sistemi di controllo. Il processo di remediation Dora è servito a ricordare che, al pari dello sviluppo di business, la gestione dei rischi richiede un approccio strategico. L’esperienza sul campo, ancora una volta, sta insegnando che occorrono una visione complessiva, regole e strumenti di coordinamento operativo, e un monitoraggio costante dell’evoluzione e dei possibili impatti. L’altro punto meritevole di attenzione, collegato direttamente alla trasformazione digitale, è che le applicazioni di intelligenza artificiale generativa potrebbero oggi incrementare sensibilmente l’efficienza dei tre livelli di difesa nei quali oggi tipicamente è articolato un sistema di controllo in una grande organizzazione. Nel caso di Dora, per esempio, le applicazioni di AI avrebbero potuto accelerare la mappatura dei rischi di outsourcing rilevando puntualmente quelli di ogni contratto, per lasciare al controllo umano un semplice compito di verifica. Nei settori altamente regolati, come quello bancario-finanziario, l’AI è quindi una necessità, non un’opzione: bisogna accelerare nella sua applicazione. Torniamo al percorso di conformità in atto. A che punto siamo? Dopo la mappa dei rischi, le funzioni di procurement delle banche stanno sottoponendo ai fornitori di Ict i contratti che recepiscono le clausole previste da Dora. La palla, quindi, sta passando nel campo dei vendor, chiamati ad aderire o, eventualmente, ad aprire un confronto negoziale con le banche. Non sarà un passaggio scontato, perché la gran parte dei contratti di fornitura è stata sottoscritta negli anni passati, quando l’evoluzione tecnologica non aveva raggiunto il livello attuale. Dopo la sottoscrizione dei contratti si aprirà, nelle banche, la messa a punto finale che coinvolgerà le funzioni di controllo di secondo livello (risk management) e terzo livello (internal audit). I tempi imposti dalla Ue dovrebbero essere rispettati, poi la palla passerà al campo.
Antonella Di Maria, consultant di Capco Italy
FINTECH VERSO IL CONSOLIDAMENTO
Per gli intermediari italiani rappresenta solo il 5% della spesa complessiva in tecnologie informatiche. I progetti, tuttavia, diventano più solidi.
I“l processo di trasformazione digitale del sistema finanziario, per quanto in espansione, risulta quantitativamente limitato e polarizzato”. Questa l’estrema sintesi dell’analisi di Banca d’Italia sugli investimenti Fintech del settore nel nostro Paese, ovvero investimenti per l’acquisto o lo sviluppo di tecnologie digitali capaci di generare nuovi processi, prodotti, servizi e modelli di business (“Indagine Fintech 2023”). I progetti censiti, inclusi quelli ancora in corso, sono 430. Negli anni il settore ha al-
largato gli investimenti in quest’ambito senza però mai farne una priorità, anzi. Banca d’Italia ha stimato che nel biennio 2021-2022 nel nostro Paese gli intermediari finanziari abbiano investito in Fintech 600 milioni di euro, cioè appena il 5% della spesa complessiva per l’acquisto di software, hardware, servizi e sistemi informatici. La stima per il biennio 2023-2024 sale, comunque, a 901 milioni di euro e sono previsti ulteriori 380 milioni di euro da spendere a partire dal 2025 per il completamento dei progetti già in corso. Il processo di trasformazio-
ne digitale si concentra su pochi soggetti: attualmente i primi dieci investitori in Fintech mobilitano oltre l’87% della spesa totale.
Interessante è il fatto che nel biennio 2023-2024 siano stati lanciati meno progetti nuovi ma di maggiore peso in termini di risorse stanziate: dopo una fase di maggiore sperimentazione, ora si va verso il consolidamento delle iniziative. Ciò è confermato da vari indicatori, quali la quantità di progetti su larga scala, il numero degli addetti coinvolti, le collaborazioni con soggetti esterni e il valore della partecipazione azionaria in società Fintech. Rispetto alla precedente rilevazione di Banca d’italia, è salita sia la percentuale di intermediari che collaborano con società terze (dal 46% al 51%) sia il
TRA PAGAMENTI E COMPLIANCE
Blockchain, automazione robotica di processo, intelligenza artificiale, crittografia, biometria: sono le principali, anche se non le uniche, tecnologie usate nell’ambito del Fintech, cioè di quel mondo di servizi digitali che consentono di svolgere operazioni bancarie e di pagamento in modo rapido e indolore, in pochi “click” o “tap” sullo schermo di un Pc o di un cellulare. Ma Fintech non sono soltanto servizi fruiti dagli utenti finali, bensì anche tecnologie usate internamente dalle banche per contrastare le frodi, per verificare l’identità dei clienti o per gestire la conformità alle normative di settore (con funzionalità di RegTech, Regulatory Technology, un sottoinsieme del Fintech). Questo mercato si è allargato a ritmo sostenuto nell’ultimo decennio, con un tasso di tasso di crescita annuale composto del 17% tra il 2015 e il 2020 secondo i calcoli di McKinsey, trovando ulteriore spinta nel 2021 per via dei nuovi bisogni di servizi digitali a compensazione delle chiusure dei lockdown: la capitalizzazione di mercato ha raggiunto quota 92,3 miliardi di dollari (crescendo del 177% anno su anno). Nel 2022, così come accaduto in altri mercati tecnologici, l’euforia si è spenta e gli investimenti hanno rallentato. Tuttavia le previsioni sono rosee: sempre a detta di McKinsey, i ricavi del Fintech a livello mondiale cresceranno secondo un Cagr del 15% tra il 2022 e il 2028, cinque volte di più ri-
numero di accordi stretti (da 330 a 470), mentre per quanto riguarda la partecipazione azionaria il valore nominale delle quote nel 2023 ammontava a 1.114 milioni di euro, ossia cinque volte il valore osservato nel 2021. Sono tutti segnali del fatto che le banche italiane credono nel Fintech, anche quando non si lanciano a tutta velocità in nuovi progetti. Quanto alle singole tecnologie su cui si investe, la fotografia è variegata. Sta aumentando in modo apprezzabile l’utilizzo del cloud e di sistemi di raccolta automatica dei dati della clientela (come il riconoscimento ottico dei caratteri), più lieve invece è la crescita di soluzioni che usano i Big Data . Si espande l’uso del machine learning per la lotta alle frodi e al riciclaggio, mentre è limitata l’applica-
spetto al giro d’affari del banking “tradizionale”. In base alle stime di Fortune Business Insight, a livello globale questo mercato vale oggi 340,1 miliardi di dollari e crescerà fino a circa 1.152 miliardi di dollari stimati per il 2023.
A fare da traino alla crescita saranno, secondo gli analisti, il bisogno sempre più mercato di personalizzazione dei servizi e anche, su tutt’altro piano, l’obbligo di conformità alle normative del settore (come Dora e Psd2). Soprattutto in Europa, dove l’ambito dei servizi finanziari è sottoposto a maggiore regolamentazione, le società Fintech spesso offrono alle banche delle funzionalità RegTech che aiutano a soddisfare la compliance. In altre geografie, e specie in alcune regioni di Asia e Africa, i servizi Fintech possono e potranno colmare un vuoto per quella popolazione che non ha accesso a un conto corrente. Da qui ai prossimi anni, secondo gli analisti, il Nord America resterà la prima regione geografica sia in termini di ricavi delle società Fintech sia di utenza. Oggi i grandi player del settore sono multinazionali statunitensi come Mastercard, Fiserv, Block (la ex Square), Plaid e Neo Mena Technologies, oltre alla cinese Unicorn Payment, secondo operatore del mercato. Il primo player è però la britannica Rapyd Financial Network e tra i nomi europei ci sono anche Stripe (Irlanda), Finastra (Regno Unito) e Adyen (Paesi Bassi).
zione di tecnologie di Natural Language Processing (Nlp).
Circa un quinto dei progetti (20,5%) è mirato alla creazione di piattaforme Web o app mobili, mentre il 16,5% è imperniato sull’intelligenza artificiale e il 14,9% sulle Application Programming Interfaces (Api) che mettono in comunicazione tra loro applicazioni e database differenti. Le Api tra l’altro sono fondamentali per l’Open Banking, cioè per tutte quelle attività in cui è previsto lo scambio di dati tra i diversi attori dell’ecosistema bancario e Fintech per consentire l’erogazione di un servizio, per esempio di pagamento. L’approccio “aperto” si è progressivamente affermato a partire dalla direttiva Psd2 (Payment Services Directive 2), entrata in vigore
nel 2019, e con le nuove regole sull’autenticazione forte per le procedure di pagamento e bancarie online. L’Open Banking ha permesso a molte banche di non perdere rilevanza e clienti, collaborando (anziché combatterli) con i fornitori di servizi Fintech “puri”, nati come tali. Proprio il report di Banca d’Italia mostra tuttavia che gli investimenti per nuovi progetti di Open Banking sono in drastico calo, dai 156 milioni di euro del 2021-2022 ai 46 milioni di euro del successivo biennio. Le nuove iniziative continuano a focalizzarsi sui servizi di pagamento ma anche sull’uso delle identità digitali, sullo sviluppo di digital wallet, su progetti di credit scoring e di gestione delle finanze (personali e aziendali). V.B.
l’analisi
LA GARA DEI MARKET
CAP SI GIOCA SULL’AI
Continua la competizione serrata tra Apple, Microsoft e Nvidia, tutte oltre la soglia dei tremila miliardi di dollari di valore.
Apple, Microsoft e Nvidia si rincorrono a vicenda, inseguendo il primato di azienda a maggior valore al mondo, o altrimenti detto di azienda con la maggiore capitalizzazione di mercato. Elencate non a caso in ordine alfabetico anziché di gerarchia, perché la classifica dei market cap negli ultimi mesi si è mostrata particolarmente instabile. Tra la prima e la seconda metà di giugno, in particolare, gli annunci di prodotto e finanziari hanno spinto il titolo di Nvidia (che alla vigilia dell’annunciata operazione di stock split ha strappato fugacemente l’argento a Apple) e poi quello della società di Cupertino (passata rapidamente dal secondo, al terzo, al primo posto in una manciata di giorni). Nella giornata del 12 giugno i rialzi del titolo Apple hanno portato a 3,29 migliaia di miliardi di dollari la capitalizzazione di mercato dell’azienda, davanti ai 3,28 di Microsoft, ma quest’ultima già il giorno dopo aveva recuperato la prima posizione. Una
medaglia d’oro appesa nuovamente al collo di Nvidia già il 18 giugno. Al di là della telecronaca di questa corsa, che andrà valutata sul lungo periodo, sono interessanti le dinamiche sottostanti. L’exploit dell’azienda di Tim Cook, per quanto volatile, è stata la reazione dei mercati al passo deciso nel campo dell’intelligenza artificiale generativa: alla Worldwide Developer Conference c’è stato l’annuncio di Apple Intelligence, un insieme di capacità di GenAI trasversali alle app, che sulle prossime versioni di iOS e macOS aiuteranno a creare testi, immagini ed emoji personalizzati, ma anche potenzieranno l’assistente virtuale Siri. Quest’ultimo potrà contare su una maggiore “intelligenza contestuale”, cioè tratta dai dati di utilizzo dei dispositivi. Inoltre, altra novità, Apple per una volta si è aperta a una tecnologia concorrente annunciando l’integrazione di ChatGpt in Siri: l’assistente virtuale, dalla propria
chat, potrà collegarsi al servizio di OpenAI per rispondere a quesiti complessi). Con buona pace di Elon Musk, che ha minacciato di vietare l’uso di iPhone, iPad e Mac ai suoi dipendenti proprio a causa dell’integrazione di ChatGpt, la reazione del mercato agli annunci di Apple è stata entusiastica. Non tutti gli analisti concordano su questo punto, ma è opinione diffusa che queste novità potranno sostenere le future vendite di iPhone, dopo diversi semestri non esaltanti. “Stimiamo che il 15% o più della base installata di Apple passerà all’iPhone 16”, ha dichiarato Dan Ives, analista di Wedbush Securities, “poiché Apple Intelligence è la killer app che molti aspettavano”. Secondo le stime dell’analista, circa 270 milioni di utenti iPhone possiedono lo stesso modello da oltre quattro anni. Il caso di Apple suggerisce che l’intelligenza artificiale sia davvero una forza poderosa che sta influenzando i mercati finanziari. Fatto, d’altra parte, già evidenziato dall’incredibile ascesa di Nvidia, leader nello sviluppo e nella produzione di semiconduttori ottimizzati per l’AI, il cui titolo nel giro di dodici mesi ha guadagnato oltre il 215% di valore. Con le proprie Gpu e con altri tipi di unità di calcolo (come le Dpu, Data Processing Unit, e gli acceleratori di rete), Nvidia ha fatto il pieno di ordini non solo dalle aziende utenti finali ma soprattutto dai grandi hyperscaler del cloud, come Microsoft, Amazon (Aws) e Google, nonché dal colosso dei social network Meta. Intanto, nell’ambito del software e dei servizi digitali rivolti ad aziende e utenti finali, Microsoft continua a stare un passo avanti alla concorrenza grazie alla fruttuosa, stretta alleanza con OpenAI, su cui poggia la tecnologia di Copilot. Valentina Bernocco
DAGLI ENDPOINT ALLA GESTIONE DELLA “POSTURA”
Crowdstrike si allarga nell’area del posture management, senza trascurare il prezioso apporto dell’intelligenza artificiale generativa.
Nonostante una storia aziendale ancora giovane (l’anno di fondazione è il 2011), Crowdstrike è riuscita a scalare il mercato delle soluzioni per la protezione degli endpoint (Endpoint Detection and Response, Edr), tant’è che Idc pone la piattaforma Falcon al vertice del comparto di riferimento in termini di market share. Tuttavia, già da qualche tempo l’azienda guarda oltre il solo mondo dei terminali, e soprattutto in direzione dei servizi di sicurezza degli ambienti cloud e della protezione delle identità, senza trascurare ciò che avviene prima e dopo un incidente. Falcon resta il perno di una proposta costruita su una “vista
unica” per il rilevamento e la risposta alle minacce, ma il suo raggio d’azione si è progressivamente allargato. Piuttosto recente, per esempio, è l’integrazione fra le soluzioni di Aspm (Application Security Posture Management) e Cnapp (Cloud-Native Application Protection Platform) sull’intero ciclo di vita di un’applicazione, dalla fase iniziale di codifica fino all’esecuzione in ambiente cloud. “Questa evoluzione completa la nostra visione, che ormai comprende workload, identità, applicazioni e dati”, illustra Stefano Lamonato, director solution architecture Europe di Crowdstrike. Discorso analogo si applica al Siem di nuova generazione (l’acronimo sta per Security Information and Event Management), anch’esso introdotto sul mercato in tempi recentissimi. Integrato nella piattaforma Falcon, il Siem di Crowdstrike consente una visibilità unificata su tutti i workload aziendali ed è anche un utile supporto per i fornitori di servizi di sicurezza gestiti, gli Msp (Managed Service Provider).
L’intelligenza artificiale generativa è certamente una delle tendenze di punta anche nel mondo della cybersecurity. “A permeare i nostri sviluppi più recenti”, racconta Lamonato, “c’è l’integrazione della tecnologia Charlotte AI, creata per dare suggerimenti veloci in caso di attacco, linee guida per le risposte e interazioni in linguaggio naturale”. Secondo Crowdstrike, una tecnologia come Charlotte AI può fornire un supporto
alla cronica mancanza di competenze specializzate nel settore: “La capacità di creare collegamenti utili per facilitare il compito degli analisti e far lavorare anche figure junior”, spiega il manager. “I processi di investigazione guadagnano in rapidità, la produzione dei report può essere affidata anche integralmente all’AI e si diventa più agili e pronti sia nella comprensione sia nella reazione”.
L’evoluzione di Crowdstrike si riflette anche sulla tipologia di clientela indirizzata. Se con l’iniziale proposta Edr il target primario era quello delle Pmi, ora la copertura si è fatta più ampia. L’azienda fa leva sull’idea di poter attirare l’attenzione degli Msp con la propria piattaforma unificata. I servizi gestiti sono, in effetti, una tendenza che sta investendo in modo sempre più ampio anche le aziende maggiormente strutturate: queste tendono a conservare il controllo e la progettazione della strategia di cybersecurity al proprio interno, ma non disdegnano di affidarsi a specialisti esterni per attività operative e time consuming. “La nostra piattaforma comprende 28 moduli, ma offre ampia flessibilità sulle modalità di attivazione. Il programma Falcon Flex è nato apposta per consentire una pianificazione di lungo termine, partendo però da un accesso immediato ai servizi disponibili. In Italia, la Pubblica Amministrazione e il settore finanziario sono per noi mercati di forte interesse”, conclude Lamonato.
Roberto Bonino
CLOUD E AI, UN CAMMINO INTRECCIATO
Aws spinge sui servizi che permettono di personalizzare i large language model, ma anche su una tecnologia di “copilota” chiamata Amazon Q.
La combinata cloud-AI delinea il tragitto strategico di Amazon Web Services. Al recente Aws Summit, tenutosi a Milano, l’azienda ha ribadito l’idea che l’innovazione, oggi, non possa prescindere dai dati e dall’intelligenza artificiale, in combinazione con un’infrastruttura cloud come fattore abilitante. Sul cloud poggiano flussi e processi informativi, ma anche servizi e “semilavorati” che possono velocizzare le decisioni di adozione delle aziende. Una ricerca di Aws ha rilevato come il 23% delle imprese italiane abbia già adottato l’AI (dato in crescita del 28% anno su anno). “A questo ritmo, avremo un mercato che nei prossimi anni potrà valere fino a 329 miliardi di euro”, ha indicato Julien Groues, general manager South Europe di Aws. “Però siamo ancora indietro, visto che in Europa il tasso medio di adozione è al 33%. Essere passati al cloud e aver definito una data strategy sono i passi iniziali fondamentali, ma poi ci vogliono anche competenze e partner che, come noi, possano offrire un’infrastruttura sca-
labile e opzioni per accedere a diversi foundation model, senza trascurare attenzione alla sicurezza e alla sostenibilità”.
Fra le tecnologie portanti per l’intelligenza artificiale in cloud c’è Bedrock, un servizio di Aws che consente di creare e scalare applicazioni di AI, anche generativa, con il supporto di modelli di base come Titan (della stessa Aws), Mistral (dell’omonima società francese) o Claude (di Anthropic). La tecnologia rende possibile personalizzare i large language model (Llm) in funzione delle specifiche necessità e dei dati a disposizione, anziché utilizzare modelli preconfezionati. Stanno sperimentando in quest’ambito diverse tra le aziende presenti al summit. È il caso di Docebo, società che offre in modalità SaaS una piattaforma per il training online nativamente basata su cloud: recentemente ha creato un docente virtuale che può affiancare quelli umani e gestire in autonomia attività di coaching e simulazioni di situazioni tipo, come una telefonata di natura commerciale. “Bedrock ci
aiuta a realizzare modelli personalizzati per i nostri clienti e a sfruttare i dati che derivano dalle interazioni per migliorare la soluzione, grazie all’ottimizzazione derivata dall’utilizzo di processi di Retrieval-Augmented Generation”, ha spiegato Fabio Pirovano, chief product officer di Docebo. Altro esempio è Multiversity, primaria realtà dell’education online, con 72 corsi di laurea e oltre 200mila studenti iscritti alle varie Pegaso, Mercatorum e San Raffaele Telematica: “Da quindici anni investiamo sulla nostra piattaforma proprietaria per migliorare i modelli didattici e l’interazione con gli studenti”, ha osservato il Cto dell’azienda, Fabio Guida. “Abbiamo già sviluppato un chatbot che funge da tutor virtuale per superare la comunicazione fin qui solo sincrona fra docenti e studenti. Questi ultimi possono rivolgere domande al chatbot, su temi e con modalità approvate dal professore, ottenendo una risposta completa quasi nel 100% dei casi”. Multiversity sta usando Bedrock per creare un assistente che supporta gli studenti su problematiche di tipo tecnico o amministrativo.
Altra tecnologia di punta per Aws è Amazon Q, uno strumento similare al Copilot di Microsoft per applicazioni aziendali: può essere utilizzato per conversare, risolvere problemi, generare contenuti, acquisire conoscenze e prendere decisioni collegandosi a repository di informazioni, codice, dati e sistemi aziendali.
Roberto Bonino
L’INTELLIGENZA È ANCHE COLLABORAZIONE
Red Hat replica nel campo dell’AI l’approccio già seguito nel cloud ibrido: flessibilità, apertura e la validazione della community open source.
L’intelligenza artificiale dovrà essere “aperta”, sicura, flessibile e collaborativa. La promessa fatta da Red Hat ad aziende, partner e sviluppatori è la stessa portata avanti da decenni nell’ambito del DevOps e del cloud ibrido, ispirata ai medesimi principi dell’open source e dell’assenza di lock-in “Vogliamo ripetere in ambito AI ciò che è stato fatto negli ultimi trent’anni con tutti i prodotti da noi veicolati sul mercato”, ha sintetizzato Gianni Anguilletti, vicepresidente per la regione mediterranea di Red Hat, in occasione di un recente incontro con la stampa. Gli ha fatto eco Giorgio Galli, head of presales per l’Italia: “In Red Hat il tema dell’AI si affianca alla strategia esistente, che è sempre stata quella di lavorare nell’open source e nel cloud ibrido,
con una tecnologia che possa funzionare sull’infrastruttura sottostante che meglio si adatta alle esigenze delle aziende, e con un disaccoppiamento dalla parte applicativa sovrastante. Il tema ora è passare dalla virtualizzazione, tecnologia ancora importante ma che non ha un’evoluzione, alla containerizzazione. Il mantra è cloudnative, cioè avere architetture scalabili, guidate da eventi, per supportare nuove applicazioni e servizi. Questo include l’edge e i workload di AI”.
Le tecnologie si evolvono, quindi, ma i principi ispiratori di Red Hat restano gli stessi. E questa strategia continua a dare ottimi frutti: “In Italia cresciamo a doppia cifra e più del mercato, trasversalmente a tutti i settori”, ha dichiarato il country manager, Rodolfo Falcone. “In particolare, energia e utility stanno spingendo moltissimo, il settore è diventato frizzante e competitivo. Il mondo finance è sempre molto in crescita e ha una visione internazionale”. Nella propria clientela (tra cui figurano anche grandi aziende ed enti della Pubblica Amministrazione) in Italia Red Hat sta osservando, oggi, una scelta selettiva di migrazione di alcune attività in cloud, mentre altre componenti restano on-premise. “Tutte le aziende che vediamo seguono questo modello dibusiness con, in più, una spolverata di AI”, ha spiegato il country manager. “Il nostro obiettivo è aiutare i clienti ad avere nella creazione ed esecuzione di applicazioni di AI la stessa disciplina e rigore che hanno per il DevOps e il DevSecOps”.
Red Hat non propone applicazioni di intelligenza artificiale fatte e finite, ma da un lato sta integrando capacità di GenAI
all’interno della propria offerta e, dall’altro, si rivolge agli sviluppatori con nuovi strumenti per la creazione di modelli e applicazioni. Sul primo fronte, è da poco disponibile la tecnologia Lightspeed per Ansibile: un copilota conversazionale che aiuta gli sviluppatori a creare contenuti su Ansible in modo più efficiente. Questa tecnologia debutterà prossimamente anche su OpenShift (per aiutare nella gestione del cluster) e su Red Hat Enterprise Linux.
Altra novità è InstructLab: si tratta di una metodologia con cui è possibile modificare i large language model, eventualmente condividendo poi tali migliorie con la community degli sviluppatori. In sostanza, è possibile allenare i modelli inclusi in InstructLab (in catalogo è già disponibile Ibm Granite, ma ne seguiranno altri) con ulteriori dati e domande, per esempio focalizzandosi su un certo argomento o ambito settoriale; il software crea poi dei dati sintetici, cioè una serie di domande e risposte aggiuntive derivate da quelle esistenti; le modifiche effettuate vengono sottoposte alla community per un triage e, se accettate, possono essere condivise.
Valentina Bernocco
UNA SOLA PIATTAFORMA, TANTE ALLEANZE
All’appuntamento annuale di .Next, Nutanix ha illustrato la propria visione tecnologica per la modernizzazione delle applicazioni. L’operazione Broadcom-Vmware ha tenuto banco.
Quest’anno .Next, l’evento mondiale dedicato a partner e clienti Nutanix, si è tenuto a maggio a Barcellona. Le novità annunciate nel corso della manifestazione sono state numerose: dal rafforzamento di alcune partnership, prime tra tutte Dell Technologies e Nvidia, all’accelerazione in ambito container (e in particolare con la piattaforma Kubernetes) per l’application modernization, all’ulteriore focus su un cloud sempre più ibrido e “multi” e, naturalmente, alle novità in ambito AI. Ma il convitato di pietra a Barcellona è stata sicuramente l’acquisizione di Vmware da parte di
Broadcom. I contorni e le conseguenze di questa operazione per Nutanix sono decisamente marcati e per molti versi ancora difficili da valutare, e hanno tenuto banco in tutte le sessioni delle tre giornate in Catalogna. Per la multinazionale guidata da Rajiv Ramaswami, la mossa di Broadcom è stata una vera e inaspettata onda anomala, che Nutanix sta ora cercando di cavalcare.
“Fino a non molto tempo fa, pochi avrebbero pensato di sostituire l’hypervisor”, ha detto Ramaswami nel corso di un’intervista, “ma ora lo scenario è cambiato. Noi non pote-
vamo prevedere un evento del genere ma stiamo comunque già facendo il possibile per aiutare i clienti a comprendere come non perdere il passo della modernizzazione dell’IT. In una prima fase, siamo ovviamente pronti a sostituire l’hypervisor con il nostro Ahv, ma nel medio termine gli scenari possono essere anche altri, non solo quelli legati al contenimento dei costi (i prezzi delle licenze Vmware sono stati aumentati subito dopo la mossa di Broadcom, NdR)”.
Broadcom e l’happy problem
Gartner sostiene che, a seguito del cambio di strategia commerciale imposto da Broadcom, il 30% dei clienti abbandonerà Vmware entro il 2028. Parliamo di circa 90mila aziende che dovranno trovare un’alternativa. Giusto per dare una chiave di lettura, oggi i clienti di Nutanix sono 25mila. “Molti clienti di Vmware”, ha detto Lee Caswell, senior vice president of product and solutions marketing di Nutanix, “hanno una costosa architettura a tre livelli: server (anche virtuali), storage e switch. Il prezzo delle licenze e l’incertezza circa il futuro sono aumentati, ma loro non possono cambiare tutto da un giorno all’altro. L’affare Broadcom ha solo accelerato un processo, la modernizzazione, che era già in corso”. “Registriamo un grande interesse da parte di nuovi clienti e nuovi partner”, ha affermato senza mezzi termini Sammy Zoghlami, senior vice president Emea, “ma noi pensiamo
che la cosa più importante non sia passare da Vmware a Nutanix, quanto modernizzare secondo i modi ei tempi più consoni a ciascun cliente. Già oggi abbiamo un numero di progetti in corso che è dieci volte più grande di quello che potevamo gestire pochi anni fa. Parliamo di un happy problem, ma dobbiamo comunque affrontarlo nel modo giusto e non sprecare l’occasione”.
Container e AI protagonisti
Tornando alle novità annunciate, Caswell ha illustrato la strategia per le soluzioni Avh e Nutanix Central (la dashboard centralizzata, erogata in modalità SaaS, che consente di gestire il multicloud ibrido in modo semplice). Le direzioni di sviluppo sono l’Enterprise Management e nuove
funzioni per facilitare la migrazione e la modernizzazione (sempre nell’ottica di cavalcare l’onda provocata da Broadcom), come la cyber resilienza (in cui i tasselli fondamentali sono Nutanix Data Lens e il Disaster Recovery) e il tradizionale cavallo di battaglia della multinazionale, cioè la scalabilità unita alle prestazioni. “Nutanix Central”, ha detto Caswell, “consente di gestire agevolmente l’intero modello core-cloud-edge, monitorando attivamente le risorse impiegate ma anche i consumi energetici”. L’altro mantra di Nutanix, anche se più recente, riguarda la modernizzazione delle applicazioni attraverso le tecnologie di containerizzazione. È stato citato e illustrato direttamente dal Ceo Ramaswami e viene condensato nello slogan “build once, run
everywhere”. Sulla scia di “Project Beacon”, lanciato lo scorso anno, ma non solo, a Barcellona hanno trovato molto spazio sul palco la Nutanix Kubernetes Platform (Nkp) e tre componenti: Kubernetes Managament e Infrastructure Data Services, appena annunciati, e Platform Data Services, lanciato nel 2023. L’intelligenza artificiale, dulcis in fundo, ha visto l’annuncio di Gpt-in-a-box 2.0, ora più integrato, tra le altre tecnologie, con i microservizi Nvidia e con la libreria di modelli Llm di Hugging Face. Ma più che sulla tecnologia, Nutanix punta sull’Ai Partner Program, per alleviare quello che per tutte le aziende resta uno dei mal di pancia più sentiti in ambito intelligenza artificiale: la mancanza di skill
Emilio Mango
UNA PARTNERSHIP CHE SI RAFFORZA
C’è una Fastweb che dal 2013 offre servizi cloud alle imprese e che negli ultimi anni ha puntato sia sulla costruzione di data center (oggi sono cinque) sia sulle alleanze con tutti gli hyperscaler, tra cui Aws in primis, ma anche Google Cloud, Microsoft Azure e altri. È diventata quindi un vero fornitore hybrid e multicloud, in grado di erogare servizi di data center e disaster recovery ad aziende di medie e grandi dimensioni. Da poco meno di due anni questa Fastweb è un partner soddisfatto di Nutanix. “Inizialmente questa è stata una scelta tattica”, racconta Domenico Impelliccieri, head of FastCloud Ict & Sap services di Fastweb, “ma poi c’è stato un rafforzamento delle relazioni, perché ci siamo trovati a nostro agio sia con le tecnologie sia con le persone. Abbiamo iniziato a lavorare su alcuni ambiti, come l’iperconvergenza, il disaster recovery as-a-Service e la business continuity”. Il nuovo fronte di partnership aperto recentemente tra Fastweb e Nutanix è quello dell’intelligenza artificiale. Non è un segreto che la società, parte del gruppo Swisscom (oggi sugli scudi per aver portato a termine l’acquisizione di Vodafone Italia), stia ultimando il suo primo data center dedicato esclusivamente all’intelligenza artificiale e lo stia facendo in stretta collaborazione con Nvidia. “A luglio debutteremo sul mercato con un’offerta cloud/AI”, dice Impelliccieri, “e anche in quest’ambito, come in tutti gli altri dell’Ict, il segreto è semplificare. Da questo punto di vista, lavorare con Nutanix in questi ultimi anni ci ha insegnato molto, e non è detto che anche nell’ambito dell’intelligenza artificiale non ci possa essere una collaborazione così come è stato per l’offerta FastCloud”. Anche nel caso di Fastweb, così come è successo per molti altri clienti e partner, l’operazione Broadcom-Vmware ha avuto l’effetto di accelerare e consolidare la partnership con Nutanix, che oggi prevede un’offerta di servizi disaster recovery-as-aservice e FinOps (la gestione dei parametri finanziari delle infrastrutture cloud) basati sulle soluzioni della multinazionale statunitense.
NUOVE COMPETENZE PER CAVALCARE L’ONDA
In Italia, nell’arco di un anno sono state oltre 700mila le persone coinvolte da Microsoft in percorsi di formazione su temi digitali e sull’AI.
Microsoft è decisa a conservare il proprio ruolo di big tech in un futuro che, con tutta probabilità, sarà sempre più intriso di intelligenza artificiale. L’azienda però non fa mistero di un problema noto non solo agli addetti ai lavori, ma sempre più anche alle aziende di ogni settore: le competenze. “Secondo uno studio che abbiamo realizzato con Ambrosetti, l’impatto dell’AI generativa sull’economia italiana sarà quattro volte l’impatto del Piano Marshall”, ha dichiarato Matteo Mille, chief sales enablement & operations Microsoft Italia. “Ma le competenze umanistiche saranno fondamentali per interagire con i sistemi di intelligenza artificiale. Bisogna uscire dal perimetro dello Stem, che pure è un ambito fondamentale”. Secondo lo studio “2024 AI Jobs Barometer” di Pwc, basato sull’analisi di oltre mezzo miliardo di annunci di lavoro di aziende di 15 Paesi, le offerte per
posizioni professionali in ambito AI crescono 3,5 volte più velocemente rispetto alla media. Per ogni offerta di lavoro in ambito AI rilevata nel 2012, nel 2024 se ne contano sette (il dato è riferito a sei dei 15 Paesi considerati).
L’esigenza di sviluppare competenze in ambito intelligenza artificiale riguarda quindi le professioni informatiche, innanzitutto, ma più in generale tutto il mondo dei colletti bianchi, su tutti i livelli dell’organigramma aziendale. Microsoft sta facendo la propria parte con diverse iniziative, anche in Italia, per esempio con le attività di formazione incluse nel programma AI L.A.B., lanciato pochi mesi fa, e con il più ampio progetto Ambizione Italia. Nell’arco di un anno l’azienda ha coinvolto oltre 700mila persone in percorsi di formazione centrati su nuove tecnologie e competenze digitali. Sono circa settemila quelle che hanno ottenuto attestati di formazione e vere e proprie certificazioni sulle tecnologie di GenAI di Microsoft, come Copilot.
“Penso che le aziende riconoscano che ci troviamo di fronte a una tecnologia trasformativa e che l'opportunità davanti è ghiotta, non si tratta solo di hype”, ha commentato Vincenzo Esposito, amministratore delegato di Microsoft Italia. “Nel mondo del knowledge working, anche da prima dell’esplosione dell’AI, il benessere delle persone e i risultati delle aziende vanno di pari passo”. Parole che trovano conferma nell’ultimo “Work Trend Index” di Microsoft, edizione 2024 (basato su 31mila interviste online compilate da altrettanti profes-
sionisti di aziende di 31 settori): tra chi svolge professioni intellettuali, il 75% già utilizza strumenti di AI nel proprio lavoro, riscontrando vantaggi come il risparmio di tempo (per il 90% degli utilizzatori), la capacità di focalizzarsi sulle cose importanti (85%) e la maggiore creatività (84%).
“Con l’AI le aziende possono ottenere risparmi e allo stesso tempo le persone possono migliorare il proprio lavoro”, ha sintetizzato Esposito. “Se avessimo la capacità di iniettare l’intelligenza artificiale in settori dove l’Italia già eccelle, come la manifattura e la moda, allora sbloccheremmo grandi possibilità. In un Paese dove la produttività è stagnante e dove le persone che escono dal mercato del lavoro sono più di quelle che vi entrano, con l’AI abbiamo una grande opportunità da cogliere ma è necessario mettere le persone al centro”.
Valentina Bernocco
OFFERTA CONSOLIDATA, STRATEGIA NUOVA
Tp-Link punta alle piccole e medie imprese facendo leva su una nuova identità, più internazionale.
Da un lato il networking, dall’altro la domotica: il marchio Tp-Link da tempo ha trovato casa nelle abitazioni di mezzo mondo, considerando la sua presenza sul mercato da quasi trent’anni e la distribuzione commerciale in 170 aree geografiche. L’Italia non fa eccezione: nel nostro Paese Tp-Link vanta una quota del 65,5% nel mercato dei prodotti Wlan. Tradizionalmente forte nel segmento consumer, oggi l’azienda punta ad allargarsi nell’ambito delle piccole e medie imprese, facendo leva anche sull’assetto organizzativo e dell’identità si cui si è dotata negli ultimi due anni. All’inizio del 2022 Tp-Link Corporation Group ha avviato la formale separazione organizzativa da Tp-Link Technologies Co. Ltd., società con sede in Cina e che ora è un’entità autonoma. La sede del gruppo, che conta quattro centri di ricerca e sviluppo, tre poli produttivi e 42 filiali, è ora a Singapore. La
riorganizzazione è stata non solo un escamotage tecnico per evitare alcune restrizioni commerciali, ma ha coinvolto aspetti giuridici, la forza lavoro, le attività di ricerca e sviluppo, produzione, marketing e servizio clienti. Inoltre lo scorso anno è stato aperto in California, a Irvine, un altro quartier generale internazionale che coordina le attività di ricerca e sviluppo e di marketing.
“Con questi cambiamenti contiamo di rendere Tp-link un’azienda percepita come più internazionale, globale”, ha spiegato Diego Han, country manager della filiale italiana. “Nel 2023 in Italia abbiamo raggiunto il miglior risultato degli ultimi dieci anni, con oltre l’11% di crescita di ricavi”. Parallelamente ai ricavi, sta crescendo anche la squadra di collaboratori: erano 24 a inizio 2023 e sono oggi una quarantina, con la prospettiva di nuove assunzioni. “TpLink Italia ha grandi ambizioni”, ha
Diego Han
proseguito il country manager. “Seguiremo la stessa strategia seguita a livello globale, ovvero innanzitutto conservare il ruolo primario nel mercato consumer, dove abbiamo attualmente una quota del 65%, che vogliamo portare al 75% in uno o due anni. Secondariamente, vogliamo crescere nel segmento delle Pmi”. Per servire questo bacino di clientela è già operativo un team composto da 12 persone, a cui si aggiungeranno altre risorse nei prossimi mesi. Il focus sarà sulle aziende di dimensioni piccole e medie soprattutto nei settori ospitalità, retail, istruzione, trasporti e interlogistica. Strutture di prezzo, policy e supporto tecnico saranno tarati sul target delle Pmi, e inoltre si farà leva sulle caratteristiche del prodotto più allettanti per la clientela aziendale, come la semplicità di installazione e la gestione centralizzata. Come rimarcato da Han, nel tempo le aziende hanno acquistato e accumulato apparati di rete di produttori diversi e faticano, ora, a gestire queste tecnologie eterogenee. “Crediamo che questa sarà una funzione molto importante per l’offerta di Tp-Link per le aziende: un’unica soluzione gestita da un’unica console”, ha detto il manager. Per quanto riguarda le evoluzioni tecnologiche, anche nelle soluzioni di connettività e di domotica di Tp-Link in futuro ci sarà sempre più spazio per l’intelligenza artificiale. “Per le aziende è un argomento molto caldo, ma alcuni sono agli inizi”, ha osservato Han, citando come casi d’uso dell’AI il supporto nelle operazioni di configurazione e manutenzione delle reti Wi-Fi, un generale miglioramento dell’esperienza utente, e ancora l’impiego di algoritmi nell’analisi dei filmati della videosorveglianza. V.B.
IL NUOVO “ANNO NERO” DEI CYBERATTACCHI
Botnet persistenti, assalti all’OT e intelligenza artificiale usata a scopi malevoli. Il punto di vista di Fortinet.
Non c’è limite alla crescita delle minacce cyber, ma gli strumenti per combatterle continuano a evolversi in parallelo. E in queste dinamiche, come noto, l’intelligenza artificiale ha un duplice ruolo sul fronte dei “buoni” e dei “cattivi”. “Da tempo si parla di anno nero, ma lo scenario continua a peggiorare”, ha detto Massimo Palermo, vicepresidente Europa e country manager Italia e Malta di Fortinet, durante il Fortinet Security Day tenutosi lo scorso maggio Milano. “Stiamo mediamenti fragili di fronte agli attacchi. Nei nostri clienti vediamo una mancanza di visibilità sulla superficie di attacco, una frammentazione tecnologia e una grande necessità di tenere sotto controllo minacce sempre più distruttive, veloci e sofisticate”. Parole che si rispecchiano nei dati dell’ultimo “Global Threat Landscape Report” edito dai FortiGuard Labs. Lo studio, a cadenza semestrale e basato sui dati raccolti da oltre dieci milioni di firewall Fortinet installati, mostra per la seconda metà del 2023 un’accelerazione negli attacchi basati su exploit di vulnerabilità (vecchie e nuove), oltre all’aumento delle attività
ransomware e wiper mirate, rivolte contro il settore industriale e contro la tecnologia operativa (Operational Technology, OT). “Lo scenario della cybersicurezza dell’OT è drammatico”, ha osservato Aldo Di Mattia, senior manager systems engineering Public Sector Italy di Fortinet, “perché i software sono spesso obsoleti e le patch vengono rilasciate con scarsa frequenza. Sono nel mirino treni, ospedali, centrali idroelettriche. Alcune aziende stanno correndo ai ripari. Possiamo dire che per la prima volta nelle infrastrutture critiche il problema non è la disponibilità di risorse da spendere, che con il Pnrr esistono, bensì la capacità di capire come spenderle”. Tra le statistiche del secondo semestre 2023 ci sono anche i circa quattro giorni e mezzo impiegati, in media, dagli attaccanti per sfruttare una vulnerabilità in seguito alla sua divulgazione. Le botnet hanno dimostrato un’incredibile capacità di resistere ai contrattacchi: prima che le comunicazioni di comando e controllo si interrompano passano, in media, 85 giorni dal rilevamento.
“Una delle macrotendenze che osserviamo
quest’anno”, ha proseguito Palermo, “è l’innalzamento del livello medio delle barriere, data la maggiore sofisticazione del cybercrimine, che rappresenta per volume di fatturato la terza economia mondiale, e anche degli attori state-sponsored che prendono di mira le infrastrutture critiche. D’altro lato c’è una tendenza del cybercrimine a operare in modo sempre più globale”. Gli attacchi sono spesso transnazionali ed è importante, quindi, guardare oltre confine e sempre più mettere in comune gli sforzi e le conoscenze. Altra tendenza osservata lo scorso anno e confermata nel 2024 è la crescita delle attività malevole basate su intelligenza artificiale, in particolare deepfake e campagne di phishing. “L’AI non è qualcosa di nuovo, ma sta sempre più esplodendo nell’uso comune”, ha detto Antonio Madoglio, direttore system engineering Italy di Fortinet. “Nella cybersicurezza vediamo sia rischi sia benefici: è ormai assodato che l’AI venga usata sia da chi difende sia da chi attacca”. L’AI aiuta gli assalitori a essere più veloci, grazie all’automazione, ed efficaci grazie alla personalizzazione degli attacchi, e inoltre abbassa la soglia tecnica, ha spiegato Madoglio, ricordando che Fortinet usa il machine learning per allenare i sistemi a riconoscere il malware non ancora classificato. “Per l’AI è fondamentale essere alimentata da dati certi, come quelli che Fortinet raccoglie”, ha concluso. V.B.
GENAI E LOW-CODE INDIRIZZANO L’ESPERIENZA
DIGITALE
Nexthink, unicorno svizzero specializzato in digital employee experience, trasforma la propria offerta in direzione dell’orchestrazione e della visibilità.
Specializzata nella gestione della digital employee experience (Dex), la scaleup svizzera Nexthink sta lavorando, negli ultimi tempi, soprattutto per fare evolvere la propria piattaforma in direzione della semplificazione del lavoro non solo dei dipendenti in generale, ma soprattutto dei dipartimenti IT. Fra le novità più recenti c’è Flow, una tecnologia di automazione e orchestrazione dei task che fa leva soprattutto sulle potenzialità degli sviluppi low-code (funzionalità che permettono di creare software senza dover scrivere codice sorgente). “Quando abbiamo iniziato il nostro viaggio, nove anni fa, i team dedicati all’end user computing erano impegnati a risolvere problemi ricorsivi”, commenta Mario Tarallo, product management director di Nexthink. “Gli sviluppi verso i servizi cloud, il lavoro ibrido e le minacce di
sicurezza richiedono di aumentare le prestazioni, ma l’automazione da sola non è risolutiva, se non si riesce a ridurre il peso dell’intervento umano. Per questo, Flow orchestra l’esperienza degli utenti partendo dai flussi di lavoro e mettendo insieme mattoncini che prima erano poco strutturati”. Il supporto ai team IT passa anche per acquisizioni mirate. Di pochi mesi fa è quella di AppLearn, società britannica specializzata nell’apprendimento automatico e nella guida digitale per i dipendenti all’interno delle applicazioni. La soluzione Adopt, anch’essa no-code, si sovrappone a ogni genere di applicazione SaaS e consente di creare esperienze d’uso anche personalizzate. “Per i dipartimenti IT, si aggiunge la possibilità di monitorare l’effettivo utilizzo delle applicazioni da parte degli utenti”, puntualizza Tarallo.
Naturalmente, in un settore come quello della digital employee experience non poteva mancare l’apporto dell’intelligenza artificiale. “Si tratta di una tecnologia che abbiamo sempre avuto nel nostro Dna”, sottolinea ancora il manager, “ma ora siamo in grado di sfruttare l’AI generativa per democratizzare l’osservabilità del digital workplace. L’impiego del linguaggio naturale consente di interagire in maniera conversazionale con la piattaforma, ad esempio per creare rapidamente survey su determinati argomenti, gestire il troubleshooting in maniera più efficiente o generare raccomandazioni sull’utilizzo delle applicazioni”. Nexthink è presente da qualche anno anche in Italia e viene da chiedersi quale sia oggi il livello di cultura presente nelle aziende sui temi della gestione della Dex. “Siamo ancora in una fase nella quale il peso del lavoro ibrido è importante”, osserva Tarallo. “Poter capire come ottenere risparmi dall’utilizzo delle risorse tecnologiche fornisce vantaggi non trascurabili. A partire da questioni apparentemente di poco conto, come il livello di spegnimento del computer al termine della giornata di lavoro, si possono realizzare iniziative di awareness che migliorano l’esperienza dell’utente e agiscono per l’azienda anche in direzione della green IT”. Sul territorio, la presenza di Nexthink si è gradualmente rafforzata soprattutto grazie a lla creazione di una rete di partner sia globali sia locali. “Abbiamo clienti in diversi settori, senza particolari specializzazioni. Naturalmente, le società d i grandi dimensioni percepiscono più velocemente il valore e il beneficio perché lavorano in ambienti più complessi”, conclude Tarallo.
Roberto Bonino
DATA PROTECTION E NIS2: TEMI CALDI PER LE AZIENDE
Secondo uno studio di Zscaler, in Italia il 59% dei reparti IT non riceve dai dirigenti il necessario supporto per la compliance.
Alcune parole d’ordine caratterizzano l’attuale proposizione di Zscaler: agilità, efficienza, resilienza e protezione dei dati. Non sono termini di per sé così originali, ma lo specialista di cybersecurity fa leva sull’approccio Zero Trust (che prevede controlli continui e la concessione del privilegio minimo necessario), su una piattaforma cloudnativa improntata alla semplificazione infrastrutturale e sulla capacità di fare coaching per aiutare le aziende a superare le resistenze al cambiamento. I risultati sembrano premiare la strategia, visto che Zscaler ha ormai superato i 2 miliardi di dollari di fatturato globale, ha circa 7.700 clienti nel mondo e gestisce 350 miliardi di transazioni al giorno. Il giro d’affari è cresciuto del 35% anno su anno nell’ultimo trimestre a livello globale e “qualcosa di più in Italia”, secondo quanto indicato dalla country manager, Elena Accardi L’offerta si incentra sulla soluzione Zero Trust Exchange, che protegge contro cyberattacchi e perdite di dati, collegando in maniera sicura utenti, dispositivi e applicazioni. La recen-
te acquisizione di Avalor, specialista nell’analisi e protezione dei dati multisource, ha consentito di consolidare l’offerta, migliorando “la visibilità e la nozione di rischio per i clienti, con una dashboard che mette a disposizione una mappa globale dell’azienda, dettagliata per dipartimenti, superficie di attacco, angolazioni, movimenti laterali, vulnerabilità e altro”, ha raccontato Accardi. Recente è anche l’acquisizione di Airgap Networks, che sarà integrata in Zero Trust Exchange per proteggere il traffico orizzontale in filiali, campus e infrastrutture OT.
Un recente aggiornamento riguarda la soluzione Data Protection, ora potenziata dall’intelligenza artificiale: “Vengono protetti dati strutturati e non, in transito, at rest o in corso di utilizzo”, ha descritto Marco Catino, sales engineer manager di Zscaler. “Sono coperti tutti i canali online, dispositivi, traffico Web, SaaS, posta elettronica, mobile e applicazioni private in data center o cloud pubblici”. Tra i miglioramenti apportati, la Data Security Posture Management (Dspm) aiuta a cercare,
classificare e proteggere i dati sensibili in ambienti cloud pubblici (come Aws e Microsoft Azure). Inoltre sono state aggiunte funzioni che aiutano a comprendere gli eventuali rischi delle applicazioni di GenAI.
In qualità non solo di fornitore tecnologico ma di consulente, la società sta anche aiutando i clienti nella compliance alle nuove normative, come la direttiva Nis2 (operativa dal prossimo ottobre). Una ricerca di Zscaler, condotta su 875 aziende sopra i 500 dipendenti, ha evidenziato che il 77% degli italiani intervistati è fiducioso di poter soddisfare i requisiti di conformità alla direttiva prima della scadenza, mentre il 13% ritiene di essere già pronto. Tuttavia, solo il 48% giudica che i propri team comprendano appieno i requisiti necessari per essere in regola e il 59% pensa essi non ricevano il necessario supporto da parte della dirigenza per rispettare la scadenza. “Traspare la consapevolezza dell’importanza dei cambiamenti introdotti da Nis2, ma l’ottimismo sugli adempimenti sembra poggiare su basi poco solide”, ha rilevato Stefano Alei, transformation architect di Zscaler. “Pertanto molte aziende si troveranno nella condizione di dover correre per arrivare in tempo, con il rischio di dover trascurare altri processi di cybersecurity”. I leader IT dovranno lavorare soprattutto su sviluppo e manutenzione di reti e sistemi informativi (per il 35% degli italiani intervistati), sulle pratiche di igiene informatica di base e formazione (26%), su policy e procedure per un’efficace gestione del rischio (35%). R.B.
UN SUPPORTO ALLA PIANIFICAZIONE
CON GLI INSIGHT
L’offerta di Board è in evoluzione. Il general manager italiano, Mauro Bertoletti, analizza le nuove prospettive di mercato.
Il mercato della Business Intelligence ha vissuto un primo grande scossone nella prima decade del Millennio, con l’ingresso dei big player del software, avvenuto in buona misura tramite acquisizioni. I sopravvissuti a quell’ondata hanno cercato di identificare o rafforzare la propria specializzazione ed è così che Board opera ancora oggi sul mercato, puntando sul supporto ai processi di pianificazione. Oggi tale concetto è evoluto alla luce delle incertezze complessive dei mercati e della velocità dei mutamenti di scenario. Se in passato le aziende pianificavano soprattutto basandosi sulle serie storiche e su indicatori percentuali almeno di medio termine, nell’attuale contesto occorre essere più reattivi e flessibili per prendere decisioni rapide ed efficaci allo stesso tempo. Ma questo significa
poter lavorare su dati il più possibile credibili e ben governati. “Per molte realtà si tratta di un traguardo critico da raggiungere”, commenta Mauro Bertoletti, general manager di Board Italia. “Rimangono ancora silos che frenano la necessaria collaborazione fra i dipartimenti delle aziende, ma anche attività ancora svolte manualmente e una cultura della governance piuttosto debole”.
Storicamente, l’offerta di Board si basa su una piattaforma omnicomprensiva per la pianificazione basata su insight. Tuttavia, proprio per superare i limiti fin qui indicati, l’approccio sta evolvendo verso la proposizione di moduli più standardizzati, che troveranno concretizzazione già nell’ultima parte dell’anno e poi anche nel corso del 2025. “Manterremo di sicuro il nostro focus”, specifica
Bertoletti, “costruito sulla semplicità di sviluppo e sul recupero organizzato delle informazioni dall’integrazione con le altre componenti dei sistemi informativi, dagli Erp ai data warehouse. Ma sappiamo che la complessità è aumentata di pari passo con la mole di dati da considerare e organizzare. Quindi, il nostro intento è facilitare ulteriormente il processo di pianificazione”.
Negli ultimi anni, il vendor ha rafforzato le proprie competenze sui processi e oggi supporta il percorso di innovazione non solo nel segmento piccole e medie imprese (dove storicamente ha maggiormente radicato la propria presenza) ma anche nel mondo enterprise: “I 900 clienti italiani rappresentano la realtà del tessuto economico nazionale”, si affretta a puntualizzare ancora Bertoletti. “Tuttavia, oggi la quota di business ricavata dalla fascia più alta sta crescendo e rappresenta il 30% del nostro business”. Il posizionamento più articolato si riflette sul rapporto con i partner, che oggi vedono una commistione di attori più strettamente “commerciali” e system integrator, sia più generalisti che specializzati. Rilevante appare soprattutto la collaborazione con Microsoft. Una collaborazione fin qui soprattutto di natura tecnologica e legata agli sviluppi cloud su Azure e all’integrazione con le più moderne tecnologie quali AI, machine learning e supporto alla pianificazione, ma che potrebbe evolvere anche verso un rapporto commerciale. In questo modo, Board intende procedere per consolidare una presenza già radicata nel retail, nella Gdo e nei beni di consumo, ma ora indirizzata anche verso le banche e altri nuovi mercati.
Roberto Bonino
IL NETWORKING INCONTRA LA SICUREZZA E L’OSSERVABILITÀ
Via libera alle integrazioni tra Cisco Security Cloud e la tecnologia di Splunk, recentemente acquisita, oltre a investimenti in startup di intelligenza artificiale.
Cybersicurezza e intelligenza artificiale sono protagonisti degli annunci del Cisco Live 2024, evento svoltosi dal 2 al 6 giugno a Las Vegas. Non è un caso, ovviamente, perché l’AI è al centro di quasi tutte le evoluzioni tecnologiche annunciate negli ultimi due anni, mentre la cybersicurezza è sempre più strettamente intrecciata con le attività di gestione delle reti. E con la recente acquisizione di Splunk, azienda specializzata in osservabilità, Cisco ha rafforzato quest’area della propria offerta. “Crediamo che le capacità e tecnologie di Splunk daranno a Cisco una supercarica”, ha detto Chintan Patel, chief technology officer Regno Unito e Irlanda di Cisco, in collegamento streaming con i giornalisti. “Mettendo insieme il nostro networking con la sicurezza e l’osservabilità di Splunk otterremo qualcosa che non ha eguali nel mercato”. Il percorso di integrazione è già cominciato con un’estensione software che permette di inviare i dati di tele-
metria e di analytics di Cisco Security Cloud alla piattaforma di osservabilità di Splunk. Al momento l’integrazione è attiva per Cisco Duo e Secure Malware Analytics, ma ulteriori fonti di dati saranno aggiunte nei prossimi mesi. “Più che un’acquisizione, questa davvero sembra la fusione di due aziende”, ha detto ai giornalisti James Hodge, group vice president e chief strategy advisor Emea di Splunk. “Ribadiamo che Splunk continuerà la propria roadmap di sviluppo”. Nell’ambito dell’intelligenza artificiale, gli annunci si estendono dalla strategia ai prodotti. Cisco Investments ha lanciato un fondo da un miliardo di dollari finalizzato ad alimentare l’ecosistema di startup che si occupano di AI, nonché a “espandere lo sviluppo di soluzioni di AI sicure e affidabili”, ha fatto sapere l’azienda. Come parte del fondo, Cisco farà degli “investimenti strategici” in tre società del settore, ovvero la californiana Scale AI, la canadese Cohere e la francese Mistral AI (su cui ha investito anche Microsoft).
C’è anche una novità per Hypershield, un’architettura di sicurezza per data center, che attraverso una tecnologia open source chiamata eBPF rafforza la protezione delle macchine virtuali e dei cluster di container Kubernets all’interno di cloud pubblici. Presentata lo scorso aprile, questa architettura supporterà le Dpu (Data Processing Unit) Pensando di Amd, che debutteranno sui server Ucs (Uni-
fied Computing System) di Cisco entro la fine dell’anno, mentre il supporto per le Ipu (Infrastructure Processing Unit) di Intel arriverà in un secondo momento. Tra gli annunci di infrastruttura c’è poi una soluzione cluster chiamata Nexus HyperFabric AI, che include sistemi hardware di Cisco (switch e cavi ottici), la Data Platform di Vast e componenti di calcolo di Nvidia, ovvero le Gpu Tensor Core, gli acceleratori di rete SuperNic e le Dpu BlueField-3. Cisco sta anche affrontando il problema della crescente frammentazione e complessità degli ambienti IT, con soluzioni che aiutano a semplificarne la gestione. Il nuovo Security Cloud Control fa leva sull’AI per ottenere insight azionabili, per unificare le policy e per automatizzare la gestione di ambienti IT ibridi. Dal prossimo settembre questo servizio sarà disponibile per Cisco Secure Firewall Threat Defense, Secure Firewall Asa, Multicloud Defense e Hypershield. “Cisco Security ha prodotto più innovazione nell’ultimo anno che nel precedente decennio, e quest’anno sarà un multiplo del precedente”, ha dichiarato Jeetu Patel, executive vice president e general manager della divisione security and collaboration.
“I nostri annunci attuali ci aiutano a concretizzare la visione di Cisco Security Cloud, portando ai nostri clienti una vera piattaforma di sicurezza per un mondo sempre più complesso e iper distribuito”. V.B.
CYBER INTELLIGENCE PER TUTTA LA “CATENA”
Lo strumento sviluppato da Jakala e Pragma Etimos aiuta nell’analisi del rischio finanziario e reputazionale legato ai fornitori.
I sistemi di produzione e distribuzione globali stanno attraversando un periodo di grande incertezza: negli ultimi cinque anni la pandemia, le dinamiche geopolitiche e la crisi climatica hanno messo a dura prova la tenuta delle supply chain e dei fornitori che le compongono. Diverse analisi condotte da Jakala sui dati del World Economic Forum, di Business Continuity Institute e di altri osservatori come Cnbc mostrano che, in questo contesto, il rischio strategico che corrono le imprese nell’ambito della supply chain può pesare tra il 40% e il 70% del valore. Il costo medio delle interruzioni delle catene di approvvigionamento è mediamente di 1,5 milioni di dollari al giorno, anche se varia a seconda del settore. Sono anche aumentati i rischi legati alla cybersicurezza e alla privacy, collocati al primo posto dalle aziende nella lista delle minacce alla resilienza delle catene di approvvigionamento. È in questo scenario che nasce la colla-
borazione tra Jakala, azienda focalizzata su dati, AI ed esperienze, e Pragma Etimos, una scale-up innovativa operante nel settore della Data Intelligence. Il frutto della partnership si chiama J-Risk: una piattaforma innovativa per l’analisi del rischio che è già stata adottata da grandi retailer italiani con supply chain strutturate e parchi fornitori complessi. “J-Risk è un potente strumento di Cyber Intelligence che rivoluziona l'utilizzo e la conoscenza dei dati in un contesto di AI”, dice Gaetano Lo Presti, founder & Ceo di Pragma Etimos, “una soluzione che consente di analizzare tutti i fornitori, mettendo a fattor comune i dati dell’azienda e quelli delle centrali rischi, ma anche i dati sui manager e le notizie che arrivano dai canali di comunicazione, per costruire una base di conoscenze unica, dinamica e costruita attraverso l’utilizzo delle più moderne tecniche di intelligenza artificiale”.
“È di fatto un motore di AI”, aggiunge Marco Di Dio Roccazzella, shareholder e general manager di Jakala, “che rientra nell’ambito del knowledge management e che, attingendo a fonti di dati strutturati e non strutturati, ne verifica la coerenza ed estrae dashboard che danno a chi gestisce il rischio in azienda indici e insight inequivocabili di rischiosità finanziaria ma anche reputazionale. Si tratta di analisi, soprattutto quelle delle notizie provenienti dai media, che se fatte da persone richiedono settimane, mentre con l’AI si possono completare in molto meno tempo e meno costi”.
“Sono diversi i vantaggi di questo tipo di soluzione”, dice ancora Lo Presti. “In
particolare, il cliente si rende indipendente dai data provider, amplia il proprio patrimonio informativo (non considerando solo i bilanci o i dati finanziari), può andare in profondità rispetto alle bad news e favorisce un approccio olistico all’analisi dei rischi”. A livello di piattaforma, J-Risk è stata progettata e sviluppata all’interno di un framework tecnologico protetto (risiede su Microsoft Azure ma può basarsi anche su altri cloud provider) e i dati che utilizza non sono esposti verso l’esterno. Lo strumento può essere attivato con due modalità: As-a-Service (su macchine Jakala) o ceduto al cliente e “cablato” tipicamente all’interno dei sistemi di procurement. Inoltre J-Risk è modulare: può svolgere analisi di tipo semantico o può essere estesa anche a dati non strutturati come file audio e video. I committenti di questo tipo di soluzioni sono gli uffici acquisti o i team che si occupano di indagini interne e di analisi e gestione del rischio finanziario. E.M.
IL BUSINESS PROCESS OUTSOURCING NELL’ERA DEI CHATBOT
Di recente Numero Blu Servizi ha intrapreso un cammino di trasformazione digitale, anche fondato sull’AI.
Anche in settori dove la tecnologia è alla base della proposizione di servizi, arrivano i momenti dei grandi balzi in avanti, spesso dettati da mutamenti di scenario che avvengono in tempi sorprendentemente rapidi. È il caso del Business Process Outsourcing, associato nella sua declinazione più comune ai servizi di contact center. Da oltre trent’anni opera in questo mercato Numero Blu Servizi, realtà che oggi conta su circa 1.500 operatori, dislocati in otto sedi in Italia. Da circa un anno l’azienda ha intrapreso un percorso di trasformazione digitale improntato alle più recenti evoluzioni del comparto: “Siamo ormai entrati nell’era della multicanalità e dell’intelligenza artificiale e questo ci ha spinto a innovare i nostri processi”, ha raccontato Valeria Suardi, di-
rettore operativo di Numero Blu Servizi. “Abbiamo selezionato con cura i partner, perché fondamentale per noi è mantenere eccellente il livello dei servizi e questo richiede attenzione e non certo fretta”.
Nel mix tra fornitori più consolidati e startup che l’azienda ha selezionato fin qui, rientrano fornitori di rilevanza nazionale per applicazioni come la suite di digital customer care omnicanale, la piattaforma per l'AI conversazionale, ma anche per lo sviluppo di chatbot in logica no-code : “Abbiamo testato i prodotti prima con il solo utilizzo interno e poi siamo passati alla proposizione commerciale per i clienti”, ha precisato Suardi. “I benefici delle scelte effettuate sono già tangibili, con l’erogazione di servizi più standardizzati e una maggior
rapidità nelle risposte. Sicuramente, una certa automazione di base spinge gli operatori verso attività a maggior valore aggiunto”.
Numero Blu Servizi realizza il 90% del proprio fatturato con l’assistenza e dispone di una base clienti, per il 60% collocati nel mondo finance. L’obiettivo attuale è offrire alla clientela servizi non più solo legati all’apporto umano, ma anche digitalizzati, accompagnando i percorsi di innovazione di questi stessi soggetti:
“In questo percorso, entra ormai regolarmente l’AI come acceleratore dei processi”, ha confermato Antonello Ragaini, responsabile Ict & Infrastructure di Numero Blu Servizi. “Noi usiamo già internamente tecnologie abilitanti per l'autoapprendimento, ma restiamo prudenti negli sviluppi per i nostri clienti, perché vogliamo accertarci che le risposte siano adeguate alle aspettative e non vadano fuori controllo. Per gli stessi Llm che sviluppiamo, tendiamo a utilizzare un ambiente on premise, più controllato, ma anche flessibile e veloce nel disegno delle soluzioni, grazie allo sfruttamento della logica no-code ”.
Le novità introdotte grazie alla trasformazione digitale potrebbero servire all’azienda per ampliare il proprio raggio d’azione: “Le gare che affrontiamo spesso contengono richieste di innovazione tecnologica e noi possiamo sfruttare il nostro differenziale competitivo della capacità di disegnare flussi e processi. Ci aspettiamo evoluzioni importanti soprattutto nel retail, dove già lavoriamo e abbiamo sviluppato soluzioni avanzate con player di riferimento nel settore”, ha concluso Suardi. Roberto Bonino
IL “LIFT & SHIFT” È UN AUTOGOL
Enrico Ferretti, managing director di Protiviti Italia, spiega quali sono percorsi da seguire e quali gli errori da evitare nella migrazione in cloud.
La tendenza alla migrazione in cloud è un dato di fatto anche in Italia. La ricerca “Digital Business Transformation Survey” di Tig - The Innovation Group indica che oggi oltre il 50% delle aziende si trova in stato avanzato nella migrazione dei processi e un altro 38% sta procedendo nella stessa direzione, avendo già consolidato almeno alcuni passaggi chiave. Le motivazioni della scelta sono chiare ai più: “Scalabilità tecnologica, volontà di tenere le spese sotto controllo, condivisione delle strategie di cybersecurity e anche attenzione alla sostenibilità stanno guidando da tempo l’evoluzione delle infrastrutture”, conferma Enrico Ferretti, managing director della società di consulenza Protiviti. “Si tratta di criteri di scelta perlopiù molto realistici, ma il percorso va affrontato in maniera corretta. Spesso dietro una scelta non si cela un modello strategico solido e questo vale soprattutto per le medie e piccole imprese”.
Non certo a sorpresa, è l’aspetto economico a guidare la scelta. Ma la citata ricerca di Tig testimonia anche come la gestione della spesa per i servizi cloud resti la principale sfida incontrata fino ad oggi nella migrazione (54% del campione analizzato). Su questo punto, Ferretti espone un punto di vista piuttosto netto: “Oggi si tende a fare soprattutto lift & shift, ma si tratta di un autogol, perché le applicazioni tradizionali non sono state progettate per operare in un contesto di pagamento a consumo. Se prima non si procede all’ottimizzazione delle risorse, il loro funzionamento 24x7 non può che portare alla lievitazione
dei costi”. La ricetta di Protiviti, che si è ritagliata il proprio spazio nel supporto alla trasformazione delle aziende, si fonda sulla comprensione degli interventi da effettuare sul parco applicativo, in direzione della modernizzazione del disegno, per poi poter effettivamente sfruttare i benefici del cloud, costruire un caso d’uso aziendale e infine monitorare quanto accade. “Lavoriamo con strumenti automatici di controllo della spesa e aggiungiamo la competenza delle nostre persone”, sottolinea Ferretti. “Siamo, così, in grado di far ottenere risparmi anche oltre il 50% rispetto alla situazione preesistente”. Esistono oggi strumenti che consentono di velocizzare e prevedere l’impatto sui costi delle azioni che si intraprendono. Protiviti fa leva sulle metodologie FinOps, ormai piuttosto consolidate ma che richiedono competenza, per capire
dove intervenire per recuperare efficienza: “Raccogliamo dati sui servizi che consumano di più e andiamo ad automatizzare il provisioning dove possibile, in alcuni casi senza nemmeno la necessità dell’intervento umano”, precisa Ferretti. L’approccio del consulente parte dalla progettazione delle landing zon e per le architetture di riferimento in ottica di distribuzione sul cloud, prima di entrare nel merito del parco applicativo. Qui si innesta la decisione su quali possano essere i primi passi da compiere, andando verso la migrazione o anche la dismissione per spostarsi su soluzioni SaaS. Internamente, esistono competenze su tutti gli hyperscaler, ma in Italia c’è una certa preferenza verso Microsoft Azure. L’azienda ha avuto una crescita ponderata organica dell’11% nei vent’anni di presenza in Italia. Oggi conta su un organico locale di oltre 400 persone distribuite su tre sedi.
Roberto Bonino
LA “SERENITÀ TECNOLOGICA” NON È UN MIRAGGIO
Cybersicurezza, Ucc, monitoraggio delle reti: sono alcuni dei focus di HiSolution. Ma si punta anche sulle competenze.
Un partner per la serenità tecnologica delle aziende: così HiSolution si propone oggi sul mercato. “Non siamo più strutturati su business unit perché vogliamo essere un unico punto di riferimento e interlocutore per il cliente”, illustra Luca Coturri, cofondatore dell’azienda toscana fornitrice di servizi gestiti (nata nel 2005) e dal 2013 suo chief executive officer. “Nel tempo la nostra visione è cambiata, ma non troppo. Anni fa puntavamo a essere l’interlocutore unico delle aziende, oggi ci posizioniamo come riferimento per la loro serenità”. Un pilastro della serenità delle aziende, di qualsiasi azienda, è probabilmente la cybersicurezza, “un ambito su cui le aziende ci contattano in prima persona, e quello su cui cresceremo più che in altri”, sottolinea il Ceo. “Oggi uno dei nostri focus di investimento è sul Noc, il Network Operations Center, sulle persone e anche sugli strumenti utilizzati. Il nostro Noc inizia a essere anche una sorta di Soc (Security Operations Center, NdR), anche se non usiamo ancora questa parola”.
HiSolution oggi sta centrando la sua proposta di soluzioni e servizi sulle necessità più sentite del momento, come la cybersicurezza, l’automazione, la migrazione in cloud e anche (esigenza sempreverde, ma ancor più forte in tempi di multicloud) la gestione delle infrastrutture. La società di Vecchiano, Pisa, sta anche investendo nello sviluppo software e nell’automazione, come dimostra l’acquisizione di Ict Plus (system integrator livornese, poi diventato una business
unit di HiSolution) realizzata nel 2022. Un ambito tecnologico di particolare focalizzazione, oltre alla cybersicurezza, è quello della Unified Communication and Collaboration (Ucc), ovvero l’insieme delle applicazioni e piattaforme di telefonia, messaggistica, videoconferenza, scambio di file e collaborazione a distanza. A partire dal post pandemia le esigenze delle aziende sono cambiate e sono nati progetti di migrazione della telefonia in cloud e di integrazione in Microsoft Teams. “I vent’anni di competenza di HiSolution nell’ambito
delle telecomunicazioni fanno di noi un partner molto interessante per le aziende”, sottolinea Jonathan Carlesi, responsabile commerciale. “La nostra è un’attività prettamente sartoriale, anche se abbiamo un’offerta a scaffale che serve da punto di partenza nella vendita”. Altra area di focalizzazione è il monitoraggio e controllo dell’infrastruttura dei clienti. “Sempre di più i clienti hanno la necessità di affidare in outsourcing una parte dei servizi o di portarsi in casa un consulente per gestire una parte della loro infrastruttura”, spiega Carlesi. “In azienda la tecnologia cresce anno su anno, ma non sempre le persone della squadra IT crescono di pari passo. La casistica varia, ma l’elemento comune è l’esigenza di avere un supporto e di poter dormire sonni tranquilli. Siamo responsabili della serenità tecnologica delle aziende, che magari non hanno le necessarie competenze al loro interno o che voglio supporto quando il personale è in ferie”.
La squadra di HiSolution conta su una quarantina di persone, che lavorano sia presso la sede dei clienti sia a distanza. Dopo un 2023 chiuso con 7,6 milioni di euro di ricavi, la previsione per quest’anno è di raggiungere gli 8,5 milioni di euro. “Stiamo crescendo in termini di ricavi e parallelamente ci aspettiamo di crescere in personale”, racconta Coturri. “Vogliamo persone che possano portare valore al cliente. In quanto società di servizi, le persone sono il nostro core business e quindi vogliamo ricercare quelle giuste. Da un lato non è facile reperire nuove risorse sul mercato del lavoro, dall’altro quelle che già lavorano con noi devono continuare a trovarsi bene. Investiamo quindi per offrire un ecosistema che garantisca benessere nell’ambiente di lavoro, formazione e incentivi”.
Valentina Bernocco
XDR, UN TRAMPOLINO PER
I FORNITORI DI SERVIZI GESTITI
Acronis aggiorna l’offerta proponendo il rilevamento e la risposta estesi (Extended Detection and Response), con una soluzione pensata per i Managed Service Provider.
I cyberattacchi diventano sempre più sofisticati ed espongono le aziende a rischi crescenti. Casi recenti come quelli accaduti a Benetton, Synlab o Fiab danno un’idea della gravità della situazione e della tipologia di bersagli colpiti. Secondo i dati forniti da Acronis, nella prima metà del 2024 in Italia sono stati esfiltrati già oltre 6 terabyte di dati, i rilevamenti di malware sono passati dal 18% al 25% e continua a crescere il numero di attacchi ransomware andati a buon fine. Gli attori che oggi meglio possono supportare le aziende nelle azioni di contrasto appaiono gli Msp, i Managed Service Provider. I fornitori di servizi gestiti però vanno dotati di soluzioni e competenze che li rendano operatori credibili agli occhi dei loro potenziali clienti. Nata nel backup e nella active protection , Acronis si propone oggi come inter-
locutore di riferimento per questi soggetti. “Disponiamo di una piattaforma articolata che non si occupa solo di protezione, ma anche di recovery e analisi”, descrive il presidente della società, Gaidar Magdanurov. “Vogliamo fare in modo che gli Msp possano fornire garanzie a clienti che lavorano con ambienti eterogenei e budget limitati”. L’ultima evoluzione tecnologica del vendor si chiama Xdr (acronimo di Extended Detection and Response) e intende andare oltre la proposta della semplice protezione degli endpoint (il classico Edr) con una soluzione estesa e integrata per la protezione dei dati, la gestione dei terminali e la ripartenza automatica in caso di incidente. Come anticipato, si tratta di una proposta studiata per gli Msp, essendo basata su un agent e una console unici per tutti i servizi, cui si aggiunge
una piattaforma personalizzabile per l’integrazione di tool supplementari in uno stack tecnologico unificato. Per proteggere i loro clienti, gli Msp che propongono servizi di sicurezza devono generalmente far coesistere diversi strumenti, con potenziali problematiche di complessità e costi di implementazione e manutenzione. “Noi proponiamo una soluzione all-in-one ”, sottolinea Denis Cassinerio, senior director e general manager Sud Emea di Acronis. “Grazie all’intelligenza artificiale e all’automazione, Xdr può generare azioni di risposta e ridurre il tempo necessario per contenere le minacce”. Nella realtà di molte aziende italiane, tuttavia, oggi siamo ancora fermi alla classica protezione degli endpoint. “Il problema è che per fare il salto verso l’Edr servono anche maggiori skill , che aumentano ulteriormente se si punta all’Xdr”, prosegue Cassinerio. “Ecco perché, accanto alla tecnologia, serve la capacità di offrire formazione. Noi abbiamo una academy molto attiva per i nostri partner. Ne abbiamo certificati 178 e i corsi più gettonati riguardano proprio le tematiche di sicurezza, backup e disaster recovery avanzati. Non a caso, i workload su server gestiti sono aumentati del 25% in un anno, i ticket sono calati del 40%, ma soprattutto le vendite sono cresciute del 104%”. Gli sviluppi per Acronis non si fermano qui: “Puntiamo all’Mdr, il Managed Detection and Response, per poter fornire un supporto evoluto in presenza di attacchi complessi, ma anche alla protezione delle email fino a quelle archiviate, anche per venire incontro alle esigenze di compliance delle aziende”, anticipa Magdanurov. Roberto Bonino
PICCOLE, VELOCI E SOSTENIBILI
L’impegno per la sostenibilità e la parità di genere connotano molte delle neoimprese mappate da Assintel nel nostro Paese.
Il Dna delle startup italiane è digitale, social e sostenibile, il loro mercato è prevalentemente B2B e si rivolgono per la maggior parte al settore Ict e dei servizi business. Questo, in sintesi, l’identikit emerso dallo studio “Assintel Report Speciale Startup”, recentemente pubblicato dall’associazione italiana delle imprese Ict di Confcommercio. La ricerca, svolta nel primo quadrimestre dell’anno e curata dall’ Istituto Ixè, mette in luce non solo le caratteristiche misurabili, come la dimensione delle neoimprese, ma anche aspetti di impegno sociale ed etica.
“Il focus di questa nuova ricerca non è stato tanto quello di una mappatura asettica delle startup italiane, quanto quello di concentrarci sullo spaccato più innovativo di questo mondo, per
coglierne le peculiarità e orientare gli investitori verso un sostegno allo sviluppo di questo prezioso ecosistema”, ha detto Dante Laudisa, vicepresidente di Assintel e coordinatore del progetto #startuphub2030, ideato per supportare la crescita e lo sviluppo delle neoimprese con percorsi una finanza non speculativa, ma anzi distributiva, generativa e sostenibile.
“Analizzando i risultati, si osserva poi che le startup associate Assintel evidenziano un risultato di posizionamento migliore nelle diverse metriche”, ha proseguito Laudisa. Quindi, far parte dell’ecosistema Assintel consentirebbe una condivisione e un confronto importante in termini di valori e contenuti, con ripercussioni sui risultati del business delle giovani imprese.
Rapide “scalatrici”
Le startup italiane sono tipicamente di piccola dimensione: l’83% ha meno di dieci occupati, il 72,6% ha meno di cinque soci. Tuttavia solo una minoranza è nella fase di ideazione (9,5%) o di prototipazione (10,9%), mentre la maggior parte si dimostra già in fase di scale-up (52,7%) o di lancio commerciale (26,9%), e questo accade anche in casi di bassa anzianità d’impresa (uno e due anni di vita): un segnale dell’elevata vitalità di queste realtà, che sono in grado di bruciare rapidamente le tappe del proprio sviluppo.
Nel 64,3% dei casi si tratta di realtà che operano nel mercato B2B, ovvero non propongono prodotti e servizi all’utente finale. I principali segmenti di mercato coperti sono l’Ict (per il 38,1% delle realtà), i prodotti e servizi business (37,4%), l’area healthcare, pharma & biotech (18%), la manifattura (17,3%), la finanza (17%) e l’agroalimentare (17%). Una caratteristica pressoché onnipresente è la presenza online, su siti Web o canali social, che accomuna il 99% delle startup. Linkedin è il social network preferenziale (usato nell’85% dei casi) seguito da Facebook (57,8%) Instagram (57,1%), YouTube (31,3%), TikTok (12,9%) e infine X (10,5%). A livello
Tecnologie e competenze presenti
di tecnologie adottate in azienda, non sorprende che l’intelligenza artificiale sia presente nel 43,9% di esse, seguita dalle piattaforme digitali (32%), dal cloud (28,9%) e da sistemi di social media marketing (28,9%). Anche l’aspetto delle tecnologie proprietarie è peculiare: il 58,1% delle startup ne è già dotato o le sta sviluppando, percentuale che sale però al 90,1% per le realtà associate Assintel. Sul totale delle censite, inoltre, 38,4% ha già sviluppato o sta sviluppando brevetti.
Vocazione green
Un dato interessante è la connessione con il valore della sostenibilità. Il 68% delle startup intervistate ha dichiarato che il proprio prodotto ha un impatto in termini ecologici e di sostenibilità.
La percentuale aumenta tra chi opera nei settori energia e utilities (75,6%), sanità, farmaceutico e biotecnologie (75,5%), finanza (72%) e Ict (71,4%).
“Questo dato”, ha commentato Laudisa, “per noi è la conferma che stiamo andando nella giusta direzione: alle startup che gravitano attorno all’ecosistema Assintel proponiamo infatti un assessment ad hoc che lega gli indici Esg ai criteri di premialità, per entrare in contatto con quegli investitori che sposano la nostra filosofia di sostenibilità”.
Per quanto riguarda la parità di genere, si conferma l’annoso problema di un
La tua soluzione/servizio ha un impatto ecologico e/o sostenibile?
Fonte: Istituto Ixè per “Assintel Startup Survey 2024”
orientamento soprattutto maschile alle discipline Stem e di una cultura latente non ancora pienamente inclusiva. Questo si riverbera anche sulla composizione delle startup innovative: il 46% delle realtà mappate ha almeno una donna come socia fondatrice, ma solo il 25% ha una rappresentanza femminile nel proprio consiglio di amministrazione. Meno di una startup su cinque, il 21,9%, ha una donna nel ruolo di amministratore delegato. La buona notizia? La disparità di rappresentanza va riducendosi, perché nelle realtà di recente nascita il 37% ha almeno una donna nel proprio Cda. “Il mondo delle startup innovative italiane”, ha sottolineato vicepresidente di Assintel, “è come un nuovo genoma che porta nel Dna imprenditoriale la linfa dell’innovazione. Dobbiamo imparare a supportarlo a livello sistemico, con politiche di valorizzazione: pensiamo alla semplificazione burocratica, frenata dal passo indietro sulla costituzione online delle nuove startup tramite le Camere di Commercio, e soprattutto alla concessione del credito, ancora troppo conservativa”.
I migliori innovatori tech
Durante l’evento di presentazione del report sono stati premiati i tre vincitori dell’Assintel Digital Awards 2024, concorso che quest’anno si è focalizzato sui temi dell’intelligenza artificiale,
della cybersecurity e della blockchain, premiando le realtà più interessanti in queste categoria. Mywai ha sviluppato una piattaforma brevettata AIoT made in Italy che rende possibili, tramite intelligenza artificiale, la manutenzione predittiva e il controllo qualità su apparecchiature industriali, biomedicali e smart city. Il progetto ha avuto il sostegno della Commissione Europea, dell’Agenzia Spaziale Europea (Esa) e del ministero delle Imprese e del Made in Italy (Mimit). Altra premiata è Equixly, una piattaforma SaaS basata cloud che rafforza la sicurezza delle applicazioni integrando test di sicurezza sulle Api (interfacce di programmazione delle applicazioni) nel ciclo di sviluppo software. Grazie ad avanzati algoritmi di machine learning, questa tecnologie esegue automaticamente attacchi alle Api, identificando vulnerabilità e fornendo piani di rimedio predittivi. Accudire, infine, è una startup innovativa dell’industria 5.0, che propone una piattaforma collaborativa per digitalizzare i processi e la documentazione legata all’export. La soluzione è basata su tecnologie blockchain, di edge computing (calcolo “periferico”) e autenticazione a più fattori, che rendono i processi tracciabili, conformi e sicuri rispetto al rischio di contraffazione.
Elena Vaciago
LA SANITÀ HI-TECH
DI UNA “STORICA” STARTUP
Nata come spin-off di General Electric, Ge HealthCare conta oltre quattro milioni di apparecchiature installate e un miliardo di pazienti serviti ogni anno.
Èuno dei colossi della sanità a livello mondiale pur essendo, tecnicamente, una giovanissima azienda. Circa un anno e mezzo fa Ge HealthCare ha ufficialmente avviato il proprio percorso, a seguito dello scorporo da General Electric. Si è così creata, secondo la definizione offerta da Antonio Spera, presidente e amministratore delegato della filiale italiana, “una startup con 130 anni di storia”. In effetti, la società può già contare su oltre 50mila dipendenti nel mondo, una presenza in 160 Paesi, più di quattro milioni di apparecchiature installate e un miliardo di pazienti serviti ogni anno. L’offerta è molto ampia e spazia dalle tecnologie per l’ imaging biomedico (sistemi per risonanze magnetiche, Tac e quant’altro) ai sistemi ecografici, dagli accessori cli-
nici ai dispositivi cardiologici. Il volume di attività genera 18 miliardi di dollari di fatturato, ovvero una buona fetta degli 84 miliardi del mercato complessivo delle apparecchiature mediche. L’innovazione è parte integrante del core business di Ge HealthCare e si traduce prima di tutto nel complesso delle apparecchiature offerte al mercato, grazie al miliardo di dollari speso ogni anno in ricerca & sviluppo. All’interno c’è una forte componente digitale, tant’è vero che l’azienda ha creato internamente oltre duecento applicazioni software per la diagnostica, per fare un solo esempio. Con Antonio Spera abbiamo cercato di capire come si declinano sul campo alcuni dei concetti chiave che oggi orientano il processo di sviluppo delle imprese digital-based.
Fino a che punto potete considerarvi un’azienda data-driven? In quali ambiti e con quali strumenti a supporto?
Da anni abbiamo implementato processi decisionali fortemente condizionati dalla gestione e dall’analisi dei dati. La definizione delle nostre strategie fa perno su insight per area di business o legati al territorio. Siamo stati early adopter di tecnologie come il Crm e su questi volumi di dati abbiamo innestato altri strumenti come la Business Intelligence, i tool per fare business review, ma anche strumenti più operativi come, ad esempio, la pianificazione dell’operatività dei tecnici per l’assistenza, con un’applicazione di smart dispatch in cui si incrociano il luogo di partenza del professionista e quello dove è richiesto
l’intervento. Tutto questo riguarda la gestione interna dell’azienda, ma essere data-driven significa anche capire come interfacciarsi con la clientela. Le nostre macchine diagnostiche o gli elettrocardiografi sono ormai digital-nativi, per cui il nostro obiettivo è offrire macchine non solo performanti ma anche dotate di software e strumenti di visualizzazione pratici per chi deve farne uso.
Come l’intelligenza artificiale contribuisce a migliorare la vostra offerta?
Sono numerosi gli esempi pratici che descrivono quanto l’AI sia largamente distribuita nei nostri prodotti. Utilizziamo machine learning e deep learning all’interno dei megacomputer che realizzano la ricostruzione delle immagini: questo significa che, a parità di indagine diagnostica, i tempi si riducono circa della metà, ma c’è anche una considerevole riduzione della dose radiogena in strumenti come risonanze e Tac. Tutto ciò, inoltre, ha una ricaduta anche in termini di sostenibilità (perché si consuma meno energia) e di riduzione del disagio per il paziente. Ci sono poi i sistemi diagnostici, a cominciare dallo spettro per i radiologi, così come strumenti che forniscono alert sugli aspetti su cui appare opportuno indagare. La tecnologia serve anche a supporto di un lavoro più efficiente dei medici, potendo sfruttare, per esempio, strumenti come ecocardiografi palmari wireless guidati da software, in modo tale che l’utente impari velocemente a usarli ed esegua con più rapidità gli esami. Scalando di livello, abbiamo sviluppato dei software in grado di predire se un paziente si presenti o meno a un esame diagnostico o al prericovero, incrociando dati meteo, sul traffico, età della persona o distanza del percorso da compiere. A livello di sistema, abbiamo sviluppato un Command Center che consente di prevedere picchi nell’occupazione dei
letti, anche qui sulla base dell’incrocio di dati provenienti da numerose fonti. Quelle citate sono tutte applicazioni che sfruttano Business Intelligence e machine learning. Molte delle cose descritte vengono poi sviluppate da noi su una piattaforma chiamata Edison, che è aperta anche a terzi per ospitare i loro sviluppi e renderli commercializzabili.
In un campo come quello dei dispositivi sanitari, l’impiego di sensoristica e IoT può aiutare non solo i vostri utenti ma anche voi stessi a raccogliere informazioni preziose. Come avviene questo?
Una parte importante della nostra innovazione riguarda l’assistenza remota, a partire dall’installazione stessa della macchina. Molti dei nostri dispositivi e certamente tutti quelli con produzione di immagini, come radiografie, Tac e così via, sono monitorabili da remoto: in caso di necessità, i nostri tecnici possono così intervenire nell’arco di trenta minuti, fare le opportune analisi, risolvere problemi di configurazione oppure recarsi sul posto con il pezzo di ricambio già corretto. Questi aspetti esistono al nostro interno già da diversi anni, mentre in tempi più recenti ci siamo allargati verso la manutenzione predittiva, con un apporto sostanziale della sensoristica per monitorare parametri di macchinari come radiografie, strumenti vascolari e Tac. Questo ci consente di accorgerci quando qualche componente si deteriora e dev’essere sostituito, e di organizzarci con il cliente per consentire un fermo pianificato e non in emergenza.
Come le tecnologie digitali vi aiutano a raggiungere i vostri obiettivi di sostenibilità?
Nello sviluppo dei prodotti cerchiamo di perseguire al massimo obiettivi di riduzione di consumi di energia, elio o altre componenti. Dal punto di vista in-
terno, ci sono numerose iniziative orientate alla sostenibilità, ma anche i sistemi di manutenzione predittiva appena citati hanno un impatto non solo sulla produttività, bensì anche, per esempio, sulla riduzione dei viaggi.
Quali prossime frontiere di sviluppo vedranno nelle tecnologie digitali un sopporto di primaria rilevanza?
Nell’ambito della prevenzione, delle cure primarie, delle emergenze, della diagnosi e del monitoraggio abbiamo diverse priorità. Lavoreremo con macchine sempre più sofisticate e che integreranno sempre più AI, per renderle più veloci e precise oltre che “patientfriendly ” e sostenibili. L’evoluzione riguarda anche l’ottimizzazione del percorso di cura, ad esempio in ambito cardiologico e oncologico, dove esiste una complessità legata alle diagnosi, alle prevenzioni, ai follow up e così via. Tutti gli eventi oggi sono disponibili in un repository accessibile ovunque dai medici curanti. Per finire, possiamo citare le tecnologie di precisione e gli strumenti sempre più miniaturizzati che le supportano.
Roberto Bonino
IL MARKETING È UNA QUESTIONE “PERSONALE”
L’AI generativa può trasformare le interazioni tra aziende e clientela, consentendo una personalizzazione sempre più spinta e superando le barriere linguistiche.
Oltre a rappresentare una delle innovazioni più avanzate dell’informatica, l’intelligenza artificiale generativa può essere la nuova frontiera del marketing “one-to-one”. Come noto, per AI generativa si intendono tutti quei sistemi capaci di creare, in modo automatizzato, contenuti nuovi e originali, che spaziano dai testi alle immagini, dai video alla musica. Questa evoluzione ha radici profonde nell’apprendimento automatico e nella modellazione predittiva, che hanno avuto sviluppi significativi negli ultimi dieci anni
grazie all’avanzamento delle reti neurali profonde (deep learning). L’AI generativa trova applicazione in vari campi, ma il suo impatto nel marketing è particolarmente significativo: qui gioca un ruolo cruciale, permettendo alle aziende di creare contenuti personalizzati su larga scala e di migliorare l’interazione con i clienti. I benefici includono una maggiore efficienza operativa, una migliore comprensione del cliente e la possibilità di offrire esperienze utente su misura. Tra le applicazioni più rilevanti ci sono la creazione di contenuti personalizzati,
l’automazione delle risposte del servizio clienti e la generazione di visualizzazioni realistiche di prodotti.
Dalla voce ai testi
L’interazione vocale è una delle forme più avanzate di applicazione dell’AI generativa. Grazie alle tecnologie di Natural Language Processing (Nlp) e Textto-Speech (Tts), gli assistenti virtuali e i chatbot vocali possono comprendere e rispondere alle domande degli utenti in modo naturale e intuitivo. Aziende come Amazon e Google hanno già integrato queste tecnologie, migliorando significativamente il servizio clienti. Questi assistenti virtuali sono in grado di gestire una vasta gamma di richieste, dall’assistenza tecnica alla prenotazione
di servizi, fornendo risposte immediate e personalizzate che migliorano l’esperienza del cliente.
I chatbot testuali e i sistemi di messaggistica supportati dall’AI generativa offrono un altro canale potente per l’interazione con i clienti. Questi sistemi sono in grado di comprendere il contesto delle conversazioni e di dare risposte pertinenti e personalizzate. Modelli come Gpt-4 (o il più recente Gpt-4o) di OpenAI permettono di creare dialoghi realistici, migliorando l’esperienza dell’utente e velocizzando il tempo di risposta. Un aspetto cruciale di questi sistemi è la loro capacità di usare le informazioni sui clienti raccolte nei sistemi Crm (Customer Relationship Management): integrando i dati storici delle precedenti interazioni, i chatbot possono fornire risposte altamente personalizzate, anticipando le esigenze degli utenti e offrendo soluzioni mirate. L’AI generativa non si limita al testo e alla voce, ma estende le sue capacità anche al dominio visivo. Tecnologie come Dall-E (di OpenAI) sono in grado di generare immagini a partire da descrizioni testuali, permettendo alle aziende di creare contenuti visivi unici e accattivanti. Questo è particolarmente utile nel marketing digitale, dove le immagini e i video personalizzati possono aumentare l’engagement e le conversioni. Ad esempio, un’azienda di moda può utilizzare l’AI generativa per creare visualizzazioni personalizzate di abbigliamento, basate sulle preferenze espresse dai clienti nelle loro interazioni precedenti.
Il fattore culturale
L’intelligenza artificiale ha, inoltre, il potenziale di abbattere le barriere linguistiche: attraverso la traduzione automatica e la localizzazione dei contenuti, le campagne di marketing possono essere adattate alle diverse geografie per raggiungere un pubblico globale, man-
tenendo l’efficacia e la coerenza del messaggio. Le tecnologie di traduzione automatica avanzate possono gestire non solo la conversione diretta del testo, ma anche l’adattamento del contenuto per riflettere le sfumature lessicali e culturali, garantendo che il messaggio suoni autentico al pubblico locale.
La sensibilità culturale è fondamentale nel marketing moderno. L’AI generativa può essere programmata per rispettare e valorizzare le diversità, creando contenuti in linea con le specificità culturali del pubblico di riferimento. Questo approccio permette alle aziende di costruire relazioni più profonde e autentiche con i propri clienti. Ad esempio, un marchio globale può utilizzare l ’AI per creare campagne pubblicitarie che riflettono le festività, i valori e le tradizioni locali, dimostrando rispetto e comprensione delle diverse culture. Questa capacità di adattamento multiculturale non solo migliora
la percezione del marchio, ma può anche aumentare la fidelizzazione dei clienti.
Un ventaglio di sfumature
La personalizzazione del cosiddetto tone of voice è un altro aspetto in cui l’AI generativa eccelle: a seconda del segmento di pubblico destinatario, si può modulare la comunicazione passando da uno stile formale a uno più colloquiale, da un tono entusiasta a uno rassicurante. Questo livello di personalizzazione aumenta la rilevanza dei messaggi di marketing e migliora l ’engagement dei clienti. Utilizzando i dati raccolti dai sistemi Crm e dalle interazioni precedenti, l’AI può adattare il tone of voice non solo per riflettere il brand, ma anche per sintonizzarsi alle preferenze e aspettative specifiche di ogni persona. Ad esempio, un cliente che abbia espresso interesse per un servizio premium potrebbe ricevere comunicazioni con un tono più sofisticato e autorevole, mentre una persona giovane e dinamica potrebbe preferire un tono più informale e vivace. In sintesi, l’AI generativa rappresenta una rivoluzione nella customer interaction, offrendo strumenti potenti per la creazione di contenuti personalizzati e per l’interazione multicanale. Le prospettive future vedono un ulteriore affinamento di queste tecnologie, con un impatto sempre maggiore sul marketing e sulle strategie di comunicazione aziendale. Restare aggiornati su queste innovazioni sarà fondamentale per le aziende che desiderano mantenere un vantaggio competitivo nel mercato globale. La capacità di utilizzare l’AI generativa per creare esperienze cliente altamente personalizzate, adattate alle preferenze linguistiche, culturali e di tono di voce, sarà un elemento chiave per il successo nel marketing del futuro.
Stefano Brigaglia, AI, data science & location intelligence partner di Jakala
PRESENTE E FUTURO
DELL’AI: UN PUNTO DI VISTA ITALIANO
Quali evoluzioni tecnologiche e di adozione ci aspettano in questo mercato? Una chiacchierata con il Ceo di Neuraltech, società che sviluppa la tecnologia Userbot.ai.
Dove ci porterà l’intelligenza artificiale? Come si trasformerà, nei prossimi anni, questa tecnologia e come il suo utilizzo impatterà sulle aziende, sul modo in cui operano e si relazionano con i clienti? Nessuno può dirlo con certezza, ma un’azienda come la milanese Userbot.AI, che dal 2017 sviluppa tecnologie di AI conversazionale, ha un buon punto di osservazione sul fenomeno. Tra i suoi clienti annovera l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (Enea), Aboca, il Comune di Rimini, il Comune di Bologna, Cup Solidale, Namirial e il Policlinico Gemelli di Roma (per il quale ha contribuito a creare un assistente virtuale a supporto dei pazienti che devono sottoporsi
a endoscopia). In seguito all’ingresso di Smeup nel capitale sociale, lo scorso marzo, Userbot.ai è diventato un marchio della neocostituita Neuraltech. Abbiamo parlato del presente e del futuro dell’AI con Gionata Fiorentini, chief executive officer di Neuraltech.
Vi occupate di intelligenza artificiale fin dalla vostra nascita, nel 2017. Come è cambiato da allora questo mercato?
Sotto diversi i punti di vista il mercato dell’IA in azienda è indubbiamente cambiato profondamente. Lato domanda, c’è oggi maggiore consapevolezza delle potenzialità dell’AI in termini di efficienza operativa, ottimizzazione dei processi e personalizzazione dell’esperienza
utente. È cresciuta anche la richiesta di soluzioni per affrontare sfide specifiche e sfruttare opportunità di business, con una parallela diversificazione degli ambiti di applicazione, come sanità, produzione e logistica. Lato offerta, invece, abbiamo assistito non solo al moltiplicarsi di realtà che offrono software e servizi di consulenza specializzati, ma anche a notevoli progressi tecnologici, come algoritmi e modelli di apprendimento automatico più avanzati. Si è, inoltre, intensificata l’attenzione verso le questioni etiche, con un progressivo impegno delle imprese verso trasparenza, equità e conformità normativa.
Qual è la vostra previsione sul futuro dell’intelligenza artificiale?
Ciò che ci attende è, innanzitutto, un proseguimento dell’evoluzione delle tecniche di apprendimento automatico, come il deep learning, l’apprendimento federato e quello trasferibile. Sul fronte
aziendale, credo che assisteremo alla diffusione di soluzioni di AI ibride e multicloud, che combinano l’on-premise con servizi cloud per ottenere flessibilità, scalabilità e accesso a risorse di calcolo e dati distribuiti, oltre alla sempre maggiore integrazione dell’AI nei processi aziendali per l’automazione end-to-end di flussi di lavoro complessi. Ciò che è indubbio è che queste tecnologie saranno un motore della quarta rivoluzione industriale, giocando un ruolo di primo piano nella trasformazione di settori come produzione e logistica.
A che punto sono le aziende italiane nel percorso di adozione della GenAI?
In questo momento sempre più aziende stanno adottando la GenAI per migliorare e personalizzare l’esperienza utente e ottimizzare i processi interni. Le nostre tecnologie vengono applicate a molteplici casi d’uso, tra cui assistenza clienti, acquisizione e qualificazione automatica dei lead tramite chatbot e supporto tecnico, e in settori di ogni tipo, dalla sanità alla Pubblica Amministrazione, dal manifatturiero fino ai classici e-commerce e ai servizi finanziari. Particolarmente interessante è l’impiego dell’AI all’interno delle linee di produzione, su attrezzaggio, setting, manutenzione, diagnostica e risoluzione dei problemi associata al monitoraggio e controllo remoto. Chiaramente, in integrazione con sistemi Erp e di gestione della manutenzione computerizzata.
In particolare, quali utilizzi state osservando nell’ambito della Pubblica Amministrazione?
Nel mondo della PA le nostre tecnologie sono in grado di supportare i cittadini rispondendo alle domande frequenti, assistendoli nei processi burocratici e offrendo informazioni sui servizi. L’AI può inoltre elaborare automaticamente
i documenti, estraendo dati da restituire ai cittadini in linguaggio naturale, e automatizzare processi burocratici ripetitivi come la gestione delle pratiche, la compilazione di moduli e la verifica della documentazione. In particolare, grazie alla collaborazione con alcuni grandi ospedali italiani, i nostri chatbot multicanale trovano applicazione anche nella sanità pubblica, dove rappresentano il tramite tra medico e paziente, fornendo informazioni specifiche, assistendo nello svolgimento della prestazione o creando percorsi di cura personalizzati.
Pensate che esistano, a monte, delle problematiche ancora da risolvere nella gestione dei dati? È necessaria una premessa: la qualità dei dati è fondamentale per l’affidabilità dei modelli. Quando i dati sono incompleti o inaccurati, le prestazioni dei modelli di intelligenza artificiale possono essere compromesse, con risultati non attendibili. Detto ciò, esiste indubbiamente un tema di interoperabilità dei dati che, se dispersi in sistemi e formati diversi,
complicano l’analisi e l’elaborazione da parte degli algoritmi. I dati, inoltre, possono incorporare bias e pregiudizi socioculturali che possono essere amplificati dagli algoritmi durante il processo di apprendimento e portare a decisioni discriminatorie o ingiuste. Queste sono criticità su cui il settore può e deve ancora intervenire adeguatamente.
Credete che l’entrata in vigore del’AI Act possa agire da deterrente per l’adozione di tecnologie come i large language model, a causa dei rischi di mancata compliance?
L’AI Act può influenzare l’adozione degli Llm in Italia, ma dipenderà dalla risposta delle aziende e delle autorità di controllo, che ci auguriamo siano orientate a garantire un equilibrio tra innovazione, compliance ed etica. Il rischio di mancata conformità ai requisiti normativi previsti dall’atto potrebbe indurre le aziende ad approcciarsi con maggiore cautela all’adozione di tecnologie come queste. Nonostante le potenziali restrizioni, però, le realtà che vogliano rimanere competitive sul mercato globale non potranno ignorare tali evoluzioni.
Che cosa cambierà, nella vostra strategia e offerta, in seguito all’accordo societario con Smeup?
L’accordo rappresenta una partnership finanziaria e industriale, finalizzata all’espansione di prodotti e servizi. Smeup sta portando risorse e competenze aggiuntive e, in modo speculare, le nostre competenze in tema di AI stanno contaminando l’offerta di Smeup. Grazie alla loro rete di clienti, la soluzione Userbot.AI ha un accesso privilegiato a nuovi mercati, in particolare quello manifatturiero, e maggiori risorse per investire in ricerca e sviluppo che ci consentono di innovare e creare tecnologie all’avanguardia.
Valentina Bernocco
SUPERCALCOLO E AI TRASFORMANO I DATA CENTER
Esigenze di calcolo sempre più elevate si scontrano con la sfida della sostenibilità. Le risposte di E4 Computer Engineering.
Le infrastrutture informatiche non hanno mai smesso di trasformarsi.
Da loro, anzi, dalla loro capacità di evolversi e adattarsi dipendono le grandi promesse tecnologiche del presente e del futuro: l’intelligenza artificiale, il supercalcolo, il passaggio al cloud. E trasversalmente a tutti questi temi, dalle infrastrutture dipende la fondamentale sfida della sostenibilità. Ne parliamo con Cosimo Damiano Gianfreda, chief
executive officer di E4 Computer Engineering, azienda italiana di soluzioni hardware e software per il mondo dei data center.
Come si stanno trasformando le infrastrutture informatiche?
Dal nostro punto di osservazione, le principali tendenze attuali nell’ambito delle infrastrutture informatiche includono l’adozione crescente di tecnologie cloud-native, l’integrazione avanzata dell'intelligenza artificiale e del machine learning, e l’uso diffuso di infrastrutture iperconvergenti. Queste tendenze stanno trasformando il modo in cui le aziende gestiscono i propri dati e le proprie operazioni IT, offrendo maggiore agilità, scalabilità e resilienza.
Quali sono, nelle aziende italiane, le principali esigenze legate ai data center?
Per la maggior parte, i data center esistenti in Italia non sono più adatti ad ospitare le nuove tecnologie o si stanno ormai avvicinando alla fine del proprio ciclo operativo. Per questo si rende necessario eseguire aggiornamenti infrastrutturali capaci di affrontare queste limitazioni e aumentare significativamente la capacità dei data center di ospitare sistemi di ultima generazione e, possibilmente, di essere già predisposti ad ospitare le tecnologie future. Questi miglioramenti richiedono tecnologie informatiche ottimizzate per massimizzare l’utilizzo globale del data center (come quelle di Data Center Infrastructure Management,
Dcim) mantenendo al contempo le stesse dimensioni fisiche nonché il consumo energetico, utilizzando sistemi di raffreddamento ad elevata efficienza.
E l’intelligenza artificiale? Che impatto avrà sui data center?
L’AI ha introdotto carichi di lavoro che hanno significativi impatti sulle infrastrutture dei data center. Comprendere come questi carichi di lavoro saranno distribuiti nei data center e come i processi saranno “mappati” sui sistemi è cruciale per decidere come muoversi: ammodernare l’esistente oppure progettare nuovi data center, tenendo presente che la realizzazione ex novo richiede tempi estesi per l’approvazione, la costruzione, le infrastrutture di supporto (centrali elettriche, chiller, viabilità e accessibilità) e il commissioning
Consumi energetici e sostenibilità sono due facce della stessa medaglia. Dal punto di vista tecnologico, sarà cruciale continuare a investire su sistemi di raffreddamento più efficaci e incrementare l’efficienza con cui le applicazioni accedono alla potenza di calcolo. Non è possibile però limitarsi a questo e occorre affrontare queste sfide con una visione olistica, che prenda in considerazione tutti i fattori coinvolti. Proprio le interazioni e le interconnessioni tra esigenze di sostenibilità, introduzione dell’AI generativa (che comporta la modifica dei flussi di lavoro) e l’attuale quadro geopolitico mondiale ci hanno spinto a evolvere. Al tradizionale ruolo di system integrator e technology provider a livello multinazionale e multi-tecnologico si è aggiunto, infatti, quello di catalizzatore di innovazione.
Sull’High Performance Computing (Hpc) gli analisti prevedono una crescita del mercato ma evidenziano una serie di ostacoli alla sua più ampia adozione, anche legati alla cyber-
sicurezza. Qual è il vostro punto di vista?
L’approccio dell’High Performance Computing riconfigurabile è essenziale per affrontare la varietà di carichi di lavoro e la rapida evoluzione delle esigenze tecnologiche. Questo tipo di architettura permette di ottimizzare le risorse hardware e software in base alle necessità specifiche del momento, migliorando così l’efficienza e riducendo i costi. L’Hpc riconfigurabile consente alle organizzazioni di adattarsi rapidamente ai cambiamenti nei requisiti di calcolo, supportando sia applicazioni scientifiche intensive sia compiti di data science meno esigenti.
Inoltre, la protezione dei dati sensibili e la prevenzione degli attacchi informatici sono cruciali per l’adozione su larga scala di soluzioni Hpc, ma non andrebbero visti come ostacoli bensì fattori su cui porre l’attenzione già nella fase di progettazione dell’infrastruttura informatica e del flusso di lavoro. Per questo integriamo misure di sicurezza avanzate nei nostri pro-
dotti e utilizziamo tecnologie di cifratura avanzata, autenticazione multifattoriale e monitoraggio continuo per garantire la protezione dei dati e delle infrastrutture. In questo stesso contesto non dobbiamo poi dimenticare altri elementi, quali privacy, etica e sicurezza dei dati. Le imprese sono oggi chiamate ad affrontare questioni complesse riguardanti la raccolta, l’utilizzo, l’archiviazione dei dati dei clienti e dei dipendenti. In quest’ottica collaboriamo strettamente con i nostri clienti per implementare pratiche di sicurezza su misura, che rispondano alle loro specifiche esigenze e conformità regolamentari. Questo approccio ci permette di offrire soluzioni Hpc che non solo forniscono prestazioni elevate, ma garantiscono anche un livello di sicurezza adeguato alle necessità odierne.
A che punto siamo con l’adozione dei container, quali sono le sfide irrisolte?
Sono in rapida crescita, con Kubernetes che è diventato lo standard de facto per la loro orchestrazione. Tuttavia, alcune sfide irrisolte ne ostacolano la piena adozione, come l’integrazione con le infrastrutture esistenti e la complessità operativa associata alla loro gestione su larga scala. Le aziende devono affrontare problemi legati alla visibilità e al controllo dei container, nonché alla gestione delle vulnerabilità e delle configurazioni sicure. Inoltre, l’integrazione dei container con infrastrutture legacy può presentare difficoltà, specialmente in ambienti IT eterogenei. Tra le nuove tecnologie emergenti spiccano i framework per la gestione dei dati containerizzati e gli strumenti di monitoraggio avanzato. Soluzioni come la nostra piattaforma Urania, che integra Kubernetes per supportare grandi carichi di lavoro di AI e Big Data Analytics, offrono un ambiente efficiente e sicuro per la gestione dei container. V.B.
IL “TIMONIERE” KUBERNETES COMPIE DIECI ANNI
La storia e le nuove sfide del sistema di orchestrazione software in open source più usato al mondo.
Cento di questi giorni, qualcuno potrebbe dire. Era il giugno del 2014 quando quello che oggi è il più noto sistema di orchestrazione per creare e gestire applicazioni containerizzate, Kubernetes, fece il suo debutto con questo nome e in versione open source. Nel corso di un decennio è diventato il punto di riferimento globale per automatizzare la gestione dei carichi di lavoro ad alte prestazioni, utile per amministrare e distribuire in modo automatizzato il software. E ora, in uno scenario mondiale in cui la digitalizzazione è al centro di una transizione di portata storica, questo sistema (il cui nome significa timoniere, in greco antico) è chiamato alla sfida di traghettare
gli sviluppatori in un contesto sempre più permeato dall’intelligenza artificiale. Ma partiamo dall’inizio, dal suo concepimento.
Alle origini di Kubernetes
Il punto di partenza è stata la virtualizzazione, da cui è poi gemmato tutto il filone del cloud computing, che esisteva come tecnologia già negli anni Sessanta ma è stato adottato su larga scala solo dal Duemila. In quegli anni Google aveva bisogno di un modo per ottimizzare le prestazioni dei suoi server virtuali, e così tra il 2003 e il 2004 fu creato Borg , il primo sistema unificato di gestione, che deve il nome a un gruppo di organismi cibernetici alieni della serie Star Trek, la cui peculiarità è di funzionare condividendo una mente e una coscienza collettiva. Al di là delle curiosità lessicali, Borg fu usato per creare Gmail, YouTube e i servizi Google Docs, Search e Maps, e rimase quasi senza concorrenti
fino al 2013, quando dotCloud rilasciò un analogo open source di nome Docker, basato su sistema operativo Linux e ottimizzato per le architetture native in cloud. Fu così che Google – per farla breve – decise di cedere il proprio progetto rendendolo a sua volta open source, cambiandogli nome in Kubernetes (k8s in breve), collegandolo a una community che tra i primi membri aveva RedHat OpenShift, Ibm più ovviamente Google stessa, e affidandolo in gestione alla Cloud Native Computing Foundation (Cncf, uno dei gruppi della non-profit Linux Foundation) con la missione di rendere universale l’approccio nativo in cloud. Così Kubernetes è diventato rapidamente uno dei progetti open source a più rapida crescita, con oltre 700 aziende coinvolte, tanto da affermarsi già nel 2018 come lo standard di riferimento a livello mondiale. Oggi le aziende affiliate hanno superato quota ottomila e l’evento annuale di riferi-
IDENTIKIT DEI CONTAINER
Piccoli, leggeri, flessibili, portatori di agilità: sono alcuni dei pregi solitamente associati ai container. Una tecnologia ben nota agli informatici di professione, ma che per i non addetti ai lavori può essere ancora oscura. I container sono essenzialmente dei moduli software “autosufficienti”, contenenti al proprio interno tutto il necessario per eseguire applicazioni o parti di applicazioni: il codice e le sue librerie e dipendenze, oltre alle funzionalità di base di un sistema operativo. Queste ultime gestiscono la quantità di Cpu, memoria e risorse di archiviazione a cui i processi del software containerizzato possono accedere. I container si distinguono dalle macchine virtuali perché non devono racchiudere un sistema operativo guest in ogni istanza bensì prevedono solo le citate funzionalità kernel (si dice anche che i container virtualizzano il sistema operativo). L’autosufficienza e l’indipendenza di questi moduli software permette di spostarli liberamente, all’occorrenza, da una infrastruttura all’altra, cioè dall’on-premise al cloud, da un Pc a un server, da un particolare cloud a un altro. A prescindere dall’infrastruttura sottostante, funzioneranno allo stesso modo e ciò rappresenta un notevole vantaggio per i team di DevOps.
mento di settore, chiamato KubeCon + CloudNativeCon, raduna ogni anno migliaia di sviluppatori ed esperti IT: alla più recente edizione, a marzo al Paris Expo Porte de Versailles nella capitale francese, le presenze hanno superato le 12mila.
La pietra angolare dell’AI
Parafrasando Arun Gupta, il presidente del consiglio direttivo di Cncf, ora Kubernetes è nella fase in cui Internet si trovava trent’anni fa, o il linguaggio Java un decennio fa. Se dunque si può senz’altro parlare di una tecnologia che deve ancora giungere alla piena maturità, allo stesso tempo entro la metà degli anni Trenta gli orchestratori di container sono chiamati a catalizzare la rivoluzione dell’intelligenza artificiale. Con un paragone un po’ ardito, si potrebbe dire che se l'AI è il nuovo Internet, allora Kubernetes è un nuovo server. O forse il nuovo server, dato che secondo il report Gartner “The Cto’s Guide to Containers and Kubernetes” sarà la soluzione adottata da più del 90% delle realtà globali già entro il 2027. Se rispetto all’era pre-cloud ci sono stati cambiamenti culturali importanti, primo fra tutti la sinergia tra il lavoro degli sviluppatori e quello degli operativi IT (Development & Operations, DevOps), il prossimo passo che anche Kuberne-
tes dovrà rendere possibile è il lavorare su piattaforme uniche e integrate che tengano conto delle esigenze di ingegneri, regolatori e addetti alla cybersicurezza, lungo tutta la filiera di gestione. Allo stesso tempo si sta trasformando anche il mestiere dello sviluppatore, con una minore barriera ingresso alla professione (perché è meno decisiva la dimestichezza con le librerie del codice) ma con l’importanza crescente di una visione ampia sui prodotti, della capacità di eseguire test e di capire come sfruttare al meglio l’intelligenza artificiale generativa.
Il valore dell’essere agnostici È un dato di fatto che oggi sul mercato c’è molta più intelligenza artificiale fornita da grandi player (basta pensare a ChatGpt di OpenAI oppure a Copilot di Microsoft) rispetto che in open source. Un’asimmetria su cui è intervenuto di recente, a inizio aprile da Rimini, il Cncf Ambassador per l’Italia, Nicola Marco Decandia : dal punto di vista dei servizi nativi in cloud, ha detto, oltre alla scalabilità e alla facilità di evoluzione dinamica che sono caratteristiche intrinseche di un sistema aperto e gestito da una community internazionale, è fondamentale restare agnostici a ogni tipo di vendor, così da lavorare per esplorare le appli-
cazioni e gestire i finanziamenti, mettendo assieme i progetti anche con un obiettivo di standardizzazione. E questo vale a maggiore ragione se l’approccio è condiviso a tutti i livelli. “L’intelligenza artificiale generativa ha comportato una facilità incredibile d’uso e ha allargato di molto la platea mondiale”, ha detto a Technopolis Massimo Chiriatti, tecnologo, autore tra gli altri del saggio Incoscienza artificiale (Luiss University Press, 2021) e chief technical & innovation officer di Lenovo. “Sviluppare tecnologia open source, senza alcunché di proprietario e con sistemi standard, consente di dialogare con tutti. Lo stesso vale anche per i large language model, con esempi come Llama2 di Meta o come Mistral, che sono già in open source”. Sullo sfondo, per Kubernetes e non solo, resta una grandissima domanda di formazione, rivolta in particolare agli architetti delle infrastrutture. Il prossimo appuntamento con KubeCon + CloudNativeCon Europe è fissato per l’inizio di aprile 2025 a Londra, ma l’estate 2024 è comunque caratterizzata dai festeggiamenti per il decimo compleanno, contrassegnati dagli hashtag #KuberTENes e #celebr8k8s, e da un logo speciale ideato per l’occasione, con l’immancabile timone blu a sette punte del timoniere Kubernetes. Gianluca Dotti
GESTIRE I RISCHI DELLA SUPPLY CHAIN
Per comprendere la “postura di sicurezza” dei fornitori è necessario valutare numerosi fattori, tecnologici e organizzativi.
Molte norme, dal Perimetro al Gdpr, e ancora di più la direttiva Nis2 di prossimo recepimento in Italia, dedicano grande attenzione al tema della gestione del rischio cyber collegato alle terze parti (Third Party Risk Management, Tprm). Per controllare la sicurezza dei fornitori, come richiedono gli obblighi legali e come prevedono le clausole contrattuali, sono necessarie specifiche misure e buone pratiche. Dal dibattito tavolo “Supply chain security” del
I PARTECIPANTI:
Ciso Panel è emerso che in molte grandi aziende italiane queste attività hanno superato la fase iniziale, anche se potrebbero evolvere verso obiettivi di efficienza e condivisione interna del rischio. Il tema di una corretta impostazione del Tprm è sicuramente tecnologico ma, soprattutto, di processo. Dal punto di vista organizzativo, nella maggior parte dei casi questa attività ricade sotto la responsabilità del Ciso, anche se operativamente è gestita dalla funzione acquisti. In sostanza, la
• Antonio De Martino, head of information security office di OpNet
• Riccardo Barrile, responsabile vicedirezione generale operation, direzione tecnica cyber security di Rete Ferroviaria Italiana
• Max Brugnoli, senior sales engineering di Recorded Future
• Vincenzo Cutaia, responsabile cyber risk & governance di A2A
• Roberto De Paolis, head of IT security di Leonardo
• Marco Di Martino, director sales engineering di Delinea
• Maura Lori, critical asset protection management di Vodafone
• Mario Mangano, head of Ict security di Aeroporti di Roma
• Pierpaolo Romano, Ciso di Italo
gestione del rischio legato ai fornitori andrebbe sempre più integrata nel risk management complessivo dell’azienda. “Gli operatori 5G, come altri settori ad alta densità tecnologica, sono soggetti alla normativa Golden Power, che prevedeva la notifica degli acquisti di hardware e servizi alla Presidenza del Consiglio. La normativa prescriveva anche misure di sicurezza da applicare”, ha ricordato Antonio De Martino, head of information security office di OpNet. “Questa impostazione è poi cambiata nel 2022, con il decreto-legge ‘Ucraina’, che ha introdotto il concetto di notifica della pianificazione annuale degli acquisti 5G, ma che ha conservato quello di prescrizioni di sicurezza. Una possibile tra queste è proprio il tema della gestione del rischio della supply chain. Nel nostro caso, una misura tecnologica che ci ha consentito di incrementare la sicurezza dei fornitori è stata l’attivazione dell’autenticazione multifattoriale (Mfa) anche per gli esterni. La misura è stata preceduta da una informativa preliminare che è partita dal nostro por-
CHIEF SECURITY INFORMATION OFFICER INTORNO AL TAVOLO
Le aziende e le pubbliche amministrazioni italiane sono di fronte a un’importante sfida: incrementare la cyber resilienza della propria organizzazione, ossia consentirle di superare con impatti minimi l’esperienza di un incidente informatico, anche grave. È questo un obiettivo pressante in tutte le realtà, private o pubbliche, diventato obbligatorio per compliance a nuove indicazioni dell’Unione Europea:in primis, il regolamento Dora (Digital Operational Resilience Act) e la direttiva Nis2 (per la sicurezza di reti e infrastrutture informatiche) impongono nuovi processi per la gestione degli incidenti e per garantire la resilienza. Il tema, di grande è stato oggetto di dibattito con i chief security information officer (Ciso) e i responsabili della sicurezza informatica presenti all’evento “Ciso Panel: Strategie per la cyber resilienza, impatto della compliance europea”, organizzato da The Innovation Group a Roma lo scorso 30 maggio. I partecipanti provengono da diversi settori, tra cui Pubblica Amministrazione Centrale, energia e infrastrutture critiche). Una riflessione di fondo è che, per elevare la cyber resilienza e prepararsi alla compliance europea, è necessario aver predisposto un piano articolato, procedure, tecnologie e processi. Ed è necessario aver formato le persone, non solo quelle che saranno eventualmente deputate alla gestione della crisi ma anche l’area IT, il management, il business, il board. Solo così sarà possibile tenere sotto controllo tutta la catena delle azioni da intraprendere ed evitare passi falsi durante un’eventuale emergenza. La formula del “Ciso Panel” è stata quella di una discussione aperta, in vari tavoli di lavoro, con la guida di “cyber mentor” che presentavano la propria esperienza e animavano il confronto. I tre tavoli di lavoro erano dedicati ad altrettanti temi:
• come aiutare la propria supply chain ad elevare la postura di sicurezza, in risposta alla necessità di rafforzare la cyber resilienza organizzativa;
• come strutturare l’organizzazione per essere pronti a una risposta orchestrata e coesa agli attacchi cyber, alla luce anche dei nuovi requisiti di compliance;
• risposta agli incidenti: quali sono i punti di attenzione, le attività di rilevamento e risposta, le principali sfide.
tale fornitori, e oggi la Mfa è obbligatoria per tutti gli accessi da remoto. Come misura organizzativa e di processo abbiamo sviluppato due questionari, uno per analizzare il contesto in cui opera il fornitore e uno specifico sulle misure di cybersecurity. Dopo qualche difficoltà iniziale, oggi questa procedura, svolta autonomamente dal nostro procurement, è integrata in un processo più strutturato chiamato vendor rating e contribuisce ad assegnare a ogni fornitore un punteggio di rischio, utilizzato, tra le altre cose, anche nelle gare di acquisto. Operativamente, c’è uno scambio di comunicazioni con i fornitori e poi la valutazione. Esiste una priorità dovuta alla criticità del fornitore poiché, a parità di risorse impiegate nel procurement, il processo è comunque oneroso. Dopo la compilazione dei questionari si richiedono, ad esempio, evidenze aggiuntive come le policy, i piani di risposta agli incidenti o di business continuity”.
Dalla discussione nel tavolo di lavoro sono poi nati interessanti spunti. Trat-
“Una misura tecnologica che ci ha consentito di incrementare la sicurezza dei fornitori è stata l’attivazione dell’autenticazione multifattoriale anche per gli esterni”.
Antonio De Martino, head of information security office di OpNet
tandosi di processi piuttosto impegnativi, l’automazione giocherà un ruolo chiave nei prossimi anni: possibili sviluppi sono i portali per i fornitori, i quali potrebbero essere integrati con fonti esterne di threat intelligence, che contribuiranno alla valutazione. Attualmente i criteri più comuni su cui si basa l’analisi di sicurezza del fornitore sono: questionari per comprendere come sia gestita la sicurezza
delle informazioni; i processi; il piano di risposta agli incidenti; la territorialità dei dati e dei data center; la presenza di un Ciso; le modalità per la comunicazione di eventuali data breach e il piano di notifica di eventuali incidenti; i bollettini di sicurezza; la dipendenza del fornitore da terze parti e outsourcer; il piano di disaster recovery. A questi criteri si possono aggiungere altri punti più specifici. Anche il possesso di un’assicurazione cyber aiuta le aziende clienti ad avere maggiore fiducia nella cosiddetta “postura di sicurezza” del fornitore, considerando che gli assicuratori svolgono un proprio assessment sui clienti. Un ulteriore spunto emerso dalla discussione è la possibilità che le aziende prevedano una figura cyber nel procurement, che possa essere portavoce dei requisiti di sicurezza informatica e che agisca da collante con la gestione centrale della sicurezza, in modo da favorire l’applicazione delle linee guida anche nell’ufficio acquisti.
Elena Vaciago
LE MOLTE SFIDE DELL’INCIDENT RESPONSE
Rilevare tempestivamente gli attacchi e reagire velocemente non è facile. Con la Nis2 nuovi obblighi di compliance.
La risposta agli incidenti (incident response) è un articolato flusso di attività: dalla preparazione alla simulazione, per arrivare alla ripresa post evento e alle modalità di comunicazione dello stesso, all’interno e all’esterno dell’azienda. Alla base di tutto ciò dovrebbe esserci un piano, che però è presente soprattutto nelle grandi aziende, strutturato in tutte le sue componenti o almeno in modo parziale, e da aggiornare. La conferma arriva dall’edizione 2024 della “Cyber Risk Management Survey” di The Innovation Group: il 90% delle grandi aziende si trova in questa situazione, mentre il 38% delle Pmi è completamente sprovvisto di un piano. Una dozzina di responsabili della sicurezza aziendale e operatori del settore ne hanno discusso nel corso del Ciso Panel di Roma. Nelle realtà attorno al tavolo, quasi tutte dimensionalmente rilevanti, è presente in tutti i casi un piano strutturato di incident
response, creato per motivazioni che spaziano dalle imposizioni normative a una cultura sulla sicurezza sufficientemente avanzata, ma anche in seguito a incidenti che hanno velocizzato le decisioni in materia. Non tutti gli aspetti collegati alla gestione degli eventi di sicurezza sono, però, allineati a un ideale livello di maturità. L’ausilio di adeguati strumenti tecnologici consente perlopiù di individuare la fonte di un problema e di attuare le misure di contenimento, ma non sempre le azioni da intraprendere dopo l’incidente appaiono correttamente codificate. Al centro delle incertezze ci sono le modalità di comunicazione, a partire dall’interno dell’azienda, passando per gli organismi istituzionali, per arrivare al mondo esterno. Quest’ultimo sembra essere l’aspetto più delicato, alla luce delle potenziali ripercussioni in termini reputazionali. Il coinvolgimento degli uffici di comunicazione appare essenziale,
ma la capacità di tradurre in modo corretto i contorni dell’evento è ancora correlata a una conoscenza spesso insufficiente, con il rischio di ritrovare poi sugli organi di informazione una narrazione potenzialmente dannosa. “Tanto nelle Pubbliche Amministrazioni quanto nelle aziende private i processi di incident response passano per buone pratiche, che possono comprendere la messa a punto di processi strutturati o l’esecuzione di periodiche esercitazioni di simulazione”, ha detto Vittorio Baiocco, responsabile della sicurezza informatica di Inail, moderatore del tavolo di lavoro. “L’incombenze di normative come Nis2, tuttavia, porta alla luce problemi ancora da affrontare correttamente, a cominciare dalle modalità di comunicazione all’esterno di un evento di sicurezza, per arrivare al controllo e all’allineamento di tutto il proprio ecosistema di fornitori”.
Rischi “a catena”
Un tema controverso e fonte di discussione è stato quello dei rapporti con i fornitori, nell’ottica di una protezione e risposta agli incidenti che derivi dalla supply chain di un’azienda. Dal punto di vista normativo, la Nis2 impone un controllo esteso a tutti gli interlocutori di business, ma non indica alcuna linea guida su come procedere. Il vuoto preoccupa non poco i Ciso, soprattutto nelle aziende che lavorano in partnership con piccole realtà, meno attrezzate sulla cybersecurity dal punto di vista sia tecnologico sia organizzativo-culturale. Adeguarsi ai criteri di protezione degli asset e gestione degli incidenti delineati dalla Nis2 significa dover effettuare investimenti che le Pmi italiane non sono in grado di sostenere e questo chiama in causa le istituzioni, sia in termini di possibili sostegni sia di definizione di requisiti e procedure minime che tutti dovrebbero essere chiamati a rispettare. Posto che l’azzeramento del rischio è un obiettivo sostanzialmente utopico, occorrerebbe determinare quale sia la soglia tollerabile, oltre la quale defini-
re le misure di intervento in funzione della natura di ciascun tipo di business. La materia è spinosa e, in assenza di soggetti terzi autorevoli e certificati che possano giudicare e garantire la conformità delle aziende a un framework di base tendenzialmente derivato dai principi della Nis2, l’auspicio sarebbe di poter arrivare almeno a creare una sorta di “albo fornitori”, un po’ come accade per altre categorie tecnico-professionali. Idealmente, dovrebbe trattarsi di un repository condiviso, dove per ogni azienda sia possibile verificare se un fornitore sia stato già monitorato e “certificato” da un’altra azienda dello stesso settore o ambito di attività. Attuare questa proposta non è semplice, poiché richiede la definizione di regole di base valide per tutti e un livello di fiducia fra aziende tutto da costruire. Tuttavia la presenza di un soggetto garante super partes, quale potrebbe essere l’Agenzia per la Cybersecurity Nazionale (Acn), potrebbe agevolare il percorso.
Bisogno di consapevolezza
Come abbiamo visto, nelle aziende più strutturate sia private sia pubbliche un piano di gestione e risposta agli incidenti è stato a grandi linee messo a punto. Il modo migliore per verificarne l’efficacia è testarlo sul campo. Le prassi dei penetration test e dei vulnerability assessment sono ormai piuttosto diffuse (li effettua il 63% delle aziende, secondo la citata survey di Tig), ma i Ciso puntano a forme di simulazione più evolute, in modo particolare il red teaming (sorta di “squadre di attacco” che valutano la capacità di reazione dell’azienda) e il blue teaming (squadre di difesa, che ricercano continuamente e correggono le vulnerabilità), utili per capire un po’ più a fondo dove si trovino eventuali falle e ottenere una più puntuale gap analysis sulle possibili azioni da intraprendere. Chi opera in campo finanziario ha già potuto sperimentare sul campo l’efficacia del modello Tiber-IT, che recepisce l’analoga metodologia definita a livello europeo per
I PARTECIPANTI:
• Giuseppe Acquaro, amministratore delegato di Terminali Italia
• Vittorio Baiocco, responsabile della sicurezza informatica di Inail
• Luigi Ballarano, head of cyber security governance di Terna
• Antonio Cantoro, responsabile struttura di Ict security di Aci Informatica
• Alberto Chiesa, responsabile cybersecurity di Tim
• Alessandro Luzzi, dirigente ufficio sicurezza infrastruttura e rete del Ministero dell’Istruzione
• Stefano Maccaglia, global practice manager incident response di NetWitness
• Giuseppe Pulito, head of cybersecurity di Axa
• Paolo Schintu, responsabile security operation Center di Sogei
• Andrea Solaroli, direttore commerciale Italia, Grecia e Svizzera di Sailpoint
• Nicola Sotira, responsabile Cert di Poste Italiane
• Leonardo Tonelli, senior enterprise account executive di Sophos
• Valerio Visconti, group Ciso di Autostrade per l’Italia
“I processi di incident response passano per buone pratiche, che possono comprendere la messa a punto di processi strutturati o l’esecuzione di periodiche esercitazioni di simulazione. L’incombenza di normative come Nis2, tuttavia, porta alla luce problemi ancora da affrontare correttamente”.
Vittorio Baiocco, responsabile della sicurezza informatica di Inail
la per la conduzione, su base volontaria, da parte delle singole entità finanziarie di test avanzati di cybersicurezza. Si tratta di un processo che implica la presenza di un ristretto “white team”, piccolo gruppo di persone a conoscenza dell’attuazione di una simulazione e dei bersagli che saranno colpiti. Al di là dell’assodata veridicità dei test, i risultati e la successiva gap analysis consentono di avere un quadro molto preciso della breach readiness. Si tratta di un modello pensato essenzialmente per il mondo finanziario, sostanzialmente integrato nella normativa Dora (che entrerà in vigore nel 2025) e avallato da Banca d’Italia e Consob. I suoi principi e il metodo possono essere però replicati anche in altri contesti.
La maggior parte delle attività di gestione e monitoraggio della cybersecurity acquisisce un peso assai più rilevante laddove è possibile coinvolgere il top management. Si tratta di una questione aperta e spesso non di facile concretizzazione, in contesti aziendali dove troppo spesso la cybersicurezza viene ancora percepita come un male necessario. Tuttavia proprio le simulazioni a tappeto, messe in relazione con le possibili conseguenze di un attacco, sortiscono l’effetto desiderato in termini di diffusione della consapevolezza dei pericoli. Inoltre, danno senso concreto anche alle attività di formazione svolte in precedenza per generare quella cultura della sicurezza che ancora, troppo spesso, in molte aziende manca. Roberto Bonino
CYBER RESILIENZA DA PROGETTARE
I Ciso caldeggiano un approccio basato sul rischio, la necessità di un governo centrale e una gestione unitaria (ma rispettosa delle differenze) di IT e OT.
Le sfide incontrate oggi dai chief information security officer e figure analoghe nel preparare l’organizzazione a una visione coesa su sicurezza e resilienza sono molteplici. Come è emerso nel dibattito del Ciso Panel, le aziende oggi sono più che mai interessate da una trasformazione digitale accelerata: spesso questa esigenza di velocità porta a trascurare una definizione by-design della sicurezza. Tale visione andrebbe inscritta sia nel disegno infrastrutturale e applicativo, sia nei processi del business, e dovrebbe basarsi sulla valutazione e gestione dei rischi (ovvero essere risk-based, come si dice in gergo). Le aziende hanno livelli di maturità diversificati da questo punto di vista: dipende anche da quanto il risk management sia già parte della cultura d’impresa e da quanto la gestione del rischio cyber sia vista come prioritaria dal top management. Dove evoluzione organizzativa, IT
e sicurezza sono ancora considerati centri di costo (in un momento in cui invece la priorità dovrebbe essere abbracciare velocemente il cambiamento), ecco che si creano criticità, non si investe e, nonostante i requisiti di compliance a numerose norme, la sicurezza è tuttora considerata un ostacolo
Controllo e responsabilità
Un tema che il business dovrebbe invece comprendere è che, in caso di incidente, gli impatti lo riguarderanno in pieno. Considerando la specificità delle singole aziende e delle loro priorità, non esiste una soluzione unica per diffondere processi di cyber resilienza nelle imprese, coinvolgendo e responsabilizzando dirigenti e manager a tutti i livelli. Ci sono però alcune leve che possono essere d’aiuto. Un governo centrale ad esempio è fondamentale: è probabilmente l’unico modo per poter
ottenere un’omogeneizzazione dei processi e anche, dove necessario, un’omogeneizzazione delle tecnologie. “Chi riesce a cogliere un periodo di trasformazione digitale può aggiungere il layer di sicurezza a un lavoro comune di standardizzazione, unificazione e omogeneizzazione”, ha detto Yuri Rassega, Ciso di Gruppo Enel e presidente di AssoCiso. “Noi, a partire dal 2016, beneficiando di un cantiere aperto di standardizzazione infrastrutturale e applicativa del gruppo, abbiamo potuto montare strumenti identici, omogenei, e questo ha fatto la differenza in termini di adozione. Ogni realtà è diversa e ha il proprio assetto digitale sul quale occorre plasmare la strategia di protezione più adatta, ma senza esitazioni. Il cambio di passo richiede un forte commitment dall’alto, sia all’inizio del cambiamento sia successivamente, in modo costante. Occorre però sempre ascoltare la parte operativa,
per conoscere eventuali vincoli, gli elementi tecnologici da cui possono arrivare importanti prerequisiti e nuove soluzioni, e anche le competenze sulla compliance, considerando che in questo campo le norme sono sempre più cogenti”. In questo ridisegno della gestione del rischio informatico (cyber risk management) in ottica di resilienza organizzativa, un tema importante è riuscire ad attribuire alle singole funzioni di business aspetti come l’accettazione e la mitigazione dei rischi che li riguardano direttamente. Un cambiamento che, tuttavia, non è sempre facile e dipende dalla sensibilità della singola azienda. La gestione della sicurezza dei fornitori si riallaccia a questo discorso, perché è un tipico processo business in cui la security gioca un ruolo importante ma non sempre può guidare e più spesso è a supporto, ad esempio influenza la fase di definizione contrattuale delle specifiche da richiedere ai fornitori.
L’intreccio di IT e OT
Una criticità oggi molto sentita è quella delle forniture di tecnologie operative (Operational Technology) per gli ambienti industriali: qui l’integrazione fra IT e OT avvenuta con gli sviluppi dell’Industria 4.0 ha aperto aree di grande criticità per la cybersecurity. È quindi fondamentale che sia recuperata velocemente una gestione unitaria e centralizzata: tecnicamente oggi è possibile, in quanto linee guida, sonde e monitoraggio della cybersecurity per i due mondi possono già essere centralizzati. Il problema però è che le specificità dell’OT rispetto all’IT vanno attentamente considerate e gli approcci per la messa in sicurezza possono, anzi devono, essere molto diversi. Rimane il fatto che i due mondi, IT e OT, già oggi si parlano, sono in comunicazione e interdipendenti dal punto di vista della continuità e sostenibilità del business. Negli ultimi anni, una forte adozione dell’IT nei processi industriali ha aperto il fianco a nuovi rischi, incluso quello di attacchi
I PARTECIPANTI:
• Alessio Antolini, Ciso e Dpo, responsabile servizio data protection e cyber security di Ama
• Marco Bonicelli, presales manager di Cyber Guru
• Claudio Brisa, security and business continuity di Banco Desio
• Paolo Cecchi, regional sales director di SentinelOne
• Nino Ciafardini, critical asset protection di Vodafone
• Massimo Cottafavi, global security & cyber defence Dpt, director cyber security & resilience di Snam
• Marcello Fausti, responsabile cybersecurity di Gruppo Italiaonline
• Fabrizio Felici, Bnl IT continuity & resiliency officer, IT & security program manager di Bpn Paribas
• Fabrizio Marzaroli, key account manager di Eset Italia
• Yuri Rassega, head of cyber security, global digital solutions di Enel
• Simonetta Sabatino, head of cybersecurity & workplace management (Ciso) di Saras
“Il cambio di passo richiede un forte commitment dall’alto, sia all’inizio del cambiamento sia successivamente. Occorre però sempre
ascoltare la parte operativa, per conoscere eventuali vincoli, gli elementi tecnologici da cui possono arrivare importanti prerequisiti e nuove soluzioni, e anche le competenze sulla compliance, considerando che in questo campo le norme sono sempre più cogenti”.
Yuri Rassega, Ciso di Gruppo Enel e presidente di AssoCiso
cyber che possono causare arresti o sconvolgimenti dei processi industriali. Un rischio del tutto inaccettabile per gli impatti che comporta e i conseguenti costi. La soluzione che si presenta per la cybersecurity, in questo percorso di integrazione fra IT e OT, è una gestione unitaria nel rispetto delle specificità, basata su una visione d’insieme. Si deve puntare a evitare le interruzioni di servizio e tener conto del fatto che l’OT si basa su tecnologie che hanno caratteristiche e cicli di vita diversi da quelli dell’informatica. E anche le logiche di protezione possono essere molto
diverse (per cui, ad esempio, un hardening estremo nel mondo industriale è fattibile considerando la ripetitività dei processi). Dal tavolo di lavoro è anche emersa la criticità della gestione della supply chain OT, in quanto finora è stato molto difficile imporre ai fornitori (un numero piuttosto limitato di grandi vendor) i requisiti di sicurezza di cui tutti i loro clienti oggi necessitano. Le norme Ue, come il Cyber Resilience Act approvato dal Parlamento Europeo lo scorso marzo, stanno però andando proprio in questa direzione.
Elena Vaciago
LA SANITÀ DIGITALE COMINCIA DAI PROCESSI
Il polo ospedaliero napoletano ha adottato il software DocsMarshal di Cualeva per migliorare i servizi offerti ai pazienti e per rendere più efficiente il lavoro del personale.
Nel settore sanitario la digitalizzazione è una strada obbligata per migliorare sia l’efficienza interna sia i servizi offerti ai pazienti. Un progetto centrato sulla digitalizzazione dei processi è quello che sta portando avanti l’Istituto Diagnostico Varelli di Napoli, polo ospedaliero nato nel 1980 e che attualmente conta 14 sedi operative in Campania, oltre 100 fornitori e oltre 145 operatori sanitari addetti al servizio di circa duemila cittadini. L’istituto puntava a migliorare l’erogazione delle prestazioni (sia visite ed esami all’interno degli ospedali, sia le cure domiciliari) e le comunicazioni verso i pazienti, e per fare ciò cercava un software per la gestione dei processi (Business Process Management) che potesse facilmente integrarsi con le soluzioni esistenti. “La nostra esigenza era quella di verticalizzare ogni processo amministrativo e sanitario per garantire qualità e personalizzazione dei servizi offerti sia ai pazienti sia alle strutture sanitarie”, racconta Marco Varelli, amministratore delegato e lab manager dell’istituto diagnostico. La scelta è stata DocsMarshal, piattaforma di Bpm dell’italiana Cualeva: si tratta di un software di gestione e automazione dei processi aziendali, caratterizzato da scalabilità e capacità di integrarsi con le applicazioni già in uso. Questa soluzione ha ottimizzato diversi processi interni del polo ospedaliero e ha normato procedure amministrative particolarmente ostiche, come la presa in carico del paziente. Inoltre può gestire una mole ingente di dati (per circa 40mila utenze) e ha consentito
di creare un “portale paziente” e un’applicazione Web. DocsMarshal si è integrato con le soluzioni tecnologiche già in uso nell’area accoglienza (quelle di Tesi Group), nel laboratorio analisi (Werfen) e nei pagamenti (Banca Intesa e Nexi).
“Grazie alla grande flessibilità di DocsMarshal”, sottolinea Varelli, “abbiamo adottato un approccio centripeto partendo da tutto ciò che è periferico rispetto al cuore del business per poi avvicinarci anche al miglioramento dei processi industriali ospedalieri. Per questo motivo siamo partiti creando un portale per la comunicazione bidirezionale con il paziente, digitalizzando la customer experience. La nostra ambizione è riuscire a consolidare il processo di deospedalizzazione per rendere fruibile l’accesso a prestazioni sanitarie di qualità a domicilio grazie all’utilizzo di strumenti digitali”. I prossimi passi saranno, entro quest’anno, il rilascio di un “portale infermiere”, che permetterà
LA SOLUZIONE
DocsMarshal è un software Bpm (Business Process Management) che può integrarsi nei contesti IT esistenti attraverso moduli di configurazione, interfacce grafiche e funzionalità no-code. Ha permesso all’Istituto Diagnostico Varelli di creare un portale che conta oltre 45.000 profili di registrazione di cittadini e 1.800 profili di società service.
di gestire i processi dell’assistenza infermieristica domiciliare, e ancora la pubblicazione di un portale Crm e di un portale per la gestione delle procedure di accettazione. Per il 2025, poi, è previsto il rilascio di un portale di e-commerce. “I pazienti ormai hanno aspettative molto elevate dalle strutture ospedaliere, sia per la parte amministrativa sia per quella clinico-sanitaria”, ha commentato Andrea Dester, project manager di DocsMarshal. “Ecco il motivo per cui diventa fondamentale per gli ospedali avviare un percorso di trasformazione digitale con l’obiettivo di riuscire a gestire in maniera evoluta e dinamica il portale del paziente, eventuali convenzioni sanitarie, l’informazione e la comunicazione, la prevenzione e il follow up”.
L’AI DIVENTA UN TALENT SCOUT PER FUTURI CALCIATORI
Con la tecnologia di Ibm è stato realizzato uno strumento che aiuta a individuare i migliori talenti.
Più di cento anni vissuti in campo, tra campionati di Serie A, Serie B e coppe, ma anche allenando e coltivando il talento delle nuove promesse del settore giovanile. Un talento che oggi si riconosce anche grazie all’intelligenza artificiale. Fondato nel 1920, Empoli Football Club porta la propria evoluzione tecnologica su un nuovo livello scegliendo di utilizzare l’AI generativa di Ibm, WatsonX, per le proprie attività di scouting. Queste ultime sono particolarmente rilevanti per un’associazione sportiva che ha vinto due volte lo scudetto Primavera e ha lanciato una cinquantina di calciatori arrivati, poi, a giocare ai massimi livelli italiani ed europei.
LA SOLUZIONE
Talent Scouting è uno strumento a supporto degli osservatori inviati sul campo, basato sulla tecnologia di machine learning e AI generativa di WatsonX. Raccogliendo e analizzando dati in modo automatizzato, realizza un’identificazione e una valutazione completa dei giocatori.
Il progetto realizzato porta la firma di Computer Gross. “Da tempo lavoriamo con il nostro main sponsor Computer Gross per sostenere con la tecnologia le nostre performance”, ha raccontato la vicepresidente e amministratore delegato di Empoli Football Club, Rebecca Corsi. “Lo scouting è per noi di primaria importanza e avere la possibilità, con le tecnologie attuali, di individuare i nostri futuri talenti in modo sempre più rapido e preciso è un vantaggio non di poco conto. Grazie a Computer Gross, un vero e proprio partner da oltre vent’anni, sempre vicino alle sorti della nostra squadra e primo tra i tifosi azzurri, possiamo lavorare con uno dei leader di settore per creare uno strumento che possa migliorare quanto già in nostro possesso e che, ne siamo convinti, ci porterà a ottimizzare ancora di più il nostro lavoro”.
Il club, in effetti, non si è limitato ad adottare una soluzione tecnologica fatta e finita, ma ha costruito su di essa uno strumento proprietario, battezzato Talent Scouting. Si tratta di un programma che sfrutta l’elaborazione del linguaggio
naturale e i modelli di intelligenza artificiale generativa per cercare e analizzare enormi quantità di informazioni presenti nei database esistenti, con l’obiettivo di valutare i profili dei potenziali futuri calciatori del club. Questo strumento aiuterà, innanzitutto, a migliorare il processo di reclutamento dei giocatori sulla base di dati oggettivi, elaborati dall’intelligenza artificiale di WatsonX (una tecnologia che coniuga machine learning tradizionale e AI generativa). L’AI, tuttavia, non si sostituirà all’esperienza umana ma affiancherà il lavoro dei talent scout che vengono inviati sul campo, per osservare le azioni e lo stile di gioco dei giovani calciatori. Si tratta di elementi non facili da misurare attraverso la sola osservazione di occhi umani, per quanto esperti, e quindi proprio sulle metriche di gioco l’AI può rappresentare un prezioso supporto. “Siamo orgogliosi di poter mettere a disposizione dell’Empoli Fc il potenziale di WatsonX, la piattaforma di AI generativa di Ibm, per migliorare l'accuratezza e l'efficacia del processo di reclutamento dei giocatori”, ha dichiarato Stefano Rebattoni, presidente e amministratore delegato di Ibm Italia. “L’AI rappresenta un punto di svolta per aziende e società che vogliono modernizzare i loro processi e mettere a disposizione dei propri collaboratori innovativi strumenti per potenziare il loro operato. E lo sport non fa eccezione. In questo caso nel calcio, producendo insight attendibili e spiegabili, che rendono più efficiente e qualitativo il lavoro di chi investe nello scouting e nella selezione di nuovi talenti”.
L’INDUSTRIA È ANCHE UNA “INTERNET DELLE GRU”
L’azienda manifatturiera ha declinato in modo personalizzato il concetto IoT, abbinandolo al modello della servitizzazione.
Anche le gru possono diventare degli oggetti IoT, parte cioè di quella rete in espansione e molto eterogenea chiamata Internet of Things. Sono più di una sessantina i modelli, di corporatura leggera, media e pesante, che Fassi Gru propone al mercato europeo ed extraeuropeo, per un totale di circa 30mila configurazioni possibili, realizzate esclusivamente su commessa con un volume di 12mila macchine all’anno. L’azienda affonda le proprie radici negli anni Cinquanta, nella passione per la meccanica di Franco Fassi, e nel tempo si è trasformata in gruppo fino alla fusione, nel 2016, con il produttore di mini gru Jekko. Da allora l’azienda ha iniziato a esplorare le potenzialità dell’IoT applicata al mondo delle gru: in altre parole l’Internet of Cranes, espressione coniata proprio da Fassi per identificare i progetti legati alla servitizzazione (servitization). Il passaggio dalla vendita di prodotti alla fornitura di servizi consente all’azienda diversi vantaggi. “Il nostro ufficio tecnico ha intuito da subito come, anche nel nostro settore, raccogliere i dati per analizzarli, studiarli e utilizzarli per generare servizi potesse essere un valore aggiunto non solo per noi ma soprattutto per i nostri clienti”, spiega Valentino Birolini, knowledge & innovation engineer di Fassi Gru. Per ottenere tutto questo è stata creata attraverso la tecnologia Hyperspace di
Micro Systems una soluzione integrata per la raccolta dati da ogni singola gru: un data gateway connesso alla scheda di controllo della macchina invia in cloud i dati raccolti. Un portale Web consente l’accesso ai dati in tempo reale e la gestione e il monitoraggio da remoto delle macchine, del loro buon funzionamento secondo gli scopi previsti. Un altro elemento chiave è il Crane Doctor, un sistema di telemetria che consente di analizzare le problematiche delle gru ed effettuare diagnosi precise. Questo approccio consente interventi tempestivi e, in alcuni casi, addirittura la prevenzione
LA SOLUZIONE
L’Internet of Cranes di Fassi Gru, basato sulla piattaforma Hyperspace di Micro Systems, prevede l’invio di dati dalle macchine al cloud attraverso un data gateway. La soluzione impiega anche un sistema di telemetria (Crane Doctor) e un portale Web per l’accesso ai dati, la gestione e il monitoraggio remoto.
dei guasti grazie alla manutenzione predittiva. “Abbiamo vinto la sfida di creare un’unica scheda con un’unica Sim card, in grado di connettersi a ogni rete cellulare del pianeta e introdotto un sistema. automatizzato per gestire le migliaia di Sim in funzione sul campo”, sottolinea Birolini.
L’interazione con l’operatore finale è un aspetto cruciale del processo: gli addetti possono richiedere personalizzazioni delle interfacce e delle modalità di utilizzo delle gru per adattarle alle proprie esigenze. Inoltre, possono ottenere assistenza da remoto per risolvere problemi in tempo reale e monitorare autonomamente il funzionamento delle macchine. L’utilizzo delle tecnologie IoT consente a Fassi di agire anche nell’ottica della sostenibilità, ottimizzando gli spostamenti e gestendo il ciclo di vita delle gru in modo più efficiente. L'obiettivo futuro è quello di continuare a esplorare le potenzialità dell'Internet of Things associandole a nuove tecnologie, come l'intelligenza artificiale, per generare valore aggiunto e per offrire ai clienti servizi sempre più avanzati.
NETCOMM - FOCUS FASHION & LIFESTYLE
Quando: 16 settembre
Dove: Magna Pars Event Space, Milano
Perché partecipare: l’evento (accessibile su invito e in diretta streaming) è strutturato su interventi e tavole rotonde. Si discuterà di interazione fra consumatori e brand, omnicanalità, realtà aumentata, intelligenza artificiale e altro ancora.
CISO PANEL MILANO
Quando: 19 settembre
Dove: Centro Congressi Fondazione Cariplo, Milano
Perché partecipare: l’evento, riservato ai chief information security officer, in questa edizione è dedicato al tema “Compliance europea, cyber resilienza e OT security”.
BANKING SUMMIT 2024
Quando: 25 (solo su invito) e 26 settembre
Dove: Grand Hotel Dino, Baveno
Perché partecipare: si parlerà delle tendenze di mercato e tecnologiche che attraversano il settore dei servizi finanziari, con particolare attenzione all’intelligenza artificiale.
HEALTHCARE INNOVATION SUMMIT 2024
Quando: 9 (riservata ai soci Aisis), 10 e 11 ottobre
Dove: Hotel Nhow, Milano
Perché partecipare: tra i molti temi in agenda ci sarano gli scenari di sviluppo del Sistema Sanitario Nazionale, l’innovazione digitale nelle scienze della vita, prospettive e applicazioni concrete dell’AI in sanità, uso dei dati, cybersicurezza e privacy.
9 - 10 - 11 ottobre
Hotel Nhow – Milano
Digital Innovation in Life-Science
Organizzato da AISIS e TIG – The Innovation Group, il summit offrirà una panoramica dell’innovazione digitale nel campo della Sanità, del Biotech e delle Scienze della vita.
Focus su:
Scenari di sviluppo del Sistema Sanitario Nazionale
L’innovazione digitale nell’ecosistema della Sanità e delle Scienze della vita
Ricerca ed Health Innovation
Prospettive e applicazioni concrete dell’intelligenza artificiale in Sanità
Governance e interoperabilità dei dati sanitari
Cybersecurity e privacy in Sanità
INFO: WWW.THEINNOVATIONGROUP.IT
MAIL: CARLOTTA.DIFALCO@TIG.IT
BANKING Summit 2024 LEADERS Banking Day 2024
PREPARARSI ALL’ERA DELL’AI
Alla ricerca della prossima frontiera della produttività e redditività.
25 e 26 settembre
Grand Hotel Dino – Baveno (VB)
Giunge alla 14esima edizione il più autorevole appuntamento dedicato alla trasformazione e innovazione digitale dell’industria bancaria in Italia.
Alcuni dei temi al centro dell’agenda:
I nuovi requisiti di compliance
Dati, privacy e gestione dei rischi
L’intelligenza artificiale nel banking
Il percorso delle strategie Esg
Il futuro dell’euro digitale