Technopolis 61

Page 1

www.technopolismagazine.it

STORIE DI ECCELLENZA E INNOVAZIONE

NUMERO 61 | FEBBRAIO 2024

CYBERCRIMINE, UN’INDUSTRIA CHE FA PAURA Data breach e ransomware sono in continua a crescita, mentre minacce tradizionali come il phishing guadagnano nuove capacità grazie all'intelligenza artificiale.

WEB 3.0

Il metaverso matura lentamente, ma molte aziende sperimentano con gli Nft e i mondi virtuali, creando nuove esperienze emozionali.

INFRASTRUTTURE

L’adozione su larga scala è ancora lontana ma il computing quantistico trova nuovi filoni di sviluppo, anche legati alI’AI.

CHIEF FINANCIAL OFFICER L’evoluzione di una figura che sempre più si interessa alla trasformazione digitale e che contribuisce a orientarla.


SMART MANUFACTURING SUMMIT2024 METAFACTORY: TRA SOGNO E REALTÀ

LOCATION

MILANO - 9 e 10 Aprile 2024 NH Collection Milano CityLife, Milano

Il settore manifatturiero è di fronte a molteplici sfide: alla trasformazione digitale, quella del paradigma “4.0”, oggi si affiancano gli obiettivi della transizione verde e una nuova visione di industria che rispetta il Pianeta e si fonda sulla cooperazione tra uomo e macchine. È l’industria 5.0, sostenibile, resiliente e incentrata sull’uomo, ma che può esistere solo grazie a tecnologie come l’AI generativa, i digital twin, il 5G, la robotica collaborativa, l’IoT e gli analytics.

INFO www.theinnovationgroup.it

MAIL carlotta.difalco@tig.it


ory

es

SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

N° 61 - FEBBRAIO 2024 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012 Direttore responsabile: Emilio Mango Coordinamento: Valentina Bernocco Hanno collaborato: Roberto Bonino, Stefano Brigaglia, Alessandro Catalano, Alessandro Fregosi, Mario Manfredoni, Arianna Perri, Elena Vaciago Foto e illustrazioni: 123rf.com, Burst, Freepix, Pixabay, Unsplash, Adobe Firefly Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it Pubblicità: The Innovation Group S.r.l. tel: 02 87285500

L’ombra del cybercrimine incombe sulle aziende AI alleata, nemica o vittima? Backup, il “piano B” contro gli attacchi Un percorso impervio, ma condiviso

10 IN EVIDENZA Le promesse dell’AI Pc in un mercato maturo Tra spinta alla novità e “stanchezza da cambiamento” Edge e storage: le fondamenta dell’AI Security Operations Center, cambiare è una necessità L’era dei clienti-macchina è già cominciata Vecchie debolezze e nuovi rischi da affrontare Le applicazioni del futuro: digital design e human factor Bilanciare esigenze opposte nel lavoro ibrido

24 ITALIA DIGITALE

Diesse, la ricerca biotech fa leva sul digitale

26 WEB 3.0

Customer experience, rivoluzione alle porte? Iter di sperimentazione

32 INTELLIGENZA ARTIFICIALE

Un fenomeno dalla doppia faccia

34 INFRASTRUTTURE

Destinazione cloud, ma non per tutto L’informatica spicca il “salto quantico”

38 SMART MANUFACTURING

Stampa: Ciscra SpA - Arcore (MB)

© Copyright 2021 The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati.

Cfo al crocevia della trasformazione L’evoluzione del Finance nelle aziende

Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.

Collaborazione e automazione, verso il 5.0

40 EXECUTIVE ANALYSIS 46 ECCELLENZE Università di Palermo Macron Quadrifoglio Group Auroflex

50 APPUNTAMENTI


Immagine di rawpixel.com su Freepik

STORIA DI COPERTINA | CYBERSICUREZZA

L’OMBRA DEL CYBERCRIMINE INCOMBE SULLE AZIENDE Ransomware, phishing e nuovi rischi alimentati dall’AI: in uno scenario sempre più fosco, la sicurezza informatica dovrebbe diventare un tema strategico.

I

numeri del cybercrimine fanno girare la testa: perché sono tanti e talvolta discordanti, e perché fotografano fenomeni diversi, manifesti o sotterranei, tra minacce che non riescono a sfondare il muro della sicurezza informatica e attacchi effettivamente andati a buon fine. Ne citiamo qualcuno, giusto per rendere l’idea. In base ai rilevamenti di Trend Micro, l’Italia è il terzo Paese al mondo più colpito dai malware, con oltre 174,6 milioni di programmi malevoli intercettati nel solo primo semestre 4 | FEBBRAIO 2024

del 2023. Nei tre mesi finali dell’anno, invece, Cloudflare ha rilevato 8,7 milioni di attacchi DDoS (Distributed Denial-of-Service) a livello di rete, un numero in crescita dell’85% sui livelli di fine 2022. Le attività dei “cacciatori di bug” testimoniano, invece, che il livello delle vulnerabilità software in circolazione non accenna a calare: nel 2023 i ricercatori della Zero Day Initiative di Trend Micro hanno pubblicato 1.913 allerte di sicurezza, un numero record. Come la si guardi, su un fatto tutti i nu-

meri concordano: il rischio cyber è in continua crescita e in continua evoluzione. Il crimine informatico negli anni è diventata una vera industria, con gerarchie, ruoli, filiere e dinamiche di domanda e offerta, fino allo sviluppo di un ricco mercato di strumenti “as-a-Service” (già pronti all’uso o quasi, utili per sferrare attacchi anche di tipo ransomware) e di dati rubati. Tratteggiare una panoramica completa del cybercrimine in poche pagine è impossibile, ma abbiamo raccolto alcuni dei temi caldi e degli spunti di riflessione più interessanti. Data breach senza posa

L’espressione è diventata quasi sinonimo di attacco informatico perché molto


plice spam. “Non dobbiamo mai sottovalutare ciò che i criminali informatici possono ottenere anche con informazioni così scarse”, ha commentato Jake Moore, global security advisor di Eset. “Le vittime devono essere consapevoli delle conseguenze del furto di una password e devono effettuare i necessari aggiornamenti di sicurezza. Ciò include la modifica delle password, l’attenzione alle email di phishing dopo la violazione e la garanzia che tutti gli account, colpiti o meno, siano dotati di autenticazione a due fattori”. Considerata la diffusa abitudine al “riciclo” delle password, il rischio aumenta perché attori malevoli potrebbero, con le credenziali ottenute, accedere anche ad account di piattaforme mai toccate da data breach. “I criminali informatici utilizzano tattiche che cercano sempre più spesso di accedere ai dati e non per forza di comprometterli, ponendo attenzione particolare al furto di identità”, ha commentato Matt Cooke, cybersecurity strategist Emea di Proofpoint. “Questo ultimo leak sembra riunire dati provenienti da violazioni storiche, ma la vasta quantità di informazioni disponibili si-

gnifica che è probabile che nelle prossime settimane gli attori malevoli possano effettuare attacchi basati sulle credenziali”. La natura del gigantesco leak di dati conferma le evidenze dello studio “Cost of Data Breach Report” realizzato da Ponemon Institute per Ibm: nel periodo di osservazione (da marzo 2022 a marzo 2023) solo una violazione su tre è stata scoperta dal team di sicurezza informatica interno all’azienda colpita. In non pochi casi, il 27%, il furto viene alla luce perché sono i suoi autori a rivendicarlo, pubblicando dati online o chiedendo un riscatto. Nelle attività di rilevamento, quindi, c’è ancora molto da migliorare. Phishing in evoluzione

Una minaccia sempreverde, che non dà segni di cedimento, è il phishing. Esiste in varie forme: a quella più diffusa dei messaggi “esca” inviati via email si affiancano lo smishing (Sms truffaldini e contenenti link verso pagine Web malevole) e il vishing (voice phishing, tramite telefonate in cui ci si spaccia per un’azienda fidata, tentando di ottenere informazioni sensibili). Nota è anche l’e-

Immagine di flatart su Freepik

Immagine di rawpixel.com su Freepik

spesso, anche se non sempre, chi penetra in una rete aziendale o in un computer lo fa per rubare dati. In una ricerca condotta da Ponemon Institute per Barracuda, poco meno della metà (48%) delle aziende intervistate in cinque Paesi del mondo ha subìto un incidente di data breach nell’anno precedente all’indagine, con conseguente perdita di informazioni relative ai dipendenti, ai report finanziari, alla proprietà intellettuale o ai clienti. Nella maggior parte dei casi la violazione è avvenuta per negligenze o attività dolose dei dipendenti o collaboratori aziendali, oppure per sviste nel reparto informatico (come vulnerabilità non risolte con patch, errori nel sistema o nei processi operativi) e ancora per errori di terze parti. Arrivano solo dopo, nell’elenco delle cause più frequenti, le minacce esterne come attacchi di hackeraggio, phishing o installazione di malware. E questo già dovrebbe far riflettere. Un fatto degno di nota è che spesso le violazioni non vengono scoperte se non per caso o dopo molto tempo, come ha dimostrato il recente ritrovamento di un gigantesco archivio di dati battezzato Mother of all Breaches, cioè “madre di tutte le fughe di dati”: 26 miliardi di righe di database raggruppate in 3.800 cartelle, per un totale di 12 terabyte. Si tratta di una collezione di diversi furti di dati compiuti anche a distanza di anni e su bersagli disparati: piattaforme di gaming come Weibo e Zynga, software usati anche in ambito professionale come quelli di Adobe e Canva, applicazioni come MyFitnessPal, social media come LinkedIn, Twitter, MySpace e Wattpad, e ancora servizi di cloud hosting come Dropbox e organizzazioni governative. Il bottino include credenziali di accesso ma anche dati sensibili, potenzialmente utilizzabili per svariati attacchi informatici, furto d’identità, sottrazione di denaro, truffe, phishing mirato o nella migliore delle ipotesi sem-

5


STORIA DI COPERTINA | CYBERSICUREZZA

AI ALLEATA, NEMICA O VITTIMA? L’intelligenza artificiale è “buona” o “cattiva”? Entrambe le cose: il duplice ruolo dell’AI nel campo della cybersicurezza è ormai noto (e ne parliamo anche a pagina 32-33). Il machine learning viene usato da anni nelle soluzioni di rilevamento e risposta, perché aiuta ad automatizzare molte procedure (consentendo analisi su volumi di potenziali minacce, altrimenti ingestibili) e inoltre sa riconoscere i comportamenti sospetti e supera, così, i limiti di una difesa che identifica solo le minacce già note. Grazie all’automazione basata su AI il “ciclo di vita” di un data breach, dalla sua scoperta alla riparazione, si può accorciare notevolmente (da 322 a 214 giorni, in media, secondo un recente studio di Ibm, “Cost of a Data Breach Report”). Oggi, poi, anche l’AI generativa sta iniziando a trovare applicazioni sia nella sicurezza preventiva, per il rilevamento di vulnerabilità e minacce, sia in quella reattiva. I grandi modelli linguistici sanno comprendere domande poste in linguaggio naturale e rispondere allo stesso modo, all’interno di interfacce conversazionali, velocizzando di molto

spressione spear phishing, una sottocategoria del phishing in cui vengono presi di mira persone o gruppi di utenti specifici, per esempio i dipendenti di una certa azienda. Altre tipologie sono gli attacchi di Business Email Compromise (Bec) e il whaling: nei primi, i mittenti si spacciano per amministratori delegati o altre figure dirigenziali; nel secondo caso, i Ceo o i dirigenti sono le vittime. In molti degli attacchi descritti, spesso l’ingegneria sociale o precedenti violazioni informatiche aiutano gli autori a studiare le proprie vittime, così da poter confezionare truffe più personalizzate e credibili. A tutto ciò si sommano, ora, preoccupazioni legate all’uso dell’intelligenza artificiale generativa per creare messaggi di phishing più convincenti o tradotti in più lingue (così da poter allargare il raggio geografico delle truffe) o, addirittura, per confezionare audio o video sintetici. In un report del 2023 la società infor6 | FEBBRAIO 2024

il lavoro dei Security Operations Center. D’altro canto sia il machine learning in generale sia la GenAI vengono anche sfruttati per confezionare attacchi più efficaci, specie nel phishing, fra testi generati automaticamente e personalizzati in base al target, immagini irreali ma credibili, audio “sintetici” e video deepfake. Se ne parla oggi ma già nel 2019 l’AI era stata usata con successo per “clonare” la voce di un amministratore delegato e derubare un’azienda britannica del settore energetico di circa 220.000 euro. Da una ricerca di Barracuda, “Cybernomics 101”, condotta nel mese di settembre scorso da Ponemon Institute su 1.917 professionisti della sicurezza informatica di aziende statunitensi, britanniche, francesi, tedesche e australiane medie e grandi (da 100 a 5.000 dipendenti), risulta una polarizzazione di punti di vista. Un intervistato su due pensa che l’AI consentirà agli hacker di sferrare più attacchi, il 48% crede che essa ridurrà il tempo necessario per sfruttare una vulnerabilità presente in un ambiente IT. Il 54% ammette che, di fronte a questi sviluppi, sarebbe

matica Cloudflare ha rilevato che l’89% dei messaggi di posta indesiderati, di semplice spam o di phishing, supera le principali procedure di autenticazione della posta elettronica, come i controlli dei server e degli indirizzi mittenti. Posta elettronica, Sms e telefonate non sono, comunque, gli unici vettori d’attacco possibili. Fra le tendenze emergenti che, secondo Kaspersky, troveranno sviluppo nel corso del 2024 c’è l’uso dei motori di ricerca a scopi di phishing, ovvero gli attaccanti stanno acquistando spazi pubblicitari a pagamento su su Google e Bing per dare visibilità alle proprie pagine di destinazione. Ransomware endemico

Spesso protagonista delle cronache, il ransomware è diventato negli ultimi anni una tra le minacce informatiche più diffuse anche grazie alla sua capacità di reinventarsi. Prendiamo il caso di Lockbit, una tra i più famigerati pro-

grammi ransomware, che negli anni si è evoluto e declinato in differenti varianti. In base ai dati della Cybersecurity and Infrastructure Security Agency (Cisa), nei soli Stati Uniti avrebbe colpito dal 2020 a oggi oltre 1.700 organizzazioni. Tipicamente, gli attacchi basati su Lockbit prevedono lo sfruttamento di una vulnerabilità ancora non nota (dunque un exploit zero-day) a cui seguono sia l’installazione di un ransomware sia un’azione di esfiltrazione dei dati. Il furto di informazioni può servire a scopi diversi dalla monetizzazione, come il cyberspionaggio, ma funge anche da ulteriore leva di ricatto. Un’altra tendenza osservata, per esempio, da Sophos è la diversificazione delle richieste di riscatto: i criminali possono pretendere somme di diversa entità offrendo la rimozione della crittografia o il prolungamento dell’ultimatum oltre il quale i dati verranno presumbilmente distrutti o pubblicati.


necessario adottare nuovi approcci nella difesa. La torta, quindi, è divisa quasi equamente tra chi mostra di temere l’uso malevolo dell’intelligenza artificiale e chi non se ne preoccupa troppo. La cattiva notizia è che solo il 39% dei professionisti di IT security pensa che la propria azienda sia preparata a contrastare gli attacchi basati su AI generativa. Un altro aspetto da considerare è che l’AI può essere a sua volta bersaglio di attacchi informatici. “Gi assistenti personali si faranno strada diventando mainstream nel 2024, che si tratti di funzionalità presenti nei dispositivi indossabili o negli smartphone”, ha dichiarato Andy Patel, ricercatore di WithSecure. “Gli assistenti personali potrebbero essere il fattore che motiva e incoraggia attacchi reali contro l’AI, come iniezione di prompt e attacchi di inferenza. Altre tecniche, come l’ottimizzazione per i motori di ricerca (Seo), giocheranno un ruolo nei piani degli avversari. Ingannare l’AI per farla funzionare male o per ottenere risultati fuorvianti sarà una proposizione Una nuova “soglia di povertà”

Se è vero che negli ultimi anni i servizi cloud hanno abbassato la barriera all’ingresso per molte tecnologie, un tempo accessibili solo alle grandi aziende, è anche vero che sicurezza informatica sta diventando sempre più complessa e conseguentemente costosa. E torna attuale il concetto di “soglia di povertà” introdotto nel 2013 dall’informatica Wendy Nather, riferendosi al livello di conoscenza e di budget necessario per dotarsi della minima cybersicurezza indispensabile. Da qui una riflessione di F5: “Oggi sembra che le organizzazioni abbiano bisogno di orchestrazione della sicurezza, automazione e risposta agli incidenti (Soar), soluzioni di Security Information and Event Management (Siem), strumenti di gestione delle vulnerabilità e servizi di threat intelligence, oltre a programmi come la gestione della configurazione, la risposta agli incidenti, i pe-

allettante per chi attacca. E se l’interfaccia risponde a comandi vocali e l’utente non può scorrere il mouse per verificare il contenuto che sta per aprire, allora sarà molto più facile ingannare le persone su link e documenti malevoli”. Fra l’allarmismo e l’ignoranza del rischio esiste, comunque, una sana via di mezzo. Diversi vendor alimentano una corrente di pensiero di questo tipo, che invita alla consapevolezza delle nuove minacce emergenti ma invita anche a ridimensionare le paure. “La crescita esplosiva di tool di intelligenza artificiale generativa come ChatGpt, FraudGpt e WormGpt porta con sé promesse e pericoli, ma non ci saranno catastrofi per quanto riguarda la sicurezza informatica”, ha scritto Patrick Joyce, global resident chief information security officer di Proofpoint. “Al momento, gli attori delle minacce stanno ottenendo ritorni economici con altre attività. Perché preoccuparsi di reinventare il modello quando funziona benissimo? Ma modificheranno le loro tattiche, tecniche e procedure quando il rilevamento inizierà a migliorare in quelle aree”. V.B.

netration test e la governance, la conformità e il rischio. Il problema principale è che molte aziende scelgono di consumare queste soluzioni come servizi gestiti, che garantiscono l’esperienza necessaria ma comportano anche dei costi. L’incremento dei costi di ingresso in ciascuna di queste nicchie significa che diventeranno sempre più una scelta fra tutto o niente, e un numero sempre maggiore di organizzazioni si troverà a dover effettuare scelte tra di esse”. A detta di F5, al posto di una “soglia di povertà” dovremo considerare una “matrice di povertà” composta da diverse dimensioni e nicchie tecnologiche. Un tema strategico

C’è un tema trasversale a tutte le tendenze e ai fenomeni qui descritti: l’importanza di portare la cybersicurezza sui tavoli dei consigli di amministrazione, dentro le agende dei direttori generali e dei Ceo. Questo sta cominciando a suc-

cedere ma siamo lontani dall’optimum, come emerso dall’ultima ricerca di The Innovation Group, “La Cybersecurity delle Aziende Italiane”, condotta nel mese di dicembre 2023 su una sessantina di aziende italiane di diverse dimensioni e settori d’appartenenza. Il 63% dei manager e responsabili IT crede che nella propria azienda i dirigenti non abbiano una piena comprensione della tematica cyber, vuoi perché i concetti sono troppo tecnici o perché l’argomento viene affrontato raramente (nel 69% delle aziende, il board se ne occupa una o due volte e l’anno). Spesso manca una strategia complessiva e non vengono condotte attività di misurazione e reporting. Serve un salto di qualità, più che di quantità: non basta aumentare i budget dedicati se poi la cybersicurezza non viene considerata come un tema strategico, da cui dipendono la reputazione e anche le finanze dell’azienda. Valentina Bernocco 7


STORIA DI COPERTINA | CYBERSICUREZZA

BACKUP, IL “PIANO B” CONTRO GLI ATTACCHI Un report di Veeam evidenzia le conseguenze delle violazioni e le prassi aziendali poco attente alla velocità di recupero post incidente.

Immagine di vectorjuice su Freepik

Il recente studio “Data Protection Report 2024” di Veeam ha confermato per l’ennesima volta come gli attacchi informatici rimarranno la causa principale di downtime per le aziende anche quest’anno. E ciò accadrà nonostante il 92% delle organizzazioni abbia intenzione di aumentare la spesa per la protezione dei dati, allo scopo di rafforzare la propria resilienza. Il rapporto mette in luce come il ransomware sia sempre più una questione di “quando” e non di “se”: il 76% delle organizzazioni è stato colpito almeno una volta in dodici mesi. Sebbene ci sia stato un calo rispetto all’85% registrato nella precedente edizione del report, il dato resta preoccupante e inoltre il 26% delle aziende ha riportato almeno quattro attacchi nel corso dell’anno.

8 | FEBBRAIO 2024

Uno dei punti critici è la capacità di recupero, visto che solo il 13% delle organizzazioni ha dichiarato di essere in grado di gestire con successo l’operazione attraverso il disaster recovery. Nonostante la consapevolezza dell’importanza della resilienza, solo il 32% delle aziende valuta di essere in grado di riprendersi da un piccolo attacco, crisi o interruzione entro una settimana. La preparazione in tema business continuity e disaster recovery sembra non soddisfare le aspettative, dato che solo il 32% ritiene che il personale IT possa ripristinare cinquanta server entro cinque giorni lavorativi. L’indagine ha anche evidenziato che i budget per la protezione dei dati stanno crescendo, con una previsione di crescita del 6,6% nel 2024. Questo segna il secondo anno consecutivo in cui la spesa per

la protezione dei dati supera la crescita complessiva della spesa IT. Il 92% delle organizzazioni ha intenzione di investire di più nella protezione dei dati nel corso dell’anno per affrontare i cambiamenti nel panorama produttivo e prepararsi ad attacchi informatici sempre più sofisticati. Inoltre la ricerca ha sottolineato l’importanza di una moderna soluzione di protezione dati, che si integri con gli altri strumenti di sicurezza informatica. La mobilità nei contesti cloud è stata identificata come un aspetto cruciale da oltre il 40% degli intervistati, con un focus specifico sulla capacità di spostare i carichi di lavoro tra diverse piattaforme cloud e sulla standardizzazione della protezione tra on-premise, IaaS e SaaS. Un punto di attenzione riguarda i container: il 59% delle aziende che li utilizza in produzione e un ulteriore 37% che li implementa o pianifica di farlo. Tuttavia, solo il 25% utilizza soluzioni di backup specificamente progettate per i container, fatto che crea potenziali vulnerabilità nel ripristino delle applicazioni e dei servizi dopo una crisi. Infine, il 2024 potrebbe portare significativi cambiamenti nel panorama lavorativo: il 47% degli intervistati che esprime l’intenzione di cercare nuove opportunità professionali al di fuori delle proprie organizzazioni nei prossimi dodici mesi. Questa dinamica rappresenta una sfida e un’opportunità per le iniziative di protezione dei dati, poiché la perdita di talenti potrebbe mettere le aziende in significativo svantaggio, ma allo stesso tempo offre l’occasione di acquisire nuove competenze per proteggere i carichi di lavoro moderni in ambienti cloud complessi. R.B.


UN PERCORSO IMPERVIO, MA CONDIVISO Le aziende sono consapevoli di essere costantemente sotto attacco informatico. Gli stessi vertici aziendali hanno coscienza dei numerosi rischi che la diffusa digitalizzazione porta con sé, e sanno di aver in passato sottovalutato le possibili conseguenze degli incidenti di cybersecurity. È fatto acquisito dai più che un attacco ransomware, un furto di dati o un Denial-of-Service andato in porto possano costare milioni di euro, a causa dell’arresto dei processi produttivi, della fuga di investitori e clienti, della perdita di proprietà intellettuale di costi di ripristino, multe e i costi legali. Allo scopo di diffondere maggiore cultura sul tema, coinvolgendo non solo i professionisti della cybersecurity e i fornitori di tecnologie specializzate, ma anche quanti interessati a comprendere come per costruire fondamenta solide per il digitale, The Innovation Group ha lanciato nel 2015 il programma “Cybersecurity & Risk Management”, oggi giunto alla sua nona edizione. Il programma funziona da cassa di risonanza e si compone di eventi, approfondimenti, webinar, survey e ricerche sulla maturità raggiunta dalle aziende italiane nella sicurezza informatica. Come emerge dall’indagine “La Cybersecurity delle Aziende Italiane” (svolta da TIG a dicembre 2023 su un campione di sessanta aziende italiane dei diversi settori e di diversa dimensione), il rischio cyber occupa i primi posti tra le preoccupazioni più sentite dai manager. Affrontare la situazione sviluppando una strategia di cybersecurity coerente con la strategia di business è oggi inevitabile: le grandi organizzazioni hanno iniziato questo percorso da più tempo e sono quindi più avanzate, da diversi punti di vista. Anche le Pmi però dimostrano, con i risultati della survey di quest’anno, di aver cominciato ad attrezzarsi. In generale, le aziende concordano su alcuni obiettivi generali di cybersecurity, ossia: garantire la continuità del business; proteggere la privacy dei dati e gli asset critici dell’azienda; rispondere ai requisiti di legge (compliance); e mantenere la fiducia di clienti e collaboratori. Su questi punti convergono a grandi linee le risposte dei business manager e quelle degli IT manager. Si tratta però di un percorso impervio, perché numerose difficoltà limitano gli sforzi in campo cybersecurity: i Ceo sono preoccupati soprattutto per una compliance sempre più complessa, mentre gli IT manager temono l’estesa digitalizzazione e la difficoltà di tenere tutto sotto controllo, oltre che gli attacchi sempre più differenziati e difficili da intercettare. Questi temi saranno oggetto di approfondimento, con esperti e leader settore, durante gli eventi di TIG di quest’anno. Il primo appuntamento, il Cybersecurity Summit 2024 del 28 e 29 febbraio a Milano, affronta due ambiti di crescente rilevanza. Da un lato, la necessità di governare, con policy e approcci di cybersecurity, una trasformazione digitale accelerata che vede nell’AI, in particolare quella generativa, un’opportunità di crescita per il business. L’AI aiuta essa stessa a rafforzare la sicurezza, incrementando capacità di identificazione delle minacce e velocizzando la risposta, ma va adottata con attenzione, con i corretti processi e con competenze adeguate. C’è poi il tema dell’obbligo di compliance allo tsunami di norme europee in arrivo (come il regolamento Dora e la direttiva Nis2), che entro un anno investirà le organizzazioni italiane di tutti i settori e dimensioni: è indispensabile, quindi, attrezzarsi considerando per tempo le azioni prioritarie. Elena Vaciago

I VENDOR AL FIANCO DEL PROGRAMMA Il programma annuale di TIG dedicato alla cybersecurity vede nel 2024 il supporto di quattro Main Partner, società leader del settore: Cyber Guru, NetWitness, Recorded Future e SentinelOne. Con il supporto dei contributi di questi partner, gli analisti di TIG svilupperanno approfondimenti e forniranno una serie di insight per analizzare le diverse traiettorie che l’industria della sicurezza informatica sta seguendo, per rispondere alle esigenze delle aziende con soluzioni in linea con i nuovi paradigmi IT, dal cloud ai Big Data, e alle opportunità legate all’intelligenza artificiale.

9


IN EVIDENZA

l’analisi LE PROMESSE DELL’AI PC IN UN MERCATO MATURO

Immagine di Freepik

Il 2023 è stato l’anno peggiore nella storia dei Pc, almeno dal punto di vista dell’andamento delle vendite. Dai dati di Gartner, aggiornati con i conteggi dell’ultimo trimestre, risulta che nel 2023 siano stati commercializzati 241,8 milioni di personal computer, tra sistemi desktop, notebook, convertibili e workstation: il numero segna un calo del 14,8% rispetto ai 284 milioni del 2022. In termini di volumi di vendita assoluti, il record di anno peggiore per i Pc spetta ancora al 2006, quando furono commercializzati 230 milioni di dispositivi, ma in termini di declino anno su anno l’infelice primato spetta al 2023. Ed era da 13 anni che i volumi di vendita annuali non scendevano sotto la soglia dei 250 milioni di unità. I perché sono noti. Lo scivolone si deve alle incertezze dell’economia e all’inflazione, che hanno scoraggiato la domanda di beni voluttuari e ridotto il potere d’acquisto di consumatori e aziende. Ma è anche legato alla natura-

10 | FEBBRAIO 2024

le saturazione delle domanda dopo due anni di post pandemia in cui si era vista una corsa all’acquisto di nuovi Pc per lo smart working e lo studio a distanza. La discesa, se non altro, ha rallentato verso la fine dell’anno. I 63,3 milioni di Pc commercializzati nel quarto trimestre segnano, anzi, una minima risalita dello 0,3% rispetto ai livelli di fine 2022. Confermato l’ordine di classifica dei primi sei marchi più venduti, ovvero Lenovo, Hp, Dell, Apple, Asus e Acer. Quest’ultimo, in particolare, ha visto i volumi di vendita crescere dell’11% anno su anno nel quarto trimestre, mentre Apple ha incassato un incremento del 7,2%, Hp del 5,6% e Lenovo del 3,2%. In calo le vendite di Dell, -8,3%, e di Asus, -9.4%. Per il 2024 Gartner prevede un ritorno alla crescita, con alcune incognite da considerare. “Il mercato Pc ha toccato il fondo del proprio declino dopo un significativo assestamento”, ha commentato Mikako Kitagawa, director analyst di

Gartner. “Le scorte, una piaga che ha afflitto il settore per due anni, si sono normalizzate nel quarto trimestre del 2023. La lieve crescita suggerisce che ci sia finalmente equilibrio tra domanda e offerta. Tuttavia la situazione probabilmente cambierà per via di un previsto aumento dei prezzi dei componenti nel 2024, così come per le incertezze geopolitiche ed economiche”. I produttori di Pc puntano (nelle comunicazioni di marketing, quanto meno) sull’intelligenza artificiale, un tema oramai onnipresente, come testimoniano anche le pagine di questo numero di Technopolis. All’ultimo Consumer Electronics Show di Las Vegas, lo scorso gennaio, uno slogan ricorrente in molti annunci è stato “AI Pc”: uno slogan in cui è racchiusa la promessa di una intelligenza artificiale che “adesso è per tutti”. Parole di Intel, che hanno accompagnato lancio dei nuovi processori Core Ultra, definito come “il più grande cambiamento di architettura di Intel negli ultimi quarant’anni”. Se le applicazioni hanno un ruolo, non meno importante è l’evoluzione dei componenti semiconduttori, che devono sempre più conciliare le esigenze di performance e di contenimento dei consumi. Quelle di intelligenza artificiale sono, tendenzialmente, applicazioni a uso intensivo di Cpu e Gpu, dunque il tema sempreverde della durata della batteria dei portatili, sebbene poco “notiziabile”, rimane anche oggi attuale e di concreto impatto sull’esperienza d’uso dei computer Nonostante questa sfida e quella dei prezzi (perché l’AI Pc al momento alberga nella fascia premium), non si può non riconoscere che una vera ventata di novità sta finalmente soffiando su uno tra i più maturi mercati tecnologici. Valentina Bernocco


TRA SPINTA ALLA NOVITÀ E “STANCHEZZA DA CAMBIAMENTO” Secondo Gartner, nel 2024 il giro d’affari mondiale dell’Ict crescerà del 6,8%. Aziende più caute nei nuovi investimenti. gia trasformativa nel lungo termine. “La GenAI cambierà tutto, ma non impatterà in modo significativo la spesa IT, un po’ come accaduto con l’Internet of Things, la Blockchain e altre grandi tendenze già vissute”, ha dichiarato John-David Lovelock, distinguished vicepresident analyst di Gartner. “Il 2024 sarà l’anno in cui le aziende effettivamente investiranno nel pianificare come utilizzare la GenAI, ma la spesa sarà trainata da forze più tradizionali, come la profittabilità e il lavoro, e sarà rallentata da una prolungata ondata di stanchezza da cambiamento”. I chief information officer, insomma, in generale non avranno troppa voglia di inseguire le ultime novità tecnologiche, e potrebbero esitare nella firma di nuovi contratti, nella pianificazione di iniziative a lungo termine o nell’ingaggio di nuovi partner. Prima di lanciarsi in nuovi progetti, tendenzialmente i Cio vorranno Immagine di Freepik

Un bel po’ di hype, aspettative e semafori gialli. Ma anche una crescita che, pur non eclatante, effettivamente ci sarà. Tra le novità di intelligenza artificiale, il proseguimento della migrazione in cloud e una ripresa degli acquisti in personal computer, il 2024 si prospetta come un anno discretamente buono per il mercato Ict. Secondo le ultime previsioni di Gartner questo mercato, considerando anche i servizi di comunicazione, sfiorerà la soglia dei cinque miliardi di dollari: 4.997,7 miliardi, più precisamente. La crescita sul 2023 sarà del 6,8% ed è un buon dato, benché inferiore alla precedente stima dell’8%. Si è ridimensionato, infatti, il calcolo dell’impatto dell’intelligenza artificiale generativa sul totale degli investimenti del 2024. Gartner ammette che l’hype non corrisponderà a una massiccia corsa alla spesa, ma sottolinea anche che questa sarà davvero una tecnolo-

valutare meglio la mitigazione dei rischi e la certezza dei risultati. Se non altro, l’affaticamento di cui parla Gartner sarà meno marcato rispetto all’anno scorso: nel 2023, infatti, il mercato IT era cresciuto solo del 3,3%, meno della metà della previsione di quest’anno. Sull’intelligenza artificiale, un punto di vista non lontano è quello di Idc: ci sarà una trasformazione dell’offerta, sì, ma sul fronte della domanda, più che una corsa, dobbiamo aspettarci una maratona. “Tutti i fornitori IT integreranno l’AI nel cuore del proprio business”, ha dichiarato Rick Villars, group vice president, worldwide research di Idc. “Per i Cio e i manager esperti di digitale, questa svolta promette una cornucopia di nuovi e innovativi prodotti e servizi potenziati dall’AI, ma minaccia anche di inondare i team informatici con molte opzioni basate su AI che aumentano i rischi associati a una crescita incontrollata dei costi e a una perdita di controllo sui dati”. Per quanto riguarda l’andamento del cloud, Forbes prevede che l’anno prossimo la spesa mondiale in servizi di infrastruttura (Infrastructure as-a-Service, IaaS) supererà per la prima volta la soglia dei mille miliardi di dollari, e che si consoliderà un fenomeno già battezzato come “AI-as-a-Service”, cioè l’acquisto di istanze di calcolo e archiviazione in cloud destinate ad attività di intelligenza artificiale. Sempre a detta di Forbes, passerà dall’attuale 76% all’85% la percentuale di grandi aziende che seguono una strategia multi-cloud, ovvero mescolano servizi di differenti fornitori, selezionati a seconda del caso d’uso e della convenienza. Proseguirà, inoltre, lo spostamento sul Software as-a-Service (SaaS) anche per le applicazioni aziendali core, come l’Erp, il Crm e le piattaforme per la gestione delle risorse umane e dei fornitori. V.B.

11


IN EVIDENZA

l’intervista

EDGE E STORAGE: LE FONDAMENTA DELL’AI Così Dell Technologies interpreta il ruolo di leader nell’era della GenAI: rapidità, sostenibilità, archiviazione di qualità e cybersicurezza.

Danese, 23 anni trascorsi in Dell Technologies con diversi ruoli internazionali, Nicolai Moresco è oggi Senior Vice President and Managing Director della multinazionale per la Western Region. Technopolis lo ha intervistato, insieme a Filippo Ligresti, Vice President e Managing Director di Dell Technologies Italia, per capire quale sia la strategia dell’azienda in uno scenario di grande cambiamento. Come sta evolvendo la strategia di Dell?

Moresco: Tutto sta mutando a un ritmo mai visto prima. Non è cambiata però la nostra mission: fornire le migliori tecnologie ai nostri clienti. Oggi i temi più sentiti sono quelli relativi alle architetture edge, core, cloud, all’AI e alla sicurezza, e noi siamo in una posizione centrale per poter essere rilevanti in tutti questi ambiti. I dati del terzo trimestre non erano esaltanti. Che prospettiva avete sul mecato?

Moresco: L’intero settore sta risentendo del rallentamento post pandemia, ma siamo fieri di aver ulteriormente incrementato le nostre quote di mercato nei segmenti server e storage. Sappiamo di avere la piena fiducia di partner e clienti, e questo ci spinge a essere ottimisti per i prossimi trimestri. Ligresti: In Italia siamo molto soddisfatti dei risultati raggiunti. Il Paese sta cambiando rapidamente e noi stiamo partecipando attivamente al rinnovamento, guidato dalla Pubblica Ammi-

12 | FEBBRAIO 2024

Nicolai Moresco

nistrazione, dalle infrastrutture Ict. In Italia Dell è cresciuta più della media delle altre country in tutti i segmenti. Quale ruolo per l’edge nell’era dell’AI?

Moresco: Anche se apparentemente l’AI richiede grandi capacità di calcolo nei data center, è evidente che i dati si stiano allontanando dal centro e che debbano essere elaborati dove nascono. Gli analisti dicono che questo succede nel 77% dei casi, e siamo anche in questo caso in una posizione privilegiata sul mercato, perché da sempre investiamo nelle soluzioni edge. Quali sono i vantaggi?

Moresco: Le informazioni vengono elaborate più rapidamente e sono di maggiore qualità (un requisito fondamentale anche per l’AI). Inoltre l’edge permette un minor consumo energetico, un tema molto delicato nell’implementazione ad esempio dell’AI generativa. Ma l’edge non è solo AI, è anche ad esempio Internet of Things, e con-

sente di creare soluzioni molto efficienti in settori come quello manifatturiero e in agricoltura: insomma, noi portiamo la tecnologia dove stanno i dati. Come valutate l’impatto della GenAI?

Moresco: La Generative AI sta diventando sempre più protagonista; per ora stiamo vedendo casi d’uso prevalentemente in progetti di content creation, agenti virtuali e data insight. In tutte queste applicazioni i dati sono importanti, e la nostra peculiarità è di metterli a disposizione degli utenti in totale sicurezza, soprattutto nella fase di training, che spesso avviene on-premise. Non dimentichiamo che, affinché le Gpu lavorino efficacemente, è cruciale disporre di data lake di alta qualità per alimentarle. Per questo anche la richiesta di storage sta aumentando. Chiudiamo con la cybersecurity, che invece è un evergreen...

Moresco: Stiamo facendo un grande sforzo sulla cybersicurezza, lavorando con un consorzio di partner per definire lo Zero Trust del futuro. Lo abbiamo già inserito nelle nostre soluzioni, ma vogliamo essere certi che i clienti riescano a usarlo efficacemente. Inoltre vogliamo aiutare il cliente anche dopo eventuali attacchi, per recuperare i dati. Ligresti: In Italia la sensibilità delle imprese e della PA è alta, agli stessi livelli degli altri Paesi più evoluti, anche perché le stime dicono che il 70% delle organizzazioni ha riportato danni causati da cyberattacchi. Da questo punto di vista, lo sviluppo delle architetture edge amplia e complica il perimetro da proteggere. Per questo stiamo investendo molte risorse e affiancando i nostri partner e clienti per portare le best practice nella protezione dell’edge. Emilio Mango


TECHNOPOLIS PER BROTHER

STAMPA PER ETICHETTE, LA GIUSTA TECNOLOGIA FA LA DIFFERENZA Alta qualità dell’output e integrazione nei flussi di lavoro sono fattori cruciali, che incidono sulla produttività e sui costi. Scegliere un dispositivo moderno comporta molti vantaggi. Sono solitamente piccole, ma nel bene e nel male fanno una grande differenza per il business: sono le etichette. Scegliendo la giusta stampante per etichette si ottengono numerosi vantaggi, mentre un modello obsoleto o che produce output di scarsa qualità può creare tempi di inattività e varie limitazioni. Come evidenziato da una ricerca di Brother (condotta in Regno Unito su 126 direttori di produzione, magazzino, pianificazione e logistica), in tre aziende su quattro i codici a barre illeggibili hanno causato rifiuti delle consegne e la necessità di rispedire la merce. Alla domanda su quanto tempo si perda, ogni anno, a causa di etichette di qualità scadente, il 59% delle aziende ha risposto “tra una settimana e oltre un mese”. Tutto questo si traduce in ritardi, costi di logistica aggiuntivi, insoddisfazione dei clienti e danni di reputazione. Nei diversi contesti in cui si utilizzano etichette con codici a barre – aziende manifatturiere, retail, produttori farmaceutici, ospedali, centri logistici e altro ancora – una stampa di qualità è il primo alleato del business. Ma non è l’unico. I dispositivi di stampa devono essere al passo con i tempi: un sistema datato potrebbe non funzionare sul supporto desiderato (come i rotoli di etichette) o essere incompatibile con i software più recenti. In certi casi, poi, le postazioni fisse diventano un ostacolo. Pensiamo ai cambiamenti nelle abitudini di acquisto indotti dall’e-commerce: i consumatori tendono ad accorpare più articoli in uno stesso ordine, dunque la dimensione dei pacchi tende a crescere. Per chi lavora in magazzino utilizzare una stampante fissa, dovendo continuamente recarsi alla postazione e spostare avanti e indietro pacchi voluminosi o pesanti, è diventato poco pratico. Insomma, oggi servono davvero delle soluzioni moderne e flessibili per non intralciare i flussi di lavoro, causando perdite di tempo e denaro. Oltre alla qualità dell’output, alla flessibilità e (in certi contesti) alla mobilità, una quarta caratteristica è cruciale: l’integrazione della stampa con gli altri sistemi e processi “core” dell’azienda come, a seconda dei casi, il software ERP o il Warehouse Management System. Nessuna tecnologia, per quanto avanzata, può esprimere il pieno potenziale senza una corretta integrazione. Perché scegliere Brother Brother è non solo un marchio protagonista nel mercato del printing per uffici, ma vanta anche una ricca offerta di stampanti per etichette. Per l’etichettatura industriale su alti volumi di stampa è stata creata la gamma TJ,

che impiega la tecnologia a trasferimento termico ed è indicata per varie applicazioni in ambito produzione, trasporti, logistica e retail. Ci sono poi i modelli leggeri portatili della gamma RJ, completi di interfacce Usb, WiFi e Bluetooth per la stampa da smartphone: modelli ideali in vari contesti, dai magazzini ai negozi e supermercati, dove spesso è necessario rietichettare articoli in seguito a cambi di prezzo, senza muoverli dagli scaffali. L’azienda propone anche, con la gamma TD, delle stampanti desktop professionali per etichette con codici a barre e con tecnologia RFID. Per tutti i modelli proposti, Brother garantisce una facile integrazione e continuità di stampa all’interno dell'ambiente ERP esistente: l’etichettatura si inserisce nei flussi di lavoro, contribuendo a velocità ed efficienza.

13


IN EVIDENZA

TECHNOPOLIS PER CONFLUENT

PORTARE SEMPLICITÀ NEL DATA MANAGEMENT La gestione dei dati è al punto di svolta grazie alle nuove possibilità dell’AI e al focus sulla semplificazione. Il Data Streaming può essere una rivoluzione paragonabile a quella del Crm. L’interesse nei confronti dell’intelligenza artificiale sta crescendo e le aziende iniziano a cercare di capire come far leva su questa tecnologia. Un fatto è sempre più evidente: l’AI non ha valore se non può accedere a dati accurati e in real-time. Mi aspetto di vedere alcune tendenze prendere piede nel 2024, tra aziende che stanno cercando di semplificare la propria gestione dei dati e altre che introducono nuovi processi intorno alla creazione di modelli di AI, mentre questa tecnologia continua a essere in cima alle priorità. Il crescente utilizzo del Data Streaming Aziende e organizzazioni hanno appena incominciato a comprendere il valore del Data Streaming. Chi sta “unendo i puntini” si trova al punto di svolta, davanti a qualcosa di davvero trasformativo. Questo mi ricorda l’affermazione del Customer Relationship Management: all’inizio degli anni Duemiila nessuno aveva sentito parlare di Crm, eppure oggi è impossibile immaginare un mondo senza Oracle, Sap o Salesforce. Lo scenario in cui si trovava il Crm vent’anni fa echeggia fortemente quello attuale del Data Streaming. Per questo oggi il futuro appare incredibilmente luminoso e tutti i segnali suggeriscono una notevole accelerazione nell’adozione del Data Streaming. Il messaggio che arriva dalle aziende è semplice: hanno testato il Data Streaming su un numero relativamente limitato di casi d’uso, ora vogliono renderlo “mission critical” su molteplici linee del business. E addirittura farlo diventare il sistema nervoso centrale dell’intera azienda. La semplificazione del data management Negli ultimi vent’anni gli ambienti IT sono diventati sempre più sofisticati e complessi, quindi la proliferazione dei tool è diventata un grosso problema. Sempre di più vediamo aziende che vogliono semplificare la propria gestione dei dati, abbandonando l’uso di strumenti specializzati e soprattutto quelli progettati per svolgere un singolo compito specifico nel ciclo di vita del dato. Che questa tendenza si verifichi per rendere meno complessi i sistemi o per tagliare costi, è oggetto di dibattito. Ma non possiamo ignorare che il processo di razionalizzazione prenderà slancio nel 2024 per portare alle aziende insight più rapidi e informazioni più utili. Servizi finanziari apripista nel Data Streaming Sempre più settori di mercato sono interessanti al Data Streaming, come manifatturiero, telecomunicazioni e organizzazioni governative, ma i servizi finanziari continuano a fare da apripista. Ci aspettiamo, per esempio, una crescita nell’ambito dei pagamenti, sottoposto a pressioni per fornire sistemi solidi e sicuri, che soddisfano regolamentazioni sempre più stringenti. Un no-

14 | FEBBRAIO 2024

Diego Daniele stro cliente gestisce con Confluent un volume di pagamenti annuo del valore di centinaia di miliardi di dollari all’interno di un ambiente sicuro, resiliente e ben governato. E vedremo nuovi esempi come questo nel 2024. L’evoluzione continua di regolamentazioni e policy Quest’anno le aziende avranno la necessità di ottenere una visione informata e in tempo reale dei bisogni dei propri clienti, così da poter aderire alle regole vigenti. Il cambiamento trainato dall’AI È un cambiamento inarrestabile, ma servono dei guardrail. Tutti i tipi di AI, e specialmente quella generativa, saranno in cima alle priorità. Ci sono sfide di legalità e rispetto delle normative che devono essere affrontate, non da ultimo nell’ambito del copyright. Le aziende avranno la necessità di introdurre delle due diligence prima di utilizzare i dati, nonché qualche forma di riparazione in caso di usi scorretti. Uno sguardo al futuro Sono ottimista nelle previsioni per il futuro e credo che dovremmo cavalcare quest’onda di opportunità. Se non altro, le duplici preoccupazioni su inflazione e alti tassi d’interesse si sono placate e ciò significa che le aziende dovrebbero avere più fiducia nell’investire in tecnologia. Sempre più, questo comporterà l’ottimizzazione dell’uso dei dati e investimenti in sistemi data-centrici, che aiutano a ottenere insight più profondi sulle attività commerciali e a migliorare la customer experience. Guardando attraverso queste lenti e considerando i dati come prodotto, mi aspetto che le aziende sapranno monetizzarli sempre di più.

Diego Daniele, Country Leader Italy di Confluent


SECURITY OPERATIONS CENTER, CAMBIARE È UNA NECESSITÀ Superare la frammentazione tecnologica e favorire l’automazione: questa la ricetta di Fortinet per il mondo dei Soc. I Security Operations Center (Soc) sono vitali per molte aziende, occupandosi di monitorare gli ambienti IT, rilevare le minacce, comprenderle e rispondere il più tempestivamente possibile. Spesso, però, non riescono a funzionare come dovrebbero. Ne abbiamo parlato con Aldo Di Mattia, senior manager systems engineering Public Administration Italy di Fortinet. Che cosa ostacola il lavoro dei Soc? La complessità dell’ambiente Soc è dovuta al numero di componenti e soluzioni tecnologiche in uso, oltre che alla scarsa interoperabilità. Un altro fattore è la cronica carenza di personale qualificato per le attività di analisi e threat hunting. E in Italia, a eccezione di pochi grandi Soc certificati su standard, gli altri per lo più stanno cercando di contenere le minacce al massimo delle proprie capacità. Ma c’è tantissimo lavoro da fare. L’adozione del Siem Aldo Di Mattia

(Security Information and Event Management) è ancora scarsissima, mentre molte aziende stanno valutando quale sia la migliore soluzione Soar (Security Orchestration Automation and Response) da adottare e anche questa tecnologia è ancora sottoutilizzata. Meglio un Soc interno o esterno? Pochissime aziende hanno la giusta maturità e sufficiente personale per poter avviare un Soc interno. Moltissime, quindi, si rivolgono a fornitori tecnologici o system integrator. Avere un Soc esterno comporta molti vantaggi, tra cui il poter contare su personale esperto, che fa questo di mestiere e lavora con molti clienti. Se il Soc viene proposto come servizio messo in vendita, un vantaggio è che spesso vanta delle certificazioni. Va detto, poi, che anche anche le grandi aziende o pubbliche amministrazioni dotate di Soc interno oggi tendono ad appoggiarsi all’esterno per alcune attività, come la consulenza, il monitoraggio continuativo o il disaster recovery del Soc stesso. Il modello ibrido, che associa alcune attività interne e altre esterne, è probabilmente il migliore. Come dovrebbero cambiare i Soc per lavorare meglio? Dal punto di vista tecnologico, si dovrebbe partire da scelte di riduzione del numero di fornitori. Si dovrebbe puntare a favorire gli automatismi e l’integrazione nativa dei prodotti, per dimi-

nuire l’impegno delle persone interne ai Soc. Anche l’introduzione dell’AI può ridurre i tempi dell’analisi e attuare automatismi che alleggeriscono il lavoro del personale. Si dovrebbe agire, dall’altra parte, sui processi: si dovrebbero seguire procedure standard e best practice, anche per favorire la qualità dell’analisi stessa. Bisogna far sì che il risultato sia attendibile e non dipenda dal singolo analista che gestisce l’incidente. L’adozione del Siem (Security Information and Event Management) e del Soar (Security Orchestration Automation and Response) permette di creare automatismi e favorire i playbook, cioè linee guida e percorsi definiti su azioni di risposta agli incidenti. Siem e Soar utilizzano il machine learning per intercettare gli attacchi in tempo reale e per riconoscere le minacce zero-day. Ultimamente in queste soluzioni si è aggiunta l’AI generativa, che serve per creare un testo leggibile a partire da informazioni di log grezzi, difficilmente interpretabili. Che cosa proponete in tema Soc? I più importanti system integrator italiani si stanno consolidando nel Soc e Fortinet sicuramente aiuta i partner in questo passaggio, anche dal punto di vista tecnologico. Proponiamo il Soc in modalità Mssp, cioè rivolta ai fornitori di servizi di sicurezza gestiti, che con le nostre soluzioni possono lavorare con più aziende clienti, con dati e domini separati. Siem e Soar sono il fulcro della nostra offerta per i Security Operations Center. A questo si aggiungono i servizi frutto delle acquisizioni realizzate da Fortinet negli ultimi anni, come quelli di risposta agli incidenti, di studio della superficie d’attacco e di intelligence sul Dark Web. Valentina Bernocco

15


IN EVIDENZA

TECHNOPOLIS PER DASSAULT SYSTÈMES

COME LE AZIENDE POSSONO OTTIMIZZARE L’EFFICIENZA PRODUTTIVA La tecnologia aiuta le imprese industriali a individuare le aree di miglioramento nell’organizzazione dei plant, e quindi a restare competitive. L’industria manifatturiera si trova ad affrontare nuove sfide. Con la crescente complessità dei prodotti e una domanda dei consumatori in evoluzione, la produzione deve aggiornarsi per restare al passo con i tempi. Negli anni molte fabbriche hanno sostituito parte degli operatori con robot e automazione. Lo smistamento e il controllo, attività che prima richiedevano l’attenzione e l’interazione dell'uomo, ora vengono gestiti tramite la tecnologia. Ogni azienda si trova a gestire un diverso livello di complessità: un’azienda può essere un’entità singola o includere una serie di filiali, tutte impegnate nella produzione di beni diversi; può avere un gruppo di siti produttivi concentrati in un’unica area, oppure distribuiti in diverse aree geografiche. Tracciare tutto questo, soprattutto su scala globale, è un’operazione sempre più difficile da gestire con gli strumenti tradizionali. Per le aziende che trattano beni di consumo, la capacità di produrre su scala in modo rapido ed efficiente beni di alta qualità è un parametro di successo. Sfruttando la tecnologia, le aziende possono pianificare, programmare ed eseguire i processi produttivi ottimizzando le risorse, raggiungendo alti livelli di qualità e migliorando gli aspetti legati alla sostenibilità e all’impatto ambientale di tali processi. Ma che cosa si intende esattamente per efficienza produttiva? Per la maggior parte delle aziende, corrisponde alla capacità di produrre beni di qualità a un ritmo specifico e al minor costo possibile. Il raggiungimento di questo tipo di equilibrio può avvenire solo con software digitali come i gemelli virtuali, che consentono di sviluppare una mappa digitale di tutte

Chiara Bogo

16 | FEBBRAIO 2024

le variabili associate a un prodotto, a una linea o all’intero assortimento aziendale, e di simulare innumerevoli scenari in ambiente virtuale per arrivare a implementare la soluzione migliore in produzione. Pianificazione, programmazione ed esecuzione La pianificazione può consentire di evitare complicazioni, di ottimizzare il processo decisionale, di risparmiare denaro, di fare previsioni accurate e, semplicemente, di essere più efficienti. Dall’altra parte, essa richiede la consapevolezza di tutte le variabili esistenti per i prodotti, i flussi di lavoro e i siti di produzione. Comprendere queste variabili significa anche capire che cosa le influenzi. Un’interruzione nella supply chain può essere potenzialmente disastrosa per un produttore che non abbia ipotizzato tutti i possibili imprevisti. Conoscere tutti i modi in cui è possibile effettuare sostituzioni rapide, modificare le rotte di spedizione o applicare qualsiasi altro tipo di aggiustamento last minute può fare la differenza quando la produzione subisce un certo tipo di pressione. La programmazione è il requisito chiave successivo alla pianificazione. Per ogni articolo che un’azienda produce ci sono flussi di lavoro unici, a volte multipli, che devono essere eseguiti all’interno di un arco temporale ben definito. La fase di pianificazione fornisce la tabella di marcia, ma è la fase di programmazione a stabilire esattamente che cosa può essere fatto, quando e dove. Conoscere tutte le possibili variabili coinvolte nella formula di un bene è una prerogativa fondamentale per la produzione, ma sarà possibile raggiungere la vera efficienza produttiva solo tenendo conto anche dell’operatività di ogni sito, per prevenire i colli di bottiglia e produrre beni a ritmo sostenuto o introdurne di nuovi. Sebbene la pianificazione, la programmazione e l’esecuzione richiedano un certo livello di interazione umana, l’eliminazione della dipendenza dai singoli operatori può essere un vantaggio sia per le aziende sia per i consumatori. I prodotti possono essere realizzati in modo uniforme e rapido. A ciò si aggiunge il fatto che la produzione guidata dalla tecnologia e alimentata dai gemelli virtuali consente di adottare pratiche più sostenibili, rendendo il processo non solo efficiente in termini di tempo e di costi, ma anche positivo per il pianeta.

Chiara Bogo, Senior Director, Strategy and Marketing Euromed di Dassault Systèmes


TECHNOPOLIS PER MICROSOFT

DIFESA E REAZIONE POTENZIATE DALL’INTELLIGENZA ARTIFICIALE Con il lancio di Copilot for Security, la multinazionale di Redmond mette l’AI generativa al servizio della cybersicurezza. Un panorama di minacce in continua ascesa e molti punti deboli da sanare. Ma anche nuove risorse tecnologiche alleate della cybersicurezza. Ne parliamo con Tamara Zancan, Direttrice Cybersecurity, Compliance e Identity di Microsoft Italia. Dove colpiscono, soprattutto, le minacce informatiche? La nostra rete di Global Threat intelligence è un ottimo punto di osservazione, perché tramite i nostri prodotti e servizi cloud raccogliamo 65mila miliardi di segnali al giorno, cioè 750 milioni di segnali al secondo. Come emerge nell’ultimo “Defense Report” di Microsoft, tra giugno 2022 e luglio 2023 c’è stato un ulteriore aumento di attacchi ransomware, il 70% dei quali rivolto ad aziende da meno di 500 dipendenti. Sono in ascesa anche le minacce via posta elettronica, come phishing e Bec (Business Email Compromise), così come gli attacchi alle identità e alle password. Intanto continua ad abbassarsi la soglia di competenze e risorse tecniche necessarie per sferrare attacchi, vista la disponibilità di kit acquistabili nel Dark Web. Il crimine informatico sta raggiungendoun giro d’affari di ottomila miliardi di dollari all’anno: se fosse un’economia nazionale sarebbe la terza al mondo dopo Stati Uniti e Cina. Allo stesso tempo continuano a svilupparsi gli attacchi nation-State verso infrastrutture critiche. Come si comportano le aziende italiane in questo scenario? I dati di Clusit evidenziano che l’Italia è tra i Paesi più colpiti, gli attacchi verso vittime italiane rappresentano il 9,6% dei casi noti nel primo semestre del 2023. Purtroppo vediamo che spesso alcune aziende hanno un atteggiamento fatalista, rassegnandosi all’idea di poter essere colpite. L’autenticazione a due fattori, per esempio, è ancora poco diffusa. Con Fondazione Mondo Digitale organizziamo corsi di formazione per aumentare la consapevolezza su temi critici, come la protezione delle identità. In generale, in Italia gli investimenti in cybersicurezza crescono, ma non abbastanza. Le aziende più grandi possono fungere da modello e stanno avviando progetti importanti, per esempio di implementazione dello Zero Trust, mentre le Pmi sono spesso indietro anche perché non dispongono di personale dedicato. Che ruolo ha in tutto questo l’intelligenza artificiale? L’AI può essere di notevole aiuto nel migliorare e velocizzare la cybersicu-

Tamara Zancan

rezza, sia nelle piccole sia nelle grandi aziende. La stessa Microsoft la impiega per monitorare la propria rete e analizzare l’immensa mole di segnali rilevati ogni giorno, ma anche per proteggere oltre un milione di clienti che si affidano alle nostre tecnologie. Una novità importante, prossimamente in disponibilità generale, è Copilot for Security, una soluzione che è stata sviluppata combinando il modello Gpt-4 di OpenAI con un modello specifico per la sicurezza sviluppato da Microsoft, alimentato dai 65mila miliardi di segnali di cybersicurezza della Global Threat intelligence. Come funziona? Viene proposta sia come soluzione standalone rivolta al personale dei security operation center (quelli interni alle aziende e quelli dei fornitori di servizi di sicurezza gestiti) sia come funzionalità che sarà integrata in diversi prodotti di Microsoft, tra cui Defender. Inoltre può essere customizzata sull’ambiente del cliente, per poter attingere a tutte le risorse e fonti di dati. Copilot for Security permette di porre domande in linguaggio naturale tramite una console, per esempio per fare un inventario dei punti vulnerabili all’interno dell’ambiente IT, per vedere gli alert degni di nota o anche per indagare su un incidente già avvenuto, recuperando tutto lo storico, e ancora per creare reportistica in automatico. Aiuta, quindi, sia a comprendere la postura di sicurezza sia a velocizzare la risposta agli incidenti. Gli aderenti al programma di early adoption stanno già riscontrando benefici in termini di efficacia ed efficienza delle attività di cybersicurezza.

17


IN EVIDENZA

L’ERA DEI “CLIENTI-MACCHINA” È GIÀ COMINCIATA I machine customer, sistemi con capacità di acquisto autonomo, possono essere un’innovazione dirompente per il settore del commercio. Il punto di vista di Avaya. La sempre più ampia diffusione dei cosiddetti machine customer, ovvero macchine con capacità di acquisto autonomo, ha il potenziale per dare un forte impulso alla crescita dell’economia, creando nuovi settori e ruoli. E si pensa che questo trend rimodellerà anche i diversi segmenti di mercato, con il rischio che le aziende che si basano troppo sul branding e non sul valore potrebbero trovarsi in difficoltà. Nel settore del servizio clienti, uno dei cambiamenti più dirompenti e decisivi sarà determinato da qualcosa che pochi hanno ancora considerato:l’ascesa dei machine customer, ovvero dei “clienti macchina”. Fin dagli albori della civiltà umana e del commercio, i clienti sono sempre stati esseri umani, ma presto questa verità non sarà più assoluta. Con sempre maggiore frequenza “oggetti" intelligenti – sia software sia hardware – iniziano a sostituire gli esseri umani in compiti specifici, che possono ora includere azioni come acquistare o restituire un prodotto, presentare un reclamo o inoltrare una richiesta di assistenza. Secondo Gartner, i machine customer rappresenteranno per le imprese una novità più dirompente dell’ecommerce. E questo non è così sorprendente. Oggi esistono già miliardi di dispositivi Internet of Things installati e una pletora di assistenti digitali personali dotati di intelligenza artificiale. Tutti questi dispositivi

18 | FEBBRAIO 2024

migliorano costantemente le proprie capacità di analizzare le informazioni e prendere decisioni. Molto presto saranno in grado di fare acquisti e prendere decisioni per conto nostro o addirittura “per conto loro”. Ad esempio, possiamo pensare ai frigoriferi che ordinano autonomamente il latte, alle automobili che programmano il cambio degli pneumatici e gli interventi di manutenzione o agli ascensori che ordinano i pezzi di ricambio. E queste nuove funzionalità sono davvero dietro l’angolo. Naturalmente questo avverrà gradualmente. All’inizio le macchine si comporteranno rigorosamente in base a regole definite dall'uomo. Ma tra non molto saranno in grado di prevedere le esigenze delle persone e di stabilire le proprie regole, basandosi sulla

Alessandro Catalano

conoscenza dei nostri desideri, delle nostre preferenze, della nostra situazione finanziaria e altre informazioni rilevanti. In effetti, i primi esempi di machine customer sono rappresentati da Hp Instant Ink, Google Duplex e dai bot utilizzati dai trader di borsa. In quanto esseri umani, siamo sempre alla ricerca della massima comodità e la tecnologia è sempre stata un fattore importante per raggiungere questo obiettivo. L’avvento dei clienti “automatici” è un’estensione di questo obiettivo. La maggior parte di noi ama acquistare oggetti per i propri hobby o per fare regali ai propri figli – e continuerà a farlo – ma poche persone amano comprare carta igienica o prodotti per la pulizia. Inoltre, nessuno ama restare in coda in un contact center, a parlare con un chatbot che contesta gli addebiti o a compilare moduli per la sostituzione dei prodotti. I clienti automatici offriranno livelli di comodità senza precedenti, sollevando gli esseri umani da questi compiti noiosi e ripetitivi. Proprio come i chatbot hanno automatizzato le attività di routine degli agenti dei contact center, i “clienti macchina” faranno lo stesso dal lato dei consumatori, riducendo praticamente a zero lo sforzo delle persone. Questi cambiamenti hanno forti implicazioni sulla fidelizzazione dei clienti. Mentre le persone delegano alle macchine interazioni noiose e ripetitive, le aziende che vogliano rimanere in contatto diretto con i propri clienti dovranno offrire “valore emotivo-esperienziale” ed esperienze significative, incentrate sulla soddisfazione dei bisogni umani di conoscenza, realizzazione, gratificazione e autorealizzazione. Le aziende che si limitano a offrire esperienze tran-


Immagine di Freepik

sazionali si troveranno a comunicare con i clienti solo attraverso macchine e assistenti personali, che fungeranno da guardiani limitando di fatto l’interazione con i clienti stessi. Questo nuovo scenario ha il potenziale per trasformare drasticamente il panorama della customer experience (Cx), costringendo i professionisti del settore a ripensare quasi tutto ciò che conosciamo in questo ambito. Come organizziamo i servizi al cliente nel caso quest’ultimo sia una macchina? Come gestiamo la Cx quando ci troviamo di fronte a dispositivi intelligenti ma inanimati? Come cambia la Cx in questo caso? Le macchine non hanno sentimenti e non si preoccupano dell’empatia. Un’azienda non può conquistarne la fedeltà facendo leva sulle emozioni e, soprattutto, una macchina non reagisce alla pubblicità come fanno gli esseri umani. Riuscire ad adattarsi a questo nuovo scenario dove le macchine sono i clienti richiederà una nuova logica, un nuovo approccio, nuovi processi e persino una nuova mentalità. Sarà necessario implementare nuovi standard di efficacia, semplicità e convenienza. Capire come “pensano” i machine customer diventerà un fattore decisivo per il successo. Guidati da algoritmi anziché da esigenze, emozioni e convinzioni, i clienti macchina prenderanno decisioni ottimali basate su basi logiche e strettamente razionali. Nei loro processi decisionali, le macchine utilizzeranno molte più informazioni rispetto agli individui e non si impegneranno in una comunicazione verbale simile a quella umana. Questo significa che la scienza dei dati svolgerà un ruolo fondamentale per “fare affari con le macchine” e per gestire la loro Cx. I motori di ricerca dovranno

essere ottimizzati per le esigenze delle macchine e le aziende dovranno fornire specifiche di prodotto molto più approfondite, strutturate in modo adeguato a questo nuovo tipo di clienti. Trasparenza, sicurezza, affidabilità, bassa latenza, coerenza e prevedibilità saranno tutti elementi fondamentali per conquistare la fedeltà dei machine customer. Rimarrà invariata la necessità di mappare il percorso di acquisto: questa tecnica sarà fondamentale per comprendere il customer journey delle macchine ed eliminare le relative inefficienze e punti di attrito. Dobbiamo però considerare che le macchine non utilizzeranno siti Web e applicazioni per smartphone; quindi, le aziende dovranno predisporre touch point appropriati, basati sull’intelligenza conversazionale per gli assistenti di AI e sulle Api (Application Programming Interface, NdR) IoT per gli oggetti in-

telligenti. La novità rappresentata dai machine customer ha il potenziale per dare un deciso impulso alla crescita dell’economia, creando nuovi settori e ruoli. Ma questo trend rimodellerà anche i diversi segmenti di mercato e le aziende che basano il proprio modello esclusivamente sul brand e non sul valore si troveranno in difficoltà. I machine customer non sostituiranno gli esseri umani nel ruolo di clienti: continueremo a comprare ciò che vogliamo. Al contrario, ci aiuteranno a rendere la nostra vita più semplice e consentendo di concentrarci su esperienze emotivamente più rilevanti e soddisfacenti. Le aziende oggi dovrebbero quindi iniziare a prepararsi a interagire con i clienti automatici, identificando i processi e i servizi da sviluppare. Alessandro Catalano, country manager di Avaya

19


IN EVIDENZA

VECCHIE DEBOLEZZE E NUOVI RISCHI DA AFFRONTARE Identità e ambienti cloud sono ancora poco protetti, mentre emerge il pericolo di attacchi realizzati con l’AI e diretti verso di essa. L’opinione di SentinelOne. “In uno scenario politico e macroeconomico come quello attuale, nelle aziende ci sono stati ambiti soggetti a rallentamenti di budget o cancellazioni di progetti, ma nella cybersecurity gli investimenti rimangono invariati. Perché? Perché gli attacchi continuano a verificarsi e sono sempre più efficaci, mirati e distruttivi”: le parole di Paolo Cecchi, sales director Mediterranean region di SentinelOne, riassumono l’attuale scenario degli investimenti Ict in Italia. Se per la sicurezza informatica i livelli di spesa non sono calati, anche quest’ambito risente della tendenza generale. “Nei mercati Emea gli investimenti tecnologici e quelli in risorse umane hanno un po’ rallentato”, ha proseguito Cecchi. “Dunque mandare avanti i progetti di cybersecurity diventa più oneroso per le aziende, perché hanno meno risorse da dedicare. Vediamo quindi un leggero rallentamento dei tempi con cui gli investimenti in cybersicurezza vengono portati a termine”. Dove si concentra la spesa in cybersicurezza? SentinelOne sta osservando un allargamento della copertura di rilevamento e risposta alle minacce, oltre i soli endpoint (quello che, nella terminologia dei vendor, è il passaggio dall’Edr all’Xdr, cioè dall’Endpoint Detection and Response all’Extended Detection and Response). Inoltre il tema delle identità sta assumendo crescente importanza, “dopo essere stato trascurato per anni”, ha rimarcato

20 | FEBBRAIO 2024

Paolo Cecchi

Cecchi. “Tuttavia l’Active Directory ancora oggi è poco coperto dal punto di vista della cybersicurezza”. Oltre alla crescita numerica degli attacchi, SentinelOne ha osservato negli ultimi due anni la rinascita dell’hacktivismo e delle attività cyber spinte da ragioni politiche. “D’altra parte il ransomware continua a essere uno dei temi più importanti. E abbiamo visto recentement, anche in Italia, attacchi che hanno bloccato l’erogazione di servizi al cittadino, come quelli sanitari”, ha proseguito Cecchi. La terza tendenza sottolineata da SentinelOne (come da molti altri vendor) è l’abuso dell’intelligenza artificiale per scopi malevoli, come l’automazione e il camuffamento degli attacchi. Sull’AI generativa un rischio di

cui poco si è parlato finora è quello di attacchi tesi a manipolare il funzionamento dei modelli. Il manager ha fatto l’esempio di un’applicazione di AI utilizzata per rispondere alle chiamate del servizio clienti e presumibile posizionata in cloud: “Se non proteggiamo gli accessi e le identità, allora lasciamo la strada spianata all’attaccante, che per esempio potrebbe interferire con i sistemi di training affinché l’AI dia risposte diverse da quelle attese. Per esempio, per inserire l’indicazione di un link malevolo in risposta a una domanda di assistenza dei clienti o per l’apertura di un ticket. Oggi scenari come questo potrebbero sembrare lontani dalla realtà, ma non lo sono”. Il tema della protezione del cloud è, quindi, più attuale che mai. “Quanto un’azienda si deve preoccupare di proteggere il cloud non sa bene da dove partire, quali siano le priorità”, ha sottolineato Cecchi. “E non esistono sul mercato soluzioni in grado di dare una risposta completa, per cui le aziende si trovano a dover gestire diversi prodotti, fonti di dati e console. Crediamo fermamente che il consolidamento sia l’arma vincente e per questo abbiamo recentemente annunciato l’acquisizione di PingSafe”. Fondata nel 2021, PingSafe ha sviluppato una piattaforma di protezione delle applicazioni cloud-native (Cnapp, Cloud-Native Application Protection Platform) che ora verrà progressivamente integrata in Singularity, la piattaforma Xdr di SentinelOne. L’azienda punta anche sull’integrazione dell’AI all’interno della propria tecnologia. “Stiamo spingendo molto sul concetto di combattere il fuoco con il fuoco, sfruttando l’AI così come stanno facendo gli attaccanti”, ha detto Cecchi. V.B.


g

l’intervista

LE APPLICAZIONI AZIENDALI DEL FUTURO: DIGITAL DESIGN E HUMAN FACTOR L’approccio di Nautes alla digital transformation è attento alla “visione estesa” dei processi da automatizzare e a uno spirito uomo-centrico.

Una carriera da ricercatore universitario alle spalle, Marco Gialletti fonda Nautes a Jesi nel 2001. Da allora la “digital design company” è cresciuta fino a contare oltre 60 specialisti di alto profilo. Da tempo è sbarcata anche a Milano e collabora con i più importanti provider.

Qual è il ruolo dell’AI in tutto questo?

Perché il vostro approccio è originale?

La nostra filosofia impiega una visione estesa nell’introduzione in azienda di componenti digitali: è importante la tecnologia abilitante ma ancor più lo sono la visione olistica del processo di trasformazione e lo human change. Amiamo dire che l’evoluzione digitale è “by design” e non “by technology”. Ci preoccupiamo di avere innanzitutto un quadro generale del progetto di trasformazione e una roadmap, poi ci sforziamo di disegnare soluzioni contemporaneamente human-centric e data-driven, simulandole prima di implementarle e misurando le metriche umane. Che cosa significa?

Il data-driven è un must, ma noi allarghiamo lo spazio delle misurazioni introducendo metriche umane che permettano di realizzare uno human change controllato. Se manager o imprenditori vogliono guidare la trasformazione e non subirla, allora devono governare le metriche. Normalmente sono metriche di prestazioni, ma pensiamo che quando c’è un cambiamento che riguarda le persone si debbano introdurre anche parametri riferiti al capitale umano, in

tarli ai dipendenti, questione sempre molto delicata. Le persone continuano volentieri a usare la tecnologia se essa “parla” di loro. Questo fa Nautes: affianca le competenze di sviluppo software a un’esperienza di design e gestione dello human change che è, secondo noi, una formula unica sul mercato.

Marco Gialletti

particolare comportamentali e relativi alle soft skill, che vengono controllati sia singolarmente sia a livello macroscopico. Ci può fare un esempio?

Se devo modificare le regole dello smart working in azienda senza perdere attrattività, devo misurare il sentiment, il commitment sul valore e la reputation (sia la mia nei confronti dell’organizzazione, sia quella dell’azienda verso l’esterno). Devo creare alternative di engagement per trattenere i talenti, ma questo engagement dev’essere misurato. Solo così è possibile guidare la trasformazione in maniera controllata, perché impostando opportune soglie ci si può accorgere per tempo se bisogna introdurre correttivi. Per gestire gli human metrics, però, c’è bisogno di una profonda esperienza, non è come interagire con le macchine; ci sono metodi per misurarli e presen-

Viene naturale sfruttare la potenza dell’AI per fare disruption nell’interazione uomo-macchina. È evidente che il futuro dell’interazione sarà sbilanciato verso l’uomo, il che significa azioni spontanee e linguaggio naturale. Noi sviluppiamo applicazioni in cui per creare un report, ad esempio, il software ti telefona e si interagisce vocalmente. Spariscono tastiere, mouse e probabilmente, un domani, anche gli schermi. Con il nuovo visore di Apple, ad esempio, gli input sono solo verbali e gestuali. Questa è la nuova direzione, e senza l’AI non sarebbe possibile. Ma il visore di Apple è solo una parte. Nautes (www. nautes.com) sviluppa applicazioni per le aziende, e riteniamo che le soluzioni customizzate basate su AI e nuove interfacce uomo-macchina siano dietro l’angolo, così come lo sviluppo no code. Il segreto è portare le Api dei Large Language Model dentro al software aziendale e alimentare quest’ultimo con i dati dell’azienda e non solo con le informazioni del mondo esterno. Questa è la vera GenAI per il business. Stiamo implementando tanti proof-of-concept: un metodo interessante e gradito alle aziende, che con investimenti limitati toccano con mano i vantaggi del nostro approccio e delle tecnologie. E.M.

21


IN EVIDENZA

l’opinione

O O O

BILANCIARE ESIGENZE OPPOSTE NELL’ERA DEL LAVORO IBRIDO I team IT affrontano la doppia sfida di garantire sicurezza e di preservare la user experience. Una riflessione di Juniper Networks.

I decisori IT non sono nuovi alle sfide legate alle reti. Nonostante l’idea di lavoro ibrido sia ormai accettata, le criticità non mancano e sono ancora diffuse. Ad esempio, una ricerca commissionata da Juniper Networks indica che quasi tutti (97%) i decisori IT intervistati nell’area Emea hanno riscontrato qualche problema di networking nell’implementazione del lavoro ibrido all’interno della propria organizzazione. Una cifra che, tuttavia, è in contrasto con l’opinione dei lavoratori, che “solo” nel 78% dei casi dicono di avere sperimentato problemi di connettività. Secondo la ricerca, i decisori IT sono più propensi a dichiarare problemi nella gestione delle segnalazioni IT all’help desk (57%) e, in media, il 29% delle richieste di assistenza riguarda difficoltà di networking legate al lavoro ibrido o da remoto. Ciò dimostra la pressione a cui sono sottoposti i dipartimenti IT. Per quanto non siano molti i dipendenti che sperimentano criticità, tutto ciò si traduce in un sovraccarico di lavoro per i team IT, che inevitabilmente sono abituati a dover risolvere i problemi prima che vengano percepiti dall’intera azienda. Nel rafforzare i sistemi di sicurezza interni, i dipartimenti IT devono bilanciare le esigenze attuali e quelle future. Quando il personale lavora fuori dai perimetri aziendali, i decisori IT devono proteggere confini di rete in costante evoluzione. E per quanto i server cloud siano tipicamente sicuri

22 | FEBBRAIO 2024

Mario Manfredoni

e facili da accedere da remoto, esiste sempre un rischio di compromissione dei dati. Implementare una sicurezza basata sulla rete, come ad esempio con un controllo granulare degli accessi e la crittografia per i dati in transito, può aiutare a ridurre il rischio di violazione dei dati. Sfortunatamente, ciò può causare dei problemi dal punto di vista operativo. La nostra ricerca evidenzia la tensione tra le due necessità: garantire un accesso semplice agli utenti e adottare un rigido approccio alla sicurezza, un conflitto evidenziato dal 72% dei lavoratori. Diverse imprese prevedono di continuare a usare le attuali Vpn, ma questa potrebbe non essere la decisione migliore. Per prepararsi allo scenario cui ci porterà l’evoluzione delle modalità di lavoro, i firewall tradizionali dovrebbero essere sostituiti con modelli di sicurezza connessa in grado di esaminare tutto il traffico in entrata e uscita, monitorare le applicazioni chiave e offrire servizi di individuazione e protezione dalle intrusioni. In de-

finitiva, per proteggere le informazioni sensibili e migliorare le performance della rete, gli investimenti in softwaredefined wide area network (SD-Wan) saranno fondamentali. Oltre alle molteplici sfide che i decisori IT si trovano ad affrontare, altrettanto importante è la questione del recruiting e delle competenze del personale IT. Queste sfide non sono destinate a risolversi in tempi brevi se gli approcci attuali non cambieranno. Secondo la nostra ricerca, infatti, quattro decisori IT su dieci affermano che la selezione del personale non viene fatta pensando a quella che sarà la tecnologia del futuro, mentre quasi otto su dieci (79%) ammettono che nei prossimi due-cinque anni sarà necessario cercare persone con competenze diverse da quelle contemplate oggi. I dipartimenti IT dovrebbero prima di tutto cercare di migliorare la comunicazione con il resto dell’azienda, così da avere visibilità sui problemi reali e capire dove concentrare gli sforzi in fase di perfezionamento della rete. È dunque chiaro che le organizzazioni dovranno impegnarsi a fondo per gestire connettività, sicurezza e aspetti operativi del lavoro ibrido: la missione sarà trovare un equilibrio tra le esigenze di protezione e quelle di accessibilità e allo stesso tempo tenere il personale al centro di qualsiasi decisione. Mario Manfredoni, country manager Italia di Juniper Networks


TECHNOPOLIS PER SNOWFLAKE

TRE GRANDI SFIDE, UNA SOLA PIATTAFORMA Eliminare i silos, democratizzare l’accesso e condividere: così i dati si trasformano in valore. Tre grandi sfide nella gestione dei dati, con cui le aziende di tutti i settori si confrontano, e nuovi strumenti a disposizione per affrontarle. Snowflake fonde l’approccio cloud-nativo, la logica di “rete” e l’avanguardia dell’AI e del machine learning (inclusa l’intelligenza artificiale generativa), come ci ha raccontato il country manager, Andrea Ciavarella. Quali sono le principali sfide affrontate dalle aziende in materia di gestione dei dati? Per le aziende i dati sono il secondo asset più importante dopo le persone e devono essere valorizzati al massimo. Ma una delle sfide irrisolte è quella dei silos informativi, dipartimenti separati tra loro, all’interno dei quali i dati non si parlano. Questa situazione si è creata perché mancavano, in passato, soluzioni in grado di unificare il mondo dei database relazionali tradizionali con quello dei data lake di dati semistrutturati o non strutturati. Questa dicotomia tecnologica ha amplificato l'asimmetria informativa. Una seconda sfida è la data democratization, cioè il rendere accessibili i dati alle persone giuste e in modo controllato: un tema molto sentito, perché oggi nelle aziende molti ruoli differenti devono poter consultare diversi tipi di dato. Terzo punto è la data monetization, cioè la capacità di far fruttare i dati. e il loro valore intrinseco nei dati, che trascende i confini tra le aziende. Queste sono connesse tra loro, ma spesso non in modi digitali. Come affrontare queste tre sfide? Snowflake è una piattaforma di data cloud adatta a diversi casi d’uso. Molti dei nostri clienti la utilizzano per gli analytics del marketing, per l’ottimizzazione della supply chain e per la gestione delle frodi. Snowflake rompe il muro tra i due mondi – i database relazionali da un lato e i data lake dall’altro – e li unifica in maniera intelligente. Permette, infatti, di gestire tutti i dati, indipendemente da tipologia e finalità di utilizzo, che si tratti di tradizionale reporting, di attività di trasformazione dei dati o di data science. Alla sfida della democratizzazione rispondiamo consentendo un facile accesso ai dati solo alle persone titolate, e solo relativamente alle informazioni di cui necessitano in base al proprio ruolo (le altre vengono protette con tecniche di data masking ). Per favorire la democratizzazione dei dati, infine, la piattaforma include anche un marketplace in cui le aziende (in base a termini contrattuali preesistenti o stipulati ex novo) possono cedere o scambiare tra loro dati. I nostri clienti possono inserirsi così in una rete di aziende che popolano il nostro cloud e che tramite esso possono in

Andrea Ciavarella

modo sicuro condividere dati, monetizzarli e fruirli sempre all’interno della piattaforma, senza necessità di alcuna integrazione esterna. L’AI può essere una risorsa? Lo è, certamente. Da un lato, Snowflake permette di usare i modelli Llm (Large Language Model), sviluppati nativamente in piattaforma, senza competenze specifiche, anche agli utenti business. Per citare alcuni esempi, si possono effettuare interrogazioni e discovery dei dati in linguaggio naturale, estrarre ed elaborare informazioni strutturate da documenti Pdf e di testo, usare di modelli di forecasting, summarization e traduzione, con una sola riga di codice Sql. Dall’altro lato, Snowflake permette ai data scientist più specializzati di sfruttare tutta la potenza delle moderne Gpu e di accelerare il time-to-market utilizzando dei modelli di mercato pre-trained, acquistabili direttamente dal marketplace. La caratteristica vincente di Snowflake è che non c'è bisogno di spostare o copiare i dati, quindi questi rimangono sicuri e governati all'interno della piattaforma e non ci sono integrazioni complesse da mantenere, in linea con le sfide moderne che l’AI porta con sé. Come vi proponete sul mercato? Abbiamo un modello di vendita misto, diretto e indiretto tramite system integrator e reseller. In quanto tecnologia cloud-nativa, Snowflake può contare su forti alleanze con i principali fornitori di cloud pubblico, cioè AWS, Microsoft Azure e Google Cloud.

23


EXECUTIVE ITALIA DIGITALE ANALYSIS | Networking

DIESSE, LA RICERCA BIOTECH FA LEVA SUL DIGITALE Eccellenza nazionale nella produzione di sistemi diagnostici in vitro, l’azienda toscana ha da poco inaugurato il più grande centro di R&D in Italia basato sui principi dell’industria 5.0.

N

ata all’inizio degli anni Ottanta, Diesse è oggi una delle realtà di punta a livello nazionale nella produzione di sistemi diagnostici in vitro. Radicata nel distretto toscano Scienze della Vita (il quartier generale è in provincia di Siena), l’azienda ha poco inaugurato il più grande centro in Italia dedicato a Ricerca&Sviluppo e produzione biotech, esteso su una superficie diecimila metri quadrati e destinato alla progettazione e produzione automatizzata di test, strumenti analitici e software per la diagnostica in vitro. Il Diesse Biotech Campus impiega oltre duecento persone e ospita un’area per la produzione di biomateriali batterici, virali e ricombinanti, oltre a integrare una biobanca automatizzata che permette la gestione di virus, batteri e cellule ricombinanti fino alla classe terza di sicurezza 24 | FEBBRAIO 2024

patogena. Il centro è stato progettato seguendo i principi dell’Industria 5.0. Queste note lasciano trasparire quale sia il ruolo della tecnologia digitale negli sviluppi dell’azienda e per approfondirne tutte le implicazioni abbiamo incontrato il Ceo, Massimiliano Boggetti. Come è nato il Diesse Biotech Campus?

Ci siamo sviluppati in modo progressivo negli anni e oggi siamo presenti in oltre cento Paesi nel mondo. Siamo poi anche una realtà profondamente radicata nel territorio che ci ospita e fortemente orientata alla ricerca, tanto da investirvi ogni anno quasi il 10% dei nostri ricavi. Quattro anni fa ci siamo rafforzati con l’ingresso nel capitale del fondo di investimento Archimed e la successiva decisione di diventare una società Benefit. Su

queste basi, abbiamo pensato di costruire un impianto che ci consentisse di rendere i processi di Ricerca&Sviluppo più integrati e affrontare le nuove sfide che ci siamo posti per i prossimi anni anche in termini di ambizioni di crescita. Come applicate le nuove tecnologie digitali nel vostro contesto produttivo e di ricerca?

Noi produciamo macchinari e reagenti biotecnologici per misurare parametri organici che possono generare patologie. Presidiamo tutto il ciclo di sviluppo, dalla progettazione alla produzione, fino allo sviluppo del software collegato. L’innovazione è al centro di tutte le fasi della nostra attività. L’intelligenza artificiale, per esempio, è già oggi largamente impiegata in diversi ambiti, che comprendono la diagnosi predittiva delle macchine e l’interpretazione semiautomatica dei dati accanto derivati dall’utilizzo del digital imaging. Nel primo caso, dobbiamo tener conto che le macchine di diagnostica di laboratorio producono


dati ventiquattr’ore al giorno e quindi gli algoritmi di AI, supportati da una data platform, aiutano a prevenire potenziali malfunzionamenti. Ma ci sono molte altre applicazioni che funzionano in combinazione con il visual imaging, per esempio per l’individuazione di alcuni patogeni automatizzando il processo biochimico e la successiva lettura dei dati. In Italia sono allocate tanto le attività di ricerca quanto la produzione. Il nostro stabilimento lavora con una forte componente di automazione, ma deve prestare la massima attenzione alla sicurezza e alle normative che in generale regolano il nostro settore. Per questo, i nostri sviluppi più recenti sono dettati dai principi human-centric dell’Industria 5.0, dove la tecnologia aiuta a smarcare attività ripetitive o peculiari, come la gestione di una biobanca che richiede uno stoccaggio dei materiali in dispositivi di refrigerazioni con temperature fino a -170°. Allo stesso modo, la sensoristica ci aiuta a prevenire problematiche di confinamento biologico e rischi di bioterrorismo ma anche a garantire la sicurezza degli operatori, che maneggiano materiali ad alto livello di pericolosità. Come si declina per voi il concetto di Industria 5.0?

Facendo un passo indietro, nel modello 4.0 si pensava soprattutto a come digitalizzare i processi produttivi, mentre il nuovo corso rimette l’uomo al centro e fa ruotare intorno al suo lavoro l’interazione con le macchine. Ne discende un arricchimento delle conoscenze che altrimenti non sarebbe, in alcuni casi, nemmeno possibile immaginare. Al nostro interno abbiamo adottato appieno questa logica e il nostro Biotech Campus è oggi la prima realtà produttiva di Industria 5.0 del settore, basato com’è su principi di lean manufacturing, white economy e sostenibilità. D’altra parte, l’attività della nostra azienda è guidata

da tre valori fondamentali, ovvero people, planet e prosperity. Il primo dei tre è forse il più importante ed enfatizza la preparazione delle persone in organico. Nel nostro reparto produttivo operano circa novanta collaboratori con un altissimo livello di scolarizzazione, che arriva in alcuni casi al dottorato. Dove attingete per trovare le competenze che vi servono?

Abbiamo la fortuna che in Italia ci siano poche aziende con il nostro livello di investimenti e cultura tecnologica nel biochimico e questo ci rende particolarmente attrattivi. Certo, oggi i giovani sono comunque meno propensi a rimanere sempre nello stesso posto e, quindi, dobbiamo essere pronti ad affrontare un turnover più elevato rispetto al passato. A questo e all’oggettiva carenza complessiva sopperiamo con la cooperazione, innanzitutto con le altre aziende del nostro distretto industriale dedicato alle scienze della vita e poi anche con le università. Abbiamo anche aperto una sede all’interno del Mind-Milano Innovation District, ovvero il più importante distretto dedicato alle scienze della vita al di fuori della Silicon Valley, per poter sfruttare un ecosistema virtuoso che ci consenta di interagire con i soggetti utili a farci crescere. Come avete affrontato le problematiche di cybersecurity?

Si tratta certamente di un tema molto critico, non solo per il rischio di accesso ai dati sensibili soprattutto nell’area della Ricerca&Sviluppo, ma per tutto quanto riguarda la sicurezza dei dispositivi medici. Quest’ultimo è un filone che potrà generare anche nuove importanti professionalità, tant’è vero che stiamo iniziando a coinvolgere alcune università in un lavoro congiunto utile per sviluppare le professionalità che tutt’oggi mancano. Sarà sempre più necessario dimostrare che i dispositivi medici siano garantiti

Massimiliano Boggetti

in termini di protezione da possibili attacchi hacker, che ci sia segregazione degli utenti e protezione dei dati. Si tratta per noi di un’evoluzione quasi ciclopica, perché implica che tutti i nostri prodotti, in pratica, debbano essere garantiti in termini di cybersecurity. Qual è il rapporto fra il Ceo e il top management, da un lato, e l’IT dall’altro?

Credo fortemente che, in una realtà a grande trazione tecnologica come la nostra, sia necessaria una piena sinergia tra management e struttura. Ciò vale soprattutto per la parte di R&S nella quale lo sviluppo di sistemi diagnostici in-house si basa largamente sui loro software innovativi, area alla quale sono particolarmente legato per passione, essendo io un biologo molecolare. È proprio grazie all’adozione di sistemi tecnologicamente innovativi che viene permesso al management di mantenere un costante monitoraggio sull’avanzamento dei progetti e sull’intera Diesse: tutti i processi sono integrati nel gestionale aziendale e l’intero campus è gestito da un sofisticato sistema di controllo Building Management System. Roberto Bonino 25


Immagine di Freepik

Immagine di Freepik

WEB 3.0

CUSTOMER EXPERIENCE, RIVOLUZIONE ALLE PORTE? Blockchain, Nft, metaverso e realtà virtuale suscitano l’interesse delle aziende italiane. L’adozione, tuttavia, procede lentamente.

I

l Web 3.0 (o Web3) rappresenta l’evoluzione del World Wide Web, caratterizzata da una maggiore decentralizzazione, sicurezza, interoperabilità e coinvolgimento degli utenti, con applicazioni progettate in logica utente-centrica. Sebbene al momento il Web 3.0 non rappresenti un’effettiva alternativa, l’insieme delle sue tecnologie disruptive offre alle 26 | FEBBRAIO 2024

aziende l’opportunità di rivoluzionare la loro relazione con il cliente: le principali sono la Blockchain, gli smart contract, le piattaforme di pagamento, le criptovalute, gli Nft (Non-Fungible Token), la realtà estesa (extended reality, XR) e l’intelligenza artificiale. Queste tecnologie e la loro combinazione permettono, infatti, di creare un’esperienza sempre più interattiva.

Il potenziale impatto sulla customer experience è a diversi livelli: marketing, vendite, servizio clienti. A supporto dell’area marketing, le tecnologie del Web 3.0 consentono un alto livello di personalizzazione delle strategie comunicative: grazie alla raccolta e all’utilizzo di dati approfonditi e contestuali, è possibile creare campagne mirate ed esperienze più ingaggianti per i


Efficienza e personalizzazione

Sebbene il livello di adozione delle diverse tecnologie vari a seconda del settore di riferimento, la GenAI si distingue per essere oggetto di studio e sperimentazione in modo uniforme e trasversale in tutte le realtà. Il primo risultato emerso è infatti l’ampia volontà di introdurre la GenAI nei processi, al fine di rendere i contatti con l’utente più semplici, efficaci e veloci. Progetti pilota che coinvolgono applicazioni di profilazione e riconoscimento vocale stanno contribuendo a ottimizzare, ad esempio, le operazioni dei call center, migliorando la qualità del servizio offerto. Ulteriore motivo di adozione dell’AI generativa è la possibilità di personalizzare l’offerta integrando un approccio di “one-to-one marketing”, mirato sui bi-

sogni del singolo cliente. I benefici derivanti dall’introduzione della GenAI sono principalmente due: efficienza operativa e personalizzazione. Tuttavia, le preoccupazioni relative all’affidabilità degli output, ai rischi di privacy e ai potenziali bias permangono. L’utilizzo di questa tecnologia richiede, quindi, un approccio bilanciato: sfruttarne le potenzialità è un’occasione da non perdere, ma va colta con una rigorosa vigilanza e sperimentazione per garantire risultati ottimali e conformità etica. Le sfide del metaverso

All’interno della categoria ombrello della extended reality (XR) si distinguono tre tecnologie: realtà aumentata (AR), virtuale (VR) e mista (MR), la cui capacità è quella di arricchire il mondo “fisico” con elementi digitali o di creare nuovi mondi virtuali simili alla realtà. Dalle interviste condotte si evidenzia il forte legame tra le tecnologie XR e il concetto di metaverso, poiché i visori, fondamentali per un’esperienza che possa dirsi veramente immersiva, sono abilitanti per la creazione di

ambienti virtuali condivisi. Nell’ambito delle imprese B2C, l’obiettivo delle applicazioni XR coincide con l’incremento dell’engagement del cliente e il potenziamento complessivo della fidelizzazione. Questo approccio va al di là del mero intrattenimento, puntando piuttosto alla creazione di una relazione di valore tra brand e utente. Anche la semplificazione del customer journey (così, in gergo del marketing, ci si riferisce al “percorso” del cliente) è uno degli obiettivi dell’adozione di tecnologie di XR: casi d’uso nei siti di e-commerce mirano ad ambientare i prodotti nei contesti di utilizzo oppure a fornire dettagli e informazioni aggiuntive sugli articoli in vetrina, facilitando la scelta di acquisto. Le applicazioni sono molte, dal settore sanitario all’industria, dall’automotive al turismo. In campo medico, ad esempio, le soluzioni di XR sono adottate principalmente in tre ambiti: operazioni, riabilitazioni e lungodegenze. Nel primo caso sono di supporto durante particolari interventi chirurgici, al fine di ridurre al minimo i rischi per il paziente.

Immagine di Freepik

consumatori. Per la forza vendita, l’impiego di strumenti di intelligenza artificiale e di analisi dei dati potenzia la gestione delle relazioni con i clienti, offrendo insight predittivi e supportando processi decisionali più efficaci. Nell’ambito del servizio clienti, infine, l’adozione di tecnologie Web 3.0 permette un supporto più rapido ed efficiente attraverso l’automazione dei processi di risposta e l’integrazione di chatbot intelligenti. In questo articolo sarà analizzato il modo in cui queste innovazioni digitali sono in grado di rivoluzionare già oggi l’esperienza dell’utente, concentrandosi sulle potenzialità delle soluzioni di extended reality, metaverso, intelligenza artificiale generativa (GenAI) e blockchain, considerate le principali tecnologie associate al concetto di Web 3.0. Parlando con direttori generali, chief digital officer, digital innovation manager e ricercatori di primarie aziende italiane emerge una forte attenzione rivolta a queste nuove tecnologie: la maggior parte, infatti, sta monitorando lo scenario del Web 3.0 con l’obiettivo di stimolare l’engagement e garantire un coinvolgimento più significativo dell’utente.

27


WEB 3.0

rimentazioni che si orientano in diverse direzioni: sui dipendenti, per intensificare il loro coinvolgimento e consolidare il cosiddetto employer branding; sui clienti, per creare situazioni immersive ed esperienziali durante eventi fisici o nei negozi; sul marchio, per sfruttare un ulteriore mezzo di comunicazione come “vetrina”, per trasmettere i valori dell’azienda e rendere il pubblico parte attiva del racconto stesso. Blockchain ancora di nicchia

Mentre nel mondo assistiamo a una crescita significativa dell’utilizzo della blockchain, soprattutto relativa alle criptovalute nel settore bancario e di token e smart contract nelle relazioni B2B, in Italia prevale la prudenza. Dalle interviste emerge che, seppur con una presenza minore rispetto alle altre tecnologie, la blockchain sta lentamente guadagnando terreno, specialmente attraverso l’implementazione di token non fungibili (Nft). Il settore finanziario si profila come il più incline a beneficiare di questa tecnologia, con numerosi progetti di tokenizzazione degli asset finanziari. Nelle imprese, i casi Immagine generata dall'AI

Nella riabilitazione l’obiettivo è quello di offrire trattamenti personalizzati e garantire la sicurezza e l’adesione alle procedure cliniche. Nel settore del turismo, invece, le tecnologie di XR sono adottate soprattutto nella fruizione da remoto o in loco di tour museali e opere d’arte, al fine sia di aumentare l’engagement sia di arricchire l’esperienza virtuale con elementi informativi e interattivi. La sfida principale nell’adozione delle tecnologie XR è data dall’attuale immaturità tecnologica dei visori ma soprattutto dai loro costi (come nel caso dei Vision Pro di Apple, in vendita negli Stati Uniti a quasi quattromila dollari). Sebbene molti intervistati esprimano interesse per il metaverso, al momento l’adozione rimane limitata, principalmente a causa di una combinazione di immaturità tecnologica (visori e infrastruttura), scarse competenze digitali degli utenti e incertezza sull’applicabilità nel proprio settore. Due ulteriori sfide per le aziende sono l’incertezza normativa e la mancanza di interoperabilità tra le diverse piattaforme. Nonostante gli ostacoli appena citati, alcune aziende stanno portando avanti spe-

28 | FEBBRAIO 2024

d’uso si legano soprattutto all’impiego dei token come mezzo che permette di offrire esperienze esclusive a una clientela selezionata: l’obiettivo è quello di creare una community attorno al marchio o prodotto, stimolando la fedeltà dei clienti. Queste iniziative, infatti, trovano spesso spazio all’interno di più ampi loyalty program. La possibilità di certificare l’autenticità dei prodotti e valorizzarne la sostenibilità sono aspetti che assumono una centralità strategica: la scommessa è quella di creare un ecosistema di fiducia e trasparenza che rafforzi la relazione con il cliente. L’adozione su larga scala, tuttavia, richiederà ulteriori sforzi e tempo soprattutto perché la comprensione e conoscenza di questa tecnologia sono ancora limitate. Etica e sostenibilità

Nel complesso, le aziende dimostrano di aver iniziato a percorrere la strada verso l’adozione delle soluzioni Web 3.0, ma allo stesso tempo rimangono caute sull’avvio di progetti innovativi rivolti ai clienti finali, implementando tecnologie solo se sono in grado di offrire un reale valore aggiunto. La sperimentazione è considerata fondamentale, anche perché le imprese riconoscono la necessità di garantire un utilizzo etico e sostenibile delle tecnologie, specialmente nell’integrazione di intelligenza artificiale e metaverso. Le aziende si dimostrano dunque orientate all’innovazione, non solo per seguire le tendenze tecnologiche del momento ma con la volontà di offrire un’esperienza più fluida, interattiva, semplificata e personalizzata, che rispecchi le esigenze del cliente. La chiave del successo, come avviene sempre più spesso considerando la volatilità e l’incertezza attuale del mercato, risiede nella capacità di adattarsi, sperimentare e innovare, costruendo un ponte tra il presente e il futuro digitale. Arianna Perri


ITER DI SPERIMENTAZIONE L’implementazione di tecnologie avanzate come la realtà aumentata (AR) ha rappresentato un passo significativo per migliorare l’interazione dei clienti con i nostri prodotti: inviamo preventivi via email con un QR code che consente di inserire il mobile direttamente nell’ambiente di casa attraverso l’AR. Per quanto riguarda l’AI generativa, stiamo testando diverse ambientazioni per i nostri prodotti al fine di capire quali risultino più gradite ai nostri clienti, così da non essere autoreferenziali su dove il nostro prodotto stia meglio. L’AI ci permette di fare questo in velocità, perché gli shooting fotografici richiedono tempo. Altra attività su cui ci siamo concentrati è la certificazione dell’autenticità dei nostri prodotti, soprattutto di quelli a edizione limitata, tramite le tecnologie blockchain, contribuendo anche a sottolinearne il valore a lungo termine, supportando il concetto di sostenibilità. La difficoltà di tutte queste iniziative sta nel comunicare i benefici di tali investimenti: sebbene i clienti possano apprezzare i servizi AR nel punto vendita, è più complesso tradurre questo apprezzamento in risultati tangibili e misurabili. Matteo Bianchini, Group Cdo di Design Holding In maniera agnostica rispetto ai vari ambienti di metaverso, abbiamo ideato qualcosa di autenticamente innovativo: un mondo che fonde tre metaversi distinti, consentendo una transizione fluida tra di essi. Abbiamo inoltre creato uno spazio virtuale per i nostri negozi, offrendo agli utenti la possibilità di visitarli in modo immersivo attraverso l’uso di visori. Contestualmente, abbiamo lanciato

“The Dream Experience”, un’esperienza legata al mondo delle lotterie, che consente agli utenti di visualizzare come una potenziale vincita al Superenalotto possa trasformarsi in esperienze da sogno. Nel contesto della blockchain, ci siamo concentrati sugli Nft, inizialmente a livello interno e ora stiamo sviluppando progetti per coinvolgere gli utenti finali, specialmente attraverso Sisal FanClub, il nostro social game gratuito. Quest’ultimo, non rientrante nella categoria del gioco d’azzardo, offre terreno fertile per l’integrazione degli Nft. Il nostro obiettivo è offrire esperienze entusiasmanti, creando intrattenimento innovativo per la nostra utenza. Stiamo ridefinendo l’esperienza della lotteria, rendendola più fresca, moderna e strettamente connessa alle nuove tecnologie. Davide Filizola, chief digital officer di Sisal In Barilla prestiamo particolare attenzione alle tecnologie emergenti, con un focus sull’AR. Attualmente ci troviamo nelle fasi iniziali di sperimentazione e conduzione di test per valutarne l’applicabilità. Abbiamo studiato il metaverso in diverse occasioni, riconoscendo la sua potenzialità, e siamo aperti a possibili valutazioni per il futuro. Nell’AI generativa stiamo eseguendo test pilota mirati, con l’obiettivo di comprenderne appieno il potenziale. La nostra iniziativa con l’AR è guidata dal desiderio di aumentare l’engagement degli utenti, facilitando l’interazione con la pubblicità, il brand e i nostri prodotti. Stiamo attualmente implementando questa strategia in alcuni punti vendita attraverso l’uso di materiali innovativi, insieme

a esperienze completamente digitali e nuove campagne pubblicitarie. La user experience subisce un cambiamento notevole: non è più una semplice comunicazione unidirezionale, ma piuttosto un coinvolgimento attivo. Il nostro obiettivo è intrattenere gli utenti e fornire contributi di valore e, grazie alle nuove tecnologie, abbiamo l’opportunità di migliorare l’intero journey del consumatore. Saremo sempre più in grado di intercettare individualmente gli utenti in momenti specifici, personalizzando l’esperienza d’acquisto in modi impensabili in passato. Matteo Dolcini, digital marketing & social media professional di Barilla Italia In Istituto Italiano di Tecnologia lavoriamo a diversi sistemi biomedici, focalizzandoci sia sulla salute dei pazienti sia sulla formazione di professionisti clinici. Ad esempio, uno degli obiettivi è potenziare il punto di vista del chirurgo, fornendo informazioni aggiuntive rispetto a quelle percepite a occhio nudo. In un progetto finanziato dalla Commissione Europea per la ricerca, abbiamo realizzato soluzioni di realtà aumentata capaci di assistere i medici e ridurre i rischi per il paziente durante interventi chirurgici. Nel contesto della riabilitazione, poniamo un’enfasi particolare sulla medicina di precisione, personalizzando i trattamenti e coinvolgendo attivamente i pazienti. Ci concentriamo sulla sicurezza e sull’aderenza alle procedure cliniche, garantendo un elevato livello di motivazione da parte dei pazienti durante le attività. Le competenze coinvolte in questi progetti spaziano dall’informa29


WEB 3.0

tica e dall’ingegneria necessarie per lo sviluppo dei sistemi, all’importante aspetto del design centrato sull’utente. Riconosciamo che la chiara comprensione delle esigenze degli operatori sanitari e dei pazienti è fondamentale per il successo dei nostri progetti. Inoltre, la capacità di implementare tecnologie avanzate in modo che risultino intuitive e user-friendly è essenziale per massimizzare l’efficacia delle nostre soluzioni nel contesto clinico. Giacinto Barresi, ricercatore dell’Istituto Italiano di Tecnologia (IIT) Intesa Sanpaolo individua e segue con attenzione le nuove tendenze del mercato e le tecnologie più innovative, valutando impatti, rischi e opportunità per la banca e il gruppo. Il metaverso può offrire interessanti opportunità per arricchire le modalità di interazione, comunicazione ed engagement, per questo abbiamo recentemente condotto una sperimentazione nell’ambito dell’employer branding insieme con le strutture di HR e Comunicazione, con l’obiettivo di comprendere al meglio potenzialità e impatti tecnologici, di sicurezza e privacy. L’AI generativa, se opportunamente governata, potrà essere un fattore competitivo differenziante in molti settori: per esempio, le applicazioni nel mercato bancario potranno contribuire alla semplificazione dei processi, all’aumento della produttività e al miglioramento dell’esperienza dei clienti. Per prevederne un’adozione responsabile e individuare gli elementi chiave per un utilizzo sicuro su grande scala, abbiamo attivato una serie di sperimentazioni che stanno già fornendo risultati molto incoraggianti. Natascia Noveri, head of group innovation di Intesa Sanpaolo 30 | FEBBRAIO 2024

L’extended reality rappresenta una parte significativa della nostra strategia, soprattutto nel settore del turismo. Abbiamo sviluppato applicazioni che facilitano l’orientamento nei musei, come nel caso del Palazzo Lascaris di Torino, dove abbiamo creato un percorso utilizzando realtà aumentata e realtà mista. Questo percorso, basato su tecnologie Bim (Building Information Modeling), consente una ricostruzione virtuale accurata del palazzo, offrendo un’esperienza immersiva e informativa ai visitatori. Nel contesto del metaverso stiamo affrontando tematiche sociali, come il cyberbullismo, concentrando le nostre applicazioni in ambienti che coinvolgono le scuole. Per quanto riguarda l’AI generativa, stiamo sviluppando servizi avanzati, incluso il progetto “Camilla”, un meta human concierge progettato per semplificare il rapporto tra cittadini e servizi pubblici. Per metaverso e realtà virtuale, siamo consapevoli delle sfide legate all’uso di visori che possono limitare lo sviluppo e l’adozione su larga scala. Continuiamo a monitorare e valutare come queste tecnologie possano essere integrate in modo più accessibile e pratico per garantire un’esperienza utente ottimale. Pietro Pacini, direttore generale di Csi Piemonte In Iren, lato customer management, le prime applicazioni di AI hanno riguardato l’analisi dei Big Data e il machine learning; in particolare, per quanto riguarda la customer experience, abbiamo lavorato al fine di rendere il contatto con il cliente semplice, efficace e veloce. Abbiamo sviluppato strumenti per l’analisi predittiva del churn, per la gestione del credito, ma anche strumenti per il supporto al cliente (chatbot e assistenti virtuali) e per l’ottimizzazione dell’azione commerciale dei call center, attraverso la

sperimentazione di applicazioni relative alla profilazione e al riconoscimento vocale. Queste attività di test non riguardano solo il cliente, ma coinvolgono anche i nostri operatori. Riteniamo infatti che, nonostante la competenza degli operatori sulle attività, la formazione e l’accettazione degli strumenti di AI siano parte integrante di questa evoluzione tecnologica. Inoltre, nell’ambito dell’efficienza energetica, stiamo sperimentando soluzioni verticali con startup nazionali e internazionali, come sistemi di monitoraggio dei consumi domestici, tool per la gestione degli impianti fotovoltaici che supportino il cliente in una gestione più consapevole dei propri consumi. Su metaverso e AR stiamo valutando alcune ipotesi per realizzare attività esperienziali nell’ambito di eventi fisici o rendere fruibili le caratteristiche dei nostri prodotti al di fuori dei nostri negozi. Francesca Doda, innovation sponsor di Gruppo Iren Per quanto riguarda la blockchain, stiamo studiando soluzioni che garantiscano l’autenticità dei nostri prodotti nel tempo. L’AI generativa è una tematica che ci affascina profondamente e sicuramente potrà portare grandi innovazioni, soprattutto nell’ambito dell’automazione. Ci sono alcuni progetti interessanti e pionierismi ma al momento stiamo esplorando attivamente come potremmo utilizzarla per potenziare il nostro customer service, migliorare la ricerca dei prodotti, fornire raccomandazioni personalizzate e ottenere una comprensione più approfondita dei clienti. Sicuramente anche il digital Seo è un ambito in cui ci aspettiamo un impatto. Relativamente all’augmented reality abbiamo già avviato l’integrazione nei nostri siti e-commerce, sfruttandola per migliorare l’esperienza del cliente, in particolare per prodotti


Immagine di Freepik

come le borse e gli accessori fotografici. Questo approccio mira a fornire al cliente informazioni dettagliate e coinvolgenti per facilitare la decisione d’acquisto. Silvia Lametti, IT & digital director di Videndum Media Solutions Nel campo della tecnologia blockchain il nostro gruppo è attivamente impegnato sin dal 2016 con programmi di ricerca e progetti concreti. Siamo stati tra i primissimi a promuovere la Spunta Interbancaria e più di recente abbiamo portato a termine l’esperienza di tokenizzazione dei fondi di investimento nei sandbox Mef/ BdI. L’AI “tradizionale”, non generativa, è presente in vari settori, dalla gestione dei rischi alle campagne commerciali. La parte generativa la stiamo sperimentando nel customer care, finalizzata a semplificare l’accesso al vasto database di conoscenza a disposizione degli operatori. L’adozione delle tecnologie AI è spesso vista solo per

migliorare l’efficienza, le interazioni e la user experience complessiva. Noi siamo orientati a considerare il tema nel suo complesso, per le implicazioni etiche connesse all’utilizzo dell’AI, come ad esempio i bias degli algoritmi. È indispensabile definire una strategia di change management e prima ancora di dotarsi di tutte le competenze necessarie per gestire il cambiamento. Per quanto riguarda il metaverso, abbiamo ricercato a lungo un caso d’uso bancario davvero significativo, trovando valore solo nella realizzazione di esperienze centrate sulla comunicazione valoriale. Demetrio Migliorati, head of innovation di Banca Mediolanum Siamo tra le prime aziende automobilistiche a entrare nel metaverso, avendo creato un nostro spazio virtuale sulla piattaforma di gioco Roblox, chiamata Lamborghini Lanzador Lab. In questo ambiente virtuale si può interagire con la nuova

concept car Lanzador, partecipare a eventi speciali, guidare la vettura in anteprima, configurarla e acquistare prodotti esclusivi digitali che permettono di avere accesso a eventi fisici. Come la possibilità di venire a Sant’Agata, visitare il nostro sito produttivo e vivere un’esperienza similare a quella dei nostri clienti con la presentazione della Lanzador dal vivo. Abbiamo già sperimentato con successo progetti Web3 e Blockchain, come la campagna di Nft collectibles “The Epic Road Trip”, che prevedeva una serie di Nft raffiguranti le supersportive Lamborghini in diversi luoghi del mondo, offrendo anche in questo caso un’interazione tra mondo fisico e digitale. Crediamo che queste tecnologie rivoluzionino il dialogo con le nuove generazioni parlando il loro stesso linguaggio digitale, impegnandosi a esplorare nuovi canali di comunicazione e creando esperienze che siano coinvolgenti ed emozionali. Christian Mastro, direttore marketing di Automobili Lamborghini 31


Foto di Tung Nguyen da Pixabay

INTELLIGENZA ARTIFICIALE

UN FENOMENO DALLA DOPPIA FACCIA Il machine learning è ormai ingrediente fondamentale della cybersicurezza. Ma al contempo le tecnologie generative prestano il fianco a deepfake, disinformazione e phishing.

N

egli ultimi anni l’intelligenza artificiale ha rivoluzionato numerosi settori, spaziando dall’automazione industriale all’assistenza sanitaria, e giocando anche un ruolo sempre più cruciale nel campo della cybersecurity. Parallelamente, l’ascesa delle tecnologie generative, come i modelli linguistici avanzati e i software di elaborazione delle immagini, ha introdotto strumenti potentissimi che, se utilizzati in modo etico e consapevole, possono offrire vantaggi significativi. Tuttavia, l’impiego inappropriato di queste tecnologie in azienda può esporre a rischi inediti, accentuando la complessità della gestione della sicurezza informatica. In questo contesto, diventa fondamentale comprendere sia le opportunità sia i pericoli connessi all’uso dell’AI, per navigare con saggezza nel delicato equilibrio tra 32 | FEBBRAIO 2024

innovazione tecnologica e protezione dei dati. L’adozione dell’intelligenza artificiale nella cybersecurity segna una notevole evoluzione nelle strategie di difesa contro le minacce informatiche. L’AI, con le sue capacità di apprendimento automatico e di elaborazione di grandi quantità di dati, si è rivelata uno strumento indispensabile nella lotta contro le sofisticate minacce digitali di oggi. Una delle principali forze dell’AI in questo settore è la sua capacità di rilevare anomalie e modelli insoliti nei dati, permettendo di identificare tentativi di intrusione o attacchi informatici prima che possano causare danni significativi. Grazie alla propria natura adattiva, l’AI può imparare continuamente dalle interazioni all’interno delle reti aziendali, migliorando la propria precisione nel tempo. Ad esempio, i sistemi di AI possono essere

addestrati a riconoscere schemi tipici di comportamento degli utenti all’interno di un’azienda, imparando così a rilevare attività sospette che potrebbero indicare un tentativo di phishing o un’azione interna dannosa. In aggiunta al rilevamento di anomalie, il machine learning è fondamentale nella prevenzione delle intrusioni e nell’analisi comportamentale in ambienti di rete aziendali. Gli algoritmi di AI, specie quelli basati sull’apprendimento profondo (deep learning), sono capaci di analizzare flussi di dati di rete in tempo reale, identificando modelli che possono indicare un tentativo di intrusione o attacchi di tipo zero-day, i quali sfruttano vulnerabilità non ancora note. Questa capacità di riconoscere e reagire a minacce sconosciute rappresenta un salto qualitativo rispetto ai metodi tradizionali di sicurezza informatica, che si fondano su database di minacce già note. L’AI gioca anche un ruolo decisivo nell’analisi comportamentale: osservando le azioni di utenti e dispositivi all’interno


di una rete, può identificare comportamenti insoliti o potenzialmente pericolosi. Questa analisi continua consente di individuare segnali di allarme, come l’accesso a dati sensibili in orari insoliti o da località inattese, che possono suggerire la presenza di un insider malintenzionato o di un account compromesso. Questo tipo di sorveglianza proattiva è fondamentale non solo per bloccare gli attacchi prima che causino danni, ma anche per comprendere meglio le tattiche, le tecniche e le procedure utilizzate dagli aggressori, permettendo alle aziende di affinare ulteriormente le proprie strategie di difesa. Nonostante i numerosi benefici descritti, l’uso delle tecnologie generative in ambito aziendale porta con sé nuove sfide e rischi significativi, specialmente quando queste tecnologie non vengono impiegate in modo etico e responsabile. Uno dei principali pericoli è rappresentato dalla creazione di deepfake, ovvero contenuti audiovisivi falsificati estremamente realistici. In un contesto aziendale, i deepfake possono essere utilizzati per imitare comunicazioni ufficiali (di dirigenti o altre figure chiave), creando file audio o video fraudolenti, e ciò porta a gravi conseguenze come la manipolazione del mercato, la diffusione di informazioni false o la compromissione della reputazione aziendale. Un altro rischio emergente è l’uso sofisticato delle tecnologie generative per il phishing e altre forme di attacchi informatici, per esempio per creare email, messaggi o siti Web apparentemente autentici ma tesi a rubare credenziali o informazioni sensibili. Oltre ai deepfake e al phishing avanzato, un altro rischio significativo portato dalle tecnologie generative è la diffusione di disinformazione e fake news. In un ambiente aziendale, queste tecnologie possono essere impiegate per generare notizie false o dichiarazioni ingannevoli che, se diffuse rapidamente attraverso i social media e altri canali digitali, pos-

sono causare danni reputazionali o influenzare il mercato in modo negativo. L’abilità di queste tecnologie di produrre contenuti falsi ma credibili a una velocità e scala senza precedenti rappresenta una seria minaccia per l’integrità informativa e la fiducia pubblica. Per contrastare efficacemente i rischi emergenti legati all’uso delle tecnologie generative, le aziende devono adottare un approccio olistico e multilivello alla cybersecurity. Una componente fondamentale di questo approccio è la formazione e la sensibilizzazione dei dipendenti. È essenziale che il personale sia informato e aggiornato sui tipi di attacchi potenziali, in particolare su quelli che utilizzano deepfake e altre forme di contenuto ingannevole. La formazione dovrebbe includere la capacità di riconoscere segnali di allarme, come inconsistenze nei messaggi video o audio e anomalie nei contenuti di comunicazione. Allo stesso tempo, è importante stabilire procedure chiare e protocolli di verifica per le comunicazioni interne ed esterne, specialmente quando si tratta di decisioni finanziarie o di azioni che richiedono l’accesso a dati sensibili. Accanto a tutto ciò, le aziende dovrebbero investire in soluzioni tecnologiche avanzate per rafforzare la propria infrastruttura di sicurezza. Que-

Stefano Brigaglia

sto include l’adozione di sistemi di rilevamento delle intrusioni basati su AI, che possono analizzare modelli di traffico di rete e identificare attività sospette, e l’implementazione di software di autenticazione multifattore per proteggere l’accesso ai sistemi aziendali. In aggiunta alle misure preventive, è vitale che le aziende sviluppino un piano di risposta agli incidenti robusto e ben definito per affrontare efficacemente eventuali violazioni della sicurezza o abusi delle tecnologie generative. Il piano dovrebbe includere procedure chiare per l’identificazione rapida degli incidenti, la comunicazione efficace all’interno dell’organizzazione e con i clienti, e le azioni di mitigazione per limitare i danni. È fondamentale che le aziende si dotino di team di risposta agli incidenti esperti e formati, pronti a gestire situazioni complesse che coinvolgono contenuti generativi fraudolenti. Infine, per un approccio etico e responsabile alle tecnologie generative, è essenziale includere la creazione di linee guida aziendali chiare sull’uso accettabile di tali tecnologie e l’assicurazione che tale utilizzo sia trasparente e rispettoso dei diritti di privacy e della proprietà intellettuale. Adottare un atteggiamento proattivo e responsabile nel gestire l’innovazione tecnologica non solo protegge l’azienda da rischi legali e di reputazione, ma contribuisce anche a costruire un ambiente di fiducia e sicurezza per clienti e dipendenti. L’ascesa delle tecnologie generative, pilotate dall’avanzamento incessante dell’intelligenza artificiale, ha aperto nuovi orizzonti nel mondo aziendale, offrendo opportunità inedite per l’innovazione, la personalizzazione e l’efficienza. Tuttavia il loro utilizzo porta con sé una serie di sfide e rischi che non possono essere sottovalutati. Stefano Brigaglia, head of AI, data science & location intelligence, partner di Jakala 33


Immagine di rawpixel su Freepik

EXECUTIVE ANALYSIS | Networking INFRASTRUTTURE

DESTINAZIONE “NUVOLA”, MA NON PER TUTTO Le innovazioni dell’AI generativa fungeranno da ulteriore spinta per un mercato destinato comunque a crescere.

I

l cloud computing, e in particolare in public cloud, viaggia ancora con l’acceleratore premuto. Gartner stima per quest’anno un valore del mercato end-user (cioè calcolato in base alla spesa dell’utente finale dei servizi) pari a 563,6 miliardi di dollari e prefigura per il 2024 un valore di 679 miliardi di dollari, corrispondente a una crescita del 20%. A fare da traino ci saranno stesse le necessità di trasformazione dei servizi, agilità e scalabilità che negli ultimi anni hanno spinto molte aziende alla “migrazione” dei carichi di lavoro su risorse esterne al data center di proprietà. Ma ci sarà anche la spinta di nuove tecnologie e in particolare dell’AI generativa, per cui il cloud è la collocazione ideale e in certi casi (per ovvie ragioni di potenza di calcolo e costi) l’unica possibile. “Il cloud è diventato essenzialmente indispensabile”, ha sintetizzato Sid Nag, vice president analyst di Gartner. “Ma questo non significa che l’innovazione del cloud 34 | FEBBRAIO 2024

possa fermarsi o anche solo rallentare. Lo scenario si sta ribaltando per i provider, perché i modelli cloud non innescano più risultati di business, ma piuttosto sono i risultati del business a determinare i modelli”. Un esempio è, appunto, quello dei servizi di AI generativa: per la loro adozione le aziende si stanno rivolgendo al cloud pubblico, che può garantire le necessarie risorse infrastrutturali su larga scala. “Tuttavia”, ha proseguito l’analista, “affinché le aziende possano adottare la GenAI in modo efficace, i fornitori cloud dovranno affrontare questioni non tecniche legati ai costi, ad aspetti economici, alla privacy e alla sostenibilità. Al crescere dell’adozione della GenAI, gli hyperscaler che supportano queste esigenze sapranno catturare un’opportunità di ricavi tutta nuova”. Nel 2024 i principali segmenti del mercato del cloud pubblico cresceranno tutti. Per i servizi di infrastruttura (Infrastructure-as-a-service, IaaS) Gartner prevede un incremento del

26,6% anno su anno, mentre per quelli di piattaforma (Platform as-a-Service, PaaS) il balzo sarà pari al 21,5%. La componente applicativa (Software as-a-Service) sarà la più danarosa, con un valore stimato di quasi 243,4 miliardi di dollari, in risalita dai 205,2 miliardi di quest’anno. Ma il cloud conviene davvero rispetto all’on-premise, o è vero il contrario? Il tema dei costi è emerso con decisione soprattutto negli ultimi due anni. Numerose ricerche e commenti di analisti sottolineano che adottarlo con la sola finalità del risparmio è una strategia fallimentare in partenza. Per i nuovi progetti il cloud comporta minori spese iniziali, ma vanno poi considerati i costi fissi e variabili mensili, anche soggetti a possibili rincari futuri legati al mercato dell’energia. La bilancia dei costi pende a favore del cloud o dell’on-premise anche a seconda di altri fattori, come la quantità di dati archiviati, l’istanza di calcolo attivata (ad alte prestazioni oppure no) e i tempi di operatività dell’applicazione (continuativa “27/7” oppure “a chiamata”, come un chatbot di AI generativa). In ogni caso, tra analisti, vendor e aziende utenti c’è unanimità di vedute: la “nuvola” è una direzione intrapresa irreversibilmente, e quasi sempre nella modalità del multi-cloud (ovvero l’uso di servizi di differenti fornitori). Vero è che, quando si parla di tasso di adozione del cloud, spesso si leggono percentuali altissime riferite però magari al semplice uso di applicazioni Software as-a-Service o ad attività di sviluppo applicativo, mentre le applicazioni “core” restano racchiuse nei data center aziendali. Guardando più lontano nel tempo, gli analisti di MarketsandMarkets prevedono che la spesa mondiale in cloud pubblico arriverà a 987,8 miliardi di dollari del 2027. E ancora una volta, accanto alla continua escalation nella quantità di dati prodotti, a fare da traino ci saranno le applicazioni di intelligenza artificiale. Valentina Bernocco


COME TRARRE VANTAGGIO DAI CLOUD DI SETTORE Quanto è importante, oggi, che i diversi settori industriali possano avvalersi di cloud “dedicati”? Dalla sanità alle telecomunicazioni, passando per automotive e servizi finanziari, è fondamentale che tutti dispongano di una piattaforma dati unificata, scalabile e sicura, che supporti le attività e i requisiti normativi e di conformità dei clienti. Ma perché le aziende dovrebbero investire in cloud specifici per il proprio settore? La risposta è l’innovazione. Economia e mercati si stanno evolvendo sempre più rapidamente e la tecnologia ha il compito di progredire ancora più velocemente per rimanere attuale. Nel settore dei servizi finanziari, ad esempio, c’è la necessità di dare supporto ai clienti nel più breve tempo possibile, ma spesso requisiti normativi complessi e diversi a seconda dei mercati non lo permettono. Essere pronti per il futuro significa cominciare a lavorare con le tecnologie più innovative, come cloud e intelligenza artificiale, da impiegare nel modo più sicuro, anche attraverso sistemi che integrino responsabilità e governance. Da dove cominciare? Innanzitutto, le aziende devono definire una strategia basata sulla comprensione e definizione dei requisiti in termini di sicurezza, conformità, resilienza e processi. Alessandro Fregosi Una volta fatta chiarezza in questo senso, si possono esaminare le opzioni disponibili e decidere quale cloud di settore sia il più adatto. A questo punto è quindi possibile istituire la cosiddetta safe landing zone, migrando i dati e le applicazioni dei clienti senza interrompere le operazioni. Un percorso di trasformazione complesso, il quale richiede competenze composite che si estendono dalla gestione dell’infrastruttura alla modernizzazione applicativa, fino ai data analytics e all’intelligenza artificiale. È dunque fondamentale affidarsi ad advisor strategici che possano supportare le aziende nella definizione di piani di modernizzazione dell’infrastruttura esistente, privilegiando un approccio ibrido che sappia coniugare risorse on-premise e in cloud, sfruttare le opportunità di innovazione e flessibilità delle nuove tecnologie e preservare gli investimenti pregressi. Il mercato italiano del cloud è in continua espansione e ciò testimonia la fiducia che le organizzazioni nazionali ripongono in questa tecnologia, ormai alla base dei percorsi di digitalizzazione di grandi imprese e Pmi. Nei prossimi anni i principali settori che vireranno sul cloud saranno sanità, energia, telecomunicazioni e manifattura. Il primo ambito vede nel cloud lo strumento per sviluppare servizi digitali più moderni e migliorare la propria postura di sicurezza e resilienza, con l’obiettivo di proteggere sempre meglio i dati degli utenti e supportare le strutture sanitarie in caso di cyberattacchi. Al contrario, il settore energetico e le telecomunicazioni si focalizzeranno su soluzioni di sostenibilità per ridurre costi ed emissioni, tutelando l’ambiente. Il manufatturiero, invece, potrà adottare il cloud di settore per consentire agli operatori di implementare aggiornamenti centralizzati su tutti gli stabilimenti, evitando colli di bottiglia. Grandi opportunità riguardano inoltre anche la Pubblica Amministrazione, grazie alla spinta del Pnrr. Inoltre, grande attenzione a questa tecnologia sarà posta dal settore finanziario, in prima linea in materia di trasformazione digitale: il cloud offre infatti opportunità di crescita e innovazione senza precedenti a banche e istituti finanziari, che stanno destinando una parte importante dei loro investimenti proprio all’IT. Far andare l’innovazione di pari passo con la sicurezza e la conformità normativa rappresenta una grande sfida, ma al tempo stesso uno stimolo per il progresso del settore IT. Alessandro Fregosi, cloud and applications, data & AI practice leader di Kyndryl Italia

35


EXECUTIVE ANALYSIS | Networking INFRASTRUTTURE

L’INFORMATICA SPICCA IL “SALTO QUANTICO” Negli Usa, ma anche a Zurigo, Ibm lavora per guidare il prossimo “big bang” dell’information technology. La diffusione su larga scala è, però, ancora lontana.

C

ome è ormai sempre più noto anche a chi non lavora in un laboratorio avanzato di ricerca, il quantum computing rappresenta la frontiera estrema delle capacità di calcolo, grazie al fatto di utilizzare elettroni, anziché transistor, per generare una soluzione molto più rapida a problemi complessi. Ibm è in prima linea in questa evoluzione. Non è la sola, perché anche altre Big Tech come Google e Microsoft hanno investito parecchio su questo fronte (per non parlare di Paesi come la Cina), ma i passi avanti che Big Blue sta compiendo e la roadmap a dieci anni recentemente aggiornata sono segni di una sempre maggiore concretezza, sebbene nel calcolo quantistico permangano diverse problematiche da risolvere. Proviamo a fare il punto della situazione con il supporto di Alessandro Curioni, vicepresidente di Ibm Re36 | FEBBRAIO 2024

search Europa e Asia, nonché direttore del centro di ricerca di Zurigo, il primo aperto dalla multinazionale al di fuori degli Stati Uniti, ormai settant’anni fa. “Due sono le invenzioni che, più di tutte, hanno caratterizzato la storia dell’informatica fino a oggi, ovvero i transistor e Internet. L’intelligenza artificiale e il quantum computing segneranno l’avvio della nuova era che ci attende”, indica il manager. Lo scenario evolutivo del quantum computing ha fatto importanti passi avanti nell’ultimo anno. “Prima del 2023 si poteva dire che qualunque cosa facesse un computer quantistico poteva essere simulata in modo classico”, sottolinea Curioni. “Lo scorso anno, per la prima volta, è stato possibile eseguire su un quantum computer un processo che non era assolutamente possibile realizzare su un simulatore. Questo non significa

ancora che esista già un interesse commerciale legato agli sviluppi, soprattutto perché la qualità dei sistemi fisici limita la portata dei problemi che possono essere affrontati. Ma crediamo che ci saranno applicazioni con valore reale ben prima del 2033”. Intanto, Ibm procede nel lavoro di messa a punto delle tecnologie che possono fare da base alle evoluzioni attese. Recente è il lancio del Quantum Heron, un processore da 133 qubit, che consente una riduzione degli errori fino a cinque volte maggiore rispetto al suo predecessore. Questa unità di calcolo alimenta il System Two, che il costruttore indica essere il proprio primo sistema modulare e che rappresenta la pietra angolare dell'architettura di supercalcolo quantistico di Ibm. La prima unità, alimentata da tre processori Heron, è operativa presso lo stabilimento di Yorktown Heights, New York. Accanto a questo, Big Blue ha indicato una roadmap di sviluppo estesa al 2033, che include nuovi obiettivi per migliorare la qualità delle operazioni di porta e, quindi, aumenta-


re le dimensioni dei circuiti quantistici. Inoltre, in febbraio sarà disponibile Qiskit 1.0, prima versione stabile del kit di sviluppo software quantistico, mentre Qiskit Patterns rappresenta un modello di programmazione per la creazione di algoritmi e applicazioni quantistiche su scala più estesa. I computer quantistici potranno a breve essere utilizzati per alcune tipologie di calcolo. Da un lato, per la simulazione della natura, soprattutto nell’ambito della medicina e delle scienze della vita, ma anche per creare o interpretare strutture complesse di dati (si pensi alla crittografia, purtroppo in entrambe le direzioni ossia per creare algoritmi ma anche per romperli) e su una prospettiva di più lungo periodo per ottimizzare attività come la gestione dei portafogli finanziari, dei rischi o della logistica. Qui si innesta l’altro grande filone di sviluppo che potrà combinarsi con la potenza di calcolo del quantum, ovvero l’intelligenza artificiale. “Il deep learning ha rappresentato una rivoluzione, perché per la prima volta è stato possibile creare conoscenza con i dati”, spiega Curioni. “Ma ne servono grandi quantità per applicazioni specifiche, obbligando quindi a investimenti consistenti per applicazioni molto verticali. Oggi ci sono i foundation model, che non richiedono annotazioni, hanno un apprendi-

mento self-supervised (auto-supervisionato, NdR), sono fino a sei volte più veloci e fino a cinque volte più economici. Noi in Ibm abbiamo lavorato sulla creazione di questi modelli e sulla tecnologia che può supportarli, ovvero Watsonx, facendo in modo di creare vantaggio competitivo. Scalabilità e affidabilità dei dati sono alla base di questo vantaggio, che noi possiamo offrire con una soluzione modulare, dove sono presenti componenti che automaticamente istruiscono i modelli, creano la versione scalabile e si occupano della governance, quindi della qualità dei dati”. Intelligenza e capacità di calcolo vanno a braccetto e costituiscono le fondamenta degli sviluppi tecnologici del futuro. Qualche esempio è già oggi disponibile. Boehringer Ingelheim ha stipulato un accordo con Ibm per accelerare la scoperta e lo sviluppo di nuovi anticorpi. La casa farmaceutica utilizzerà un modello di intelligenza artificiale generativa sviluppato e pre-addestrato per scoprire anticorpi candidati all’utilizzo in ambiti terapeutici. Il lavoro congiunto con FuelCell, invece, dovrebbe portare all’individuazione delle vie più efficienti per guidare la transizione verso fonti di energia rinnovabili. Sul fronte ambientale, le tecnologie di AI geospaziale e il relativo foundation model sviluppato in collaborazione con Nasa serviranno per

Alessandro Curioni

attività come l’analisi delle isole di calore urbane negli Emirati Arabi Uniti, la riforestazione in tutto il Kenya e la resilienza climatica nel Regno Unito. Restano da superare ostacoli tecnologici non da poco. Oltre a trovare la scalabilità indispensabile per un futuro utilizzo industriale (più facilmente in logica asa-service da fornitori attrezzati), occorre superare le questioni legate alla natura delicata dei qubit, che sono soggetti a errori e interferenze provenienti dall’ambiente circostante. Non da ultimo, una potenza di calcolo ampliata in modo esponenziale potrebbe, se finisse in cattive mani, produrre un effetto “bomba atomica” dagli esiti imprevedibili. Roberto Bonino

DAI TRANSISTOR AGLI ELETTRONI Oggi i computer elaborano le informazioni sui transistor, cosa che hanno fatto fin dall’avvento dell’interruttore a transistor nel 1947. Nel corso del tempo, tuttavia, la velocità e le capacità dei computer sono aumentate in modo sostanziale. Il miglioramento della tecnologia deriva dalla possibilità di integrare una densità crescente di transistor su un singolo chip, raggiungendo una scala di miliardi nei computer di oggi. Il quantum computing, invece, codifica informazioni e dati sugli elettroni. Queste particelle, grazie ai principi della meccanica quantistica, possono esistere in più stati contemporaneamente. A differenza dei metodi informatici tradizionali, che gestiscono un bit di dati alla volta su un transistor, l’informatica quantistica utilizza i qubit. Questi processori possono archiviare ed elaborare una quantità esponenziale di informazioni proprio grazie alla loro capacità di esistere in più stati contemporaneamente.

37


Immagine di jcomp su Freepik

SMART MANUFACTURING

COLLABORAZIONE E AUTOMAZIONE, VERSO IL 5.0 In un comparto a crescita lenta, faranno da traino l’evoluzione digitale e la spinta green. Nella robotica, l’Europa può e deve recuperare terreno.

U

n comparto che cresce poco, ma che può contare sul traino del digitale e della transizione green. Gli effetti positivi del 2022, sull’onda della ripresa post Covid, sono già terminati e nel 2023 il mercato dell’industria manifatturiera ha segnato, in base alle stime di Prometeia/Intesa Sanpaolo, una flessione dello 0,9%. La stessa fonte indica per il prossimo biennio un ritorno alla crescita, confinato però su percentuali prossime all’1%. Di fronte a uno scenario complessivo poco incoraggiante, ci saranno però aree destinate a fare significativa eccezione. La banca dati dell’Asi (Analisi dei Settori Industriali) mette in evidenza come già 38 | FEBBRAIO 2024

nel 2023 i segmenti dell’auto/moto, dell’elettronica/elettrotecnica, del largo consumo e del farmaceutico abbiano registrato un andamento positivo e per questi la situazione resti favorevole anche a medio termine. Miglioreranno le cose anche per aree come la meccanica, gli alimentari e bevande, il sistema moda e gli intermedi chimici, fra gli altri. “In questi settori, a trainare il mercato saranno le realtà maggiormente impegnate nelle transizioni al digitale e al green”, indica Marco Delaini, managing director di Fanuc Italy. Due sono gli ambiti che possono aiutarci a capire come stia evolvendo il mondo della produzione industriale dal punto

di vista dell’innovazione di fabbrica. Da un lato ci sono le macchine utensili, che nel 2023 hanno visto globalmente contrarsi leggermente (-4%) il consumo misurato in miliardi di euro, in base ai dati di stima forniti da Cecimo (associazione europea delle industrie della macchina utensile e relative tecnologie manifatturiere). L’andamento è stato però positivo se ci limitiamo alla sola area europea, dove il valore è passato da 18,6 a 19,5 miliardi nell’ultimo anno. Nel nostro continente ha un peso rilevante il comparto dell’automotive, che da sedici mesi mostra un andamento positivo e dove stanno aumentando a gran ritmo le immatricolazioni di vetture elettriche (16,3% del totale) e ibride (27,4% del totale). Anche l’aerospaziale ha contribuito e continuerà a farlo, visto che nel 2024 si prevedono 10,9 milioni di voli, ovvero l’equivalente del 98% del volume di traffico pre Covid. In Italia il mercato delle macchine utensili è cresciuto del 4,9% in termini di produzione (oltre 6,8 miliardi di euro), in base ai preconsuntivi dell’associazione di categoria Ucimu, mentre dal punto di vista del consumi si è registrata una flessione dell’1,9% (poco più di 5 miliardi di euro). Ucimu attribuisce il buon andamento della produzione agli


AI E ROBOTICA UNITE PER INNOVARE L’ARCHITETTURA Dalla collaborazione tra Fanuc Italia e IndexLab, laboratorio di ricerca specializzato in design e innovazione affiliato al Politecnico di Milano, è scaturita di recente un’innovativa applicazione robotica pensata per integrarsi nel contesto della produzione industriale, in particolar modo nel mercato dell ’architettura e del design di interni. Alla base c’è un sistema che sfrutta l’intelligenza artificiale per eseguire operazioni complesse. Il modello sviluppato è in grado di interpretare informazioni acquisite sotto forma di pattern e texture, le elabora poi in modo tempestivo e le traduce in un linguaggio comprensibile ai robot. Il cuore di questa novità consiste in un processo avanzato di produzione, in cui i robot di Fanuc ricreano fedelmente i pattern di input attraverso precisione e velocità nelle lavorazioni di taglio a caldo. Questo rappresenta un passo avanti non trascurabile nel panorama dell’automazione, soprattutto in un settore creativo e all’avanguardia come quello dell ’architettura e del design di interni. L’unione sinergica tra intelligenza artificiale e robotica si traduce in un’ottimizzazione dell ’efficienza e della precisione nei processi industriali.

effetti delle vendite sui mercati internazionali, visto che da noi si sono già manifestati segnali di rallentamento, che si acuiranno nel 2024 soprattutto per l’esaurirsi dell’onda positiva dei fondi per l’Industria 4.0 e in attesa dei decreti attuativi per la 5.0, che arriveranno non prima di metà anno. Dall’altra parte c’è la robotica, dove a livello globale si arrivava da un 2022 che si era chiuso con 553mila sistemi installati, in gran parte in Asia. L’International Federation of Robotics (Ifr)

prevede che la tendenza possa proseguire, non solo per l’anno appena concluso (stimato un + 7%) ma anche fino al 2026. All’interno di questo andamento, si può notare il peso sempre più rilevante dei robot collaborativi (cobot), che nel 2022 hanno rappresentato il 9,9% del totale, con una crescita in volume del 31%. Nel settore della robotica l’Europa mostra numeri più contenuti rispetto all’Asia (15% del totale delle installazioni globali), ma comunque nel 2022 si è registrata una crescita del 6%.

L’Italia rappresenta il secondo mercato continentale e nel 2022 la crescita è stata superiore alla media (+10%), con oltre 12mila sistemi venduti. Secondo Siri, l’associazione italiana di robotica e automazione, il tasso medio di crescita annua del mercato dal 2008 si attesta al 7%. Ma l’ultimo dato disponibile, riguardante la raccolta degli ordini per il primo semestre del 2023, mostra un’inversione di tendenza, con un calo del 34% presumibilmente dovuto ai colli di bottiglia registratisi nella supply chain per carenza di componentistica. I mega-trend dell’automazione industriale comprendono sviluppi condivisi con altri settori dell’hi-tech. L’intelligenza artificiale è già una realtà, ma le evoluzioni generative aprono nuovi scenari applicativi, per esempio nel campo dell’architettura e del design. “L’intersezione fra machine learning e linguaggio naturale è uno dei temi portanti oggi”, rileva Pierpaolo Ruttico, professore al Politecnico di Milano e managing director di IndexLab. “La possibilità di fornire input anche solo testuali, creare immagini utilizzando la potenza dell’AI generativa e fare in modo che i robot eseguano azioni, per esempio di taglio di materiali, senza più alcun bisogno di programmare”. Roberto Bonino 39


Immagine di Freepik

EXECUTIVE ANALYSIS | Networking TRASFORMAZIONE DIGITALE

CFO AL CROCEVIA DELLA TRASFORMAZIONE I direttori finanziari possono giocare un ruolo da protagonisti nelle strategie di innovazione. Anche migliorando il dialogo, non sempre lineare, con l’IT.

N

on si brilla certo in originalità affermando che la trasformazione digitale che sta connotando oggi la grande maggioranza delle aziende ha un risvolto economico non trascurabile. Se il mercato, infatti, sta dettando i tempi di un percorso ineludibile, il ritmo dell’evoluzione deve confrontarsi anche con le disponibili40 | FEBBRAIO 2024

tà finanziarie e con una pianificazione delle risorse che tipicamente compete, in termini di responsabilità, ai chief financial officer (Cfo). Questi professionisti si trovano di fronte alla duplice sfida di dover tenere sotto controllo le risorse che l’IT e le altre aree funzionali richiedono per poter sostenere il passo dell’innovazione e, allo stesso tempo, di dover a propria volta far evolvere in chiave digitale i processi del proprio dipartimento. Uno studio realizzato da PwC nel 2022 su scala mondiale rileva come il 73% dei professionisti ritenesse una priorità la trasformazione digitale della propria funzione. Tuttavia il 78% lamentava il fatto che la propria organizzazione non avesse ancora effettuato una pianificazione a lungo termine in

materia e il 50% non disponeva del giusto mix di competenze per soddisfare le esigenze aziendali. Partendo dalla propria area funzionale e, nei casi più virtuosi, in sinergia con l’area IT, il Cfo presiede il percorso di trasformazione digitale della propria azienda, quantomeno nella definizione di una pianificazione che rispetti i paletti economici, organizzativi e culturali sottesi. Ci sono i margini per assumere una vera e propria leadership digitale in questo contesto? Per rispondere a questa domanda, Technopolis ha realizzato una ricerca qualitativa costruita su un campione di sedici aziende di medio-grande dimensione, appartenenti a differenti settori industriali, con lo scopo di acquisire il punto di vista di Cfo e figure


assimilabili sullo stato di avanzamento della digitalizzazione dei processi finanziari nelle aziende. L’iniziativa ha voluto approfondire, in modo particolare, quali siano le sfide e le eventuali resistenze che stanno accompagnando il cammino in questa direzione, come stia evolvendo il ruolo dei direttori finanziari, come si strutturino i processi decisionali legati agli sviluppi tecnologici e organizzativi, quale sia il rapporto con la funzione IT in azienda, come sia stato affrontato il tema delle competenze e quali siano le strade di innovazione intraprese in ambiti come la pianificazione finanziaria o la gestione delle spese. Tecnologie per l’efficienza

Seppur con differenti velocità e modalità di attuazione, le realtà interpellate hanno innanzitutto introdotto strumenti tecnologici avanzati per automatizzare e rendere più efficienti le attività operative al proprio interno. La digitalizzazione dei workflow più semplici e standardizzati è un dato di fatto, che ha fin qui coinvolto processi come la tesoreria, la contabilità, le attività di budgeting e pianificazione, il ciclo passivo (complice la spinta della normativa sulla fatturazione elettronica), gli ordini in tutto il processo purchase-to-pay. Con diverse sfumature, si può dire che un certo livello di avanzamento tecnologico sia stato raggiunto anche in processi che si rapportano direttamente a esigenze connesse al business, come le analisi finanziarie a supporto dei processi decisionali, la produzione automatizzata di reportistica o la gestione delle relazioni con i fornitori. Più rara è, invece, l’estensione verso il forecasting sulle vendite. Questi passaggi, perlopiù completati nell’arco dell’ultimo lustro, hanno portato con sé ripercussioni di natura organizzativa. In primis e soprattutto, si è resa necessaria un’opera di attenta formazione delle risorse interne, non solo

in chiave di apprendimento dei nuovi strumenti ma anche di coinvolgimento su modalità di lavoro spesso destinate a scardinare abitudini consolidate, innescando una pericolosa resistenza al cambiamento. La presenza di una maggior automazione della reportistica e la dematerializzazione di molti flussi documentali hanno poi generato una maggior autonomia nella consultazione e fruizione dei dati, non sempre facilmente digerita dai diretti interessati. Infine, il peso ormai acquisito dalla tecnologia nel Finance ha spesso reso necessaria la creazione, all’interno del dipartimento, di competenze che fungano da interfaccia con l’IT nella condivisione delle esigenze da soddisfare e di un linguaggio comprensibile da entrambe le parti, oltre che competenze per l’utilizzo degli strumenti avanzati (fino al punto, in qualche caso, di saper scrivere linee di codice utili a programmare determinati aggiustamenti nel software). Le difficoltà riscontrate soprattutto nella capacità di evoluzione verso forme di analisi finanziaria di tipo predittivo si collegano a quelli che sono stati indicati come principali ostacoli a un più compiuto processo di trasformazione. La grandissima maggioranza del campione ha indicato nella cultura delle persone e nel change management i limiti più difficili da valicare. Un altro aspetto critico per molte realtà è rappresentato dalla qualità dei dati su cui si costruiscono le analisi e le previsioni finanziarie. Non sono pochi i Cfo che lamentano una certa disomogeneità nelle fonti di provenienza e la conseguente assenza di quella normalizzazione che renderebbe più affidabile il loro lavoro. Cambiamenti e ostacoli

Il tema delle competenze digitali, come abbiamo visto, è fra quelli che maggiormente occupano i pensieri dei Cfo. Anche se la loro carenza rappresenta,

in molti casi, un limite all’innovazione spinta, in linea generale all’interno dei team finanziari sono state inserite figure che hanno fra i loro compiti quello di dialogare con l’IT e fare da ponte nella traduzione delle richieste e dei bisogni del proprio dipartimento. Questi soggetti conoscono i principali strumenti tecnologici implementati o sono skillati per poterli utilizzare, pur senza essere necessariamente ingegneri. I rapporti con il dipartimento IT sono fattivamente collaborativi solo in casi minoritari. Le difficoltà di armonizzazione dei linguaggi restano uno scoglio, al quale si pone rimedio con le citate figure ponte, più diffuse nei team finanziari. Non mancano comunque contesti dove la collaborazione è piuttosto avanzata, i processi di innovazione riferiti all’azienda nel suo complesso sono condivisi, così come i piani di attuazione e le risorse da impiegare. Non a caso, in questi casi la definizione del budget IT segue un percorso più lineare e proficuo, mentre in altre situazioni la difficoltà di instaurare un corretto dialogo si ripercuote sulla disponibilità alla concessione di fondi utili per accelerare un’innovazione tecnologica talvolta difficile da comprendere o giudicata inferiore ad altre priorità strategiche. Per la maggioranza degli intervistati, non spetta al Cfo il compito di guidare la trasformazione digitale dell’azienda, ma di sicuro è in forte maturazione la conoscenza degli strumenti a supporto dell’evoluzione dei processi finanziari e il relativo peso decisionale sugli investimenti. In sostanza, parliamo di una figura che sa ritagliarsi del tempo per aggiornarsi sugli scenari di offerta di strumenti tecnologici riferiti al proprio ambito operativo, che ne comprende le caratteristiche e il funzionamento, e che interviene anche sulle scelte riferite ad altre componenti dell’azienda. Roberto Bonino 41


EXECUTIVE ANALYSIS | Networking TRASFORMAZIONE DIGITALE

L’EVOLUZIONE DEL FINANCE NELLE AZIENDE Nei nostri progetti di digital transformation abbiamo rivoluzionato le nostre modalità di lavoro a livello di punto vendita, front office e back office, per far sì che i nostri circa diecimila audioprotesisti nel mondo seguano un protocollo che permetta loro di ottimizzare il livello di servizio fornito ai nostri clienti, consentendo altresì alle nostre funzioni di back office di fornire un supporto efficace ed efficiente alla rete di negozi. Nei nostri sistemi tutte le informazioni vengono immediatamente condivise e rese disponibili per prendere le migliori decisioni sia di business sia finanziarie. Un crescente focus è, infine, dedicato all’introduzione di innovazioni sul fronte dell'intelligenza artificiale, utilizzata sia lato business, per identificare prontamente soluzioni che incrementino la soddisfazione dei nostri clienti, sia lato finanziario, ottimizzando processi chiave quali ad esempio il sales forecasting. Gabriele Galli, Cfo di Amplifon Un’area sulla quale abbiamo lavorato molto riguarda la digitalizzazione dei processi approvativi e dei flussi di documenti. Si tratta di un ambito importante per ragioni di compliance, ma anche di organizzazione. Allo snellimento dei carichi di lavoro per il personale amministrativo si è associata la possibilità di controllare ogni pagamento in modo automatico e di dare costante visibilità al management sulle attività di spesa. Parallelamente abbiamo potenziato gli strumenti per la gestione, aumentando la capacità di incrociare diverse fonti 42 | FEBBRAIO 2024

di dati, il cui primo output è stato un report che ci permette di misurare in tempo reale la contribuzione al margine dell’azienda di ogni singola vendita effettuata. Maria Francesca Licordari, head of Finance & IT di Arexons Italia Nel contesto della nostra evoluzione, la componente di Business Intelligence, che prima era allocata nell’area commerciale, ora è stata ricondotta sotto la supervisione dell’area Amministrazione, Finanza & Controllo, per dare un servizio più integrato e completo all’intera azienda e per sviluppare analisi a supporto del business basate su dati condivisi. Dopo aver completato la revisione complessiva del dipartimento, vorremmo introdurre strumenti di intelligenza artificiale che ci aiutino a fare delle analisi predittive. Paolo Fietta, Cfo di Artsana A livello di gruppo, ci siamo posti l’obiettivo della standardizzazione dei processi finanziari e su questo abbiamo definito una roadmap digitale di progressiva implementazione di soluzioni utili ad automatizzare il più possibile le nostre attività. L’intento complessivo è quello di affidare a bot l’attività ripetitiva, per concentrare l’attenzione delle nostre risorse su compiti di maggior valore e in cui l’intervento umano è ancora fondamentale. Si tratta di un cambiamento importante, che stiamo gestendo con l’ingaggio al nostro interno delle persone dotate di una mentalità di mi-

glioramento continuo e capaci di individuare le corrette e opportunità e spiegare a tutti i vantaggi del nuovo modo di lavorare. Il nostro obiettivo è anche un cambiamento culturale, affinché ogni dipendente si senta coinvolto nel migliorare il proprio lavoro quotidiano. Jean Francois Dohogne, Cfo di Carrefour Italia L’introduzione della fatturazione elettronica e del Sistema di Interscambio ha generato una forte spinta all’innovazione e alla digitalizzazione di tutto il flusso documentale, riducendo il rischio di perdita dei documenti, facilitando il rispetto delle rigide tempistiche richieste dagli adempimenti fiscali e consentendo una maggiore sicurezza sulla correttezza e veridicità dei dati. Stiamo inoltre innovando altre componenti al nostro interno: in particolare, l’utilizzo di nuovi strumenti di Business Intelligence duttili e performanti ha permesso di migliorare la quantità e la qualità delle analisi, rendendo più veloci molte attività come, per esempio, la predisposizione dei Kpi o la definizione del budget. Sergio Grassi, Cfo di Cgt -Compagnia Generale Trattori Chi oggi occupa un ruolo come quello del Cfo deve porsi come un trascinatore e una guida anche dei processi di digitalizzazione, in primis per la necessità di poter disporre di informazioni e analisi precise e in tempi rapidi. Il nostro gruppo è cresciuto molto negli ultimi tre anni ed è aumentata la complessità nella gestione dei prodotti, dei segmenti, dei brand e dei


to più mutevole di un tempo. Giulio Erpici, Group Cfo di Cimbali Group La transizione al digitale del mondo Finance sta seguendo un percorso organico

e progressivo. L’introduzione dell’Erp Sap e, ora, il passaggio a S/4Hana si accompagnano allo sviluppo di una soluzione di Business Intelligence costruita su Microsoft PowerBi, oggi estesa a diversi processi non solo di natura

Immagine generata dall'AI

canali. Per questo abbiamo lavorato per riuscire a costruire una vista articolata su tutto il business e soddisfare la richiesta del management di poter effettuare frequenti controlli e revisioni della pianificazione, in relazione a uno scenario mol-

43


EXECUTIVE ANALYSIS | Networking TRASFORMAZIONE DIGITALE

finanziaria, ma per esempio anche legati alla customer experience, alla logistica o all’informazione scientifica. Tutte queste informazioni vengono rese disponibili ai vari stakeholder dell’azienda e si tratta di un elemento fondamentale per fare revisioni delle strategie e dei piani a breve e medio termine. Giuseppe Andreano, Cfo di Dompé Farmaceutici La Divisione Finance di Edison ha inaugurato un nuovo capitolo nel suo impegno per l’efficienza e l’innovazione attraverso la creazione del dipartimento Finance Systems & Process Continuous Improvement. Essa riveste un ruolo cruciale nell’evoluzione delle pratiche aziendali, puntando a ottimizzare i processi esistenti anche sfruttando le opportunità offerte dalle nuove tecnologie. A tale scopo il team si è arricchito di figure che possiamo definire “bilingue”, il cui bagaglio di competenze integra le conoscenze finanziarie e l’expertise informatica, per consentire una comunicazione fluida fra l’Ict con le diverse funzioni del settore Finance. Attualmente ci concentriamo sull’applicazione dei modelli d’intelligenza artificiale per ottimizzare i processi chiave. In particolare, ne stiamo esplorando l’integrazione per supportare attività quali l’analisi dei documenti e delle previsioni o la predisposizione del reporting, tutti ambiti in cui crediamo si possa ottenere una significativa riduzione dei tempi di elaborazione e un miglioramento della precisione. Ronan Lory, Cfo di Edison Abbiamo intrapreso un’evoluzione delle nostre strategie con la convinzione che oggi sia importante la velocità, oltre che l’integrità del dato, certamente meglio garantita dal formato digitale. Andare oltre significa stringere i tempi della produzione del dato e cominciare a orien44 | FEBBRAIO 2024

tarsi verso la previsionalità, per lasciare più spazio all’interpretazione, all’analisi e alla componente qualitativa. Il percorso è agli inizi e riguarda anche l’evoluzione delle competenze, con l’intento di rafforzare quelle digitali più evolute. Laura Ferrario, Cfo di Euronics In Gewiss il dipartimento Finance supporta la strategia complessiva di crescita dell’azienda nella definizione delle priorità. Fra queste, rientra la digitalizzazione delle performance delle aree aziendali, basata sulla Business Intelligence e su una visualizzazione dei dati più intuitiva e fruibile direttamente dai responsabili funzionali. In un’ottica di ottimizzazione dell’allocazione delle risorse finanziarie, tutte le nostre società lavoreranno convogliando i rispettivi dati di cash in e cash out in un unico contenitore, riuscendo così a bilanciare le chiusure finanziarie giornaliere (cash-pooling project). Abbiamo anche dematerializzato il ciclo passivo, ottenendo un significativo aumento di produttività e una riallocazione dei carichi di lavoro verso altre attività e priorità (ad esempio progetti di sviluppo, sostenibilità, controlling, eccetera). A fronte di un’innovazione pervasiva del Finance, oggi noi assumiamo persone solo se dispongono di competenze digitali significative, arrivando addirittura alla capacità di fare coding. Nicodemo Pezzella, Corporate Cfo di Gewiss La nostra realtà nasce dall’unione di più aziende complementari tra loro appartenenti al settore informatico, con una strategia che prevede l’acquisizione di realtà in vari ambiti, in linea generale mantenendo la continuità del management rispetto alla loro precedente indipendenza. Non solo dal punto di vista tecnologico, ma anche da quello finanziario, il processo di integrazione resta

una sfida costante e determina una progressiva digitalizzazione delle nostre aree. In questa fase, per esempio, stiamo cercando di costruire un team di tesoreria all’interno della holding, costituita a inizio 2023, in modo tale da accentrare tutte le relative gestioni, grazie a un software che noi stessi utilizziamo per aiutare i nostri clienti nel percorso di digitalizzazione e che ha facilitato le operazioni interne anche per Impresoft. Walter Magliulo, Group Cfo di Impresoft Abbiamo lavorato molto sulla capacità di generare analisi anche di tipo predittivo e ci siamo organizzati, a livello sia aziendale sia di struttura finanziaria, per sviluppare le competenze e supportare il business. Oltre ad avere la possibilità di beneficiare della gran quantità di dati a nostra disposizione, che ci aiutano a migliorare la qualità del nostro lavoro, siamo anche consapevoli di quanto sia importante oggi essere veloci. Per questo stiamo progressivamente trasformando i report, passando a dashboard interattive e a sistemi evoluti. Ci sono molte opportunità da cogliere e su questo abbiamo investito molto, avendo ben chiare le nostre priorità. In questo contesto il vecchio Controllo di Gestione cambia pelle e diventa Performance, lavorando a fianco del business per prendere le giuste decisioni e quindi generare più valore. Simona Sanci, leader Finance di Leroy Merlin Superando un passato legato all’utilizzo di sistemi customizzati, da qualche anno abbiamo scelto di passare a livello di gruppo a un Erp standard di mercato, ammodernando dapprima il ciclo passivo e in seguito quello attivo. Anche sul cash flow abbiamo fatto un percorso, che ci consente oggi di poter disporre di informazioni su tutto ciò che riguarda l’ordinato. In tutti questi casi, si tratta


UN BUDGET SEMPRE SOTTO CONTROLLO La survey di Technopolis evidenzia in modo netto le priorità delle aziende per il 2024: ampliare il portafoglio clienti, affinare l’offerta di prodotti o servizi, migliorando l’efficienza operativa. E all’interno dell’efficienza operativa, la voce finanza e controllo è fondamentale. In primis perché è dal controllo oculato e sempre più accurato di quanto viene speso, da chi, quando, dove e come, che a cascata si genera efficienza in tutti i dipartimenti e silos di un’impresa, piccola, media o grande che sia. Questo ormai le aziende lo hanno capito benissimo: indipendentemente dalla tipologia di business, dalla dimensione, dal settore o dai mercati in cui operano, il pieno e puntuale controllo delle spese e la gestione immediata degli imprevisti fanno la differenza. E la fanno nel bilancio, nel continuum di operatività anche di fronte a eventi dovuti a instabilità socio-politiche o calamità naturali, così come nella motivazione e soddisfazione dei propri dipendenti, oltre che di partner e fornitori. Ogni volta che pensiamo che le spese aziendali siano un “di cui”, sbagliamo: più è vitale un dipartimento aziendale, più ha un budget da investire. Meglio lo gestisce e più l’impresa guadagna. In tutti i sensi. Soldo, piattaforma europea con R&D italiano, ha conquistato con la propria rivoluzione migliaia di aziende: in particolare quelle più grandi, con più sedi nel mondo o con personale spesso in viaggio. Offrendo carte aziendali collegate a una potente piattaforma di gestione, aiutiamo a essere più produttivi e performanti, fronteggiando ogni evenienza, dovunque ci si trovi, sette giorni su sette per 24 ore al giorno. I dipendenti usano le carte Soldo nella gestione delle spese aziendali per acquistare ciò di cui hanno bisogno, senza anticipi personali e senza il rischio di sforare il budget. Davide Salmistraro, country manager per l’Italia di Soldo

di raccogliere i dati da diverse fonti, elaborarli e ottenere un output che consente di avere una visibilità all’incirca sui successivi dodici mesi. Lavorando in un settore soggetto a molte variabili, abbiamo bisogno di poter modificare costantemente i nostri piani e intervenire, se necessario, sulla supply chain in tempi rapidi. Roberto Alessandria, Group Cfo di Miroglio Come sappiamo, il settore del trasporto aereo ha subìto un drastico stop all’epoca della pandemia, per cui alcuni processi innovativi sono partiti solo quando la situazione è tornata a un livello prossimo alla normalità. In questo contesto rientra la digitalizzazione di tutto il processo del ciclo passivo, con una reingegnerizzazione complessiva che parte dall’ordine e arriva al pagamento in un’ottica collaborativa. La pandemia e l’avvento dello smart working hanno però anche imposto una modifica delle abitudini lavorative dei dipendenti, consentendoci di accelerare alcuni progetti mirati di

revisione, snellimento e digitalizzazione dei processi interni. Tra questi, per esempio, la completa digitalizzazione del processo di tesoreria, con l’introduzione della firma digitale sui pagamenti anche da remoto e in modalità mobile. Anche l’attività di pianificazione finanziaria si è evoluta e oggi siamo in grado di fare in modo digitalizzato analisi “what if ” in funzione delle modifiche di scenario. Patrizia Savi, chief financial and risk officer di Sea Milano In Siae tutte le attività dell’area Finance sono portate avanti con il supporto della tecnologia. Sul fronte dell’amministrazione e bilancio, l’obiettivo principale è arrivare al one day reporting, ossia la capacità di chiudere conti contabili e gestionali entro il primo giorno di ogni mese. Nel campo della pianificazione e controllo, inoltre, già oggi abbiamo un piano dei conti informatizzato dal quale ricaviamo il conto economico e il bilancio gestionale ripartito per business unit

e per prodotti. In Siae, attualmente, l’utilizzo della tecnologia ci aiuta nella riduzione dei costi e delle lavorazioni manuali, offrendoci inoltre sempre migliori capacità di indirizzare analiticamente le attività di business a supporto della base associativa Francesco Ferrelli, Cfo di Siae Le funzioni Finance e IT non devono essere isole e vivere di vita propria. Noi abbiamo deciso di integrare al nostro interno figure con conoscenze tecnologiche, ma anche di fare in modo che l’IT abbia una visione più in linea con la nostra. I profili ibridi sono quelli chiamati a tradurre il linguaggio dell’uno o dell’altro, per capire e condividere le rispettive necessità. La natura interamente digitale del nostro business fa sì che la tecnologia sia al centro dei progetti di sviluppo, ma il Finance presiede il controllo della strategia, sfruttando una visione più completa sull’azienda. Leo Alcaide, Cfo di Verti 45


ECCELLENZE.IT | Università Sit voluptate di Palermo

L’IPERCONVERGENZA INCONTRA LA CULTURA L’ateneo siciliano si è dotato della tecnologia Nutanix per ottenere una infrastruttura Virtual Desktop scalabile, performante e sicura.

I

perconvergenza e virtualizzazione possono essere alleati dell’insegnamento e dello studio, come dimostra il caso dell’Università di Palermo (UniPa). Fondato nel 1806 per volontà Ferdinando III di Borbone, l’ateneo siciliano è tra i più antichi e più grandi in Italia, contando 15 dipartimenti, oltre 40mila studenti iscritti, 1.700 docenti e 1.500 addetti a mansioni tecniche e amministrative. Negli ultimi anni era emersa la necessità di potenziare l’infrastruttura IT dell’ateneo, rendendola più performante, scalabile e resiliente. Si voleva, inoltre, consentire ai docenti di poter accedere alle proprie postazioni di lavoro anche da remoto. Grazie a un finanziamento erogato dall’Autorità Regionale per l’Innovazione Tecnologica, nel novembre del 2022 l’università ha aperto la gara per la selezione del partner Ict. Il vincitore della gara, Teleconsys, ha avviato i lavori a fine 2022 per arrivare già nel marzo del 2023 a implementare due cluster di calcolo iperconvergenti da cinque nodi ciascuno, basati su tecnologia Nutanix. Su essi poggia una Virtual Desktop Infrastructure basata su software di Citrix. “Abbiamo scelto Citrix e Nutanix perché, oltre a soddisfare tutti i requisiti del bando di gara, proponevano una tecnologia che di fatto era l’unica

46 | FEBBRAIO 2024

LA SOLUZIONE Sono stati realizzati due cluster da cinque nodi iperconvergenti basati su software Nutanix (sistema operativo Acropolis e sistema di gestione Prism) e software di Virtual Desktop Infrastructure di Citrix. Gli utenti accedono da remoto alla postazione di lavoro tramite Windows Remote Desktop. capace di garantire la totale apertura verso tutti gli hypervisor e gli ambienti di lavoro”, spiega Riccardo Uccello, dirigente dell’area sistemi informativi di UniPa. Uno dei cluster è dedicato prevalentemente alle circa 1.500 utenze amministrative e tecniche, ed è configurato soprattutto per erogare una grande capacità computazionale. L’altro, destinato all’attività didattica dei laboratori, permette a un massimo di 300 studenti di collegarsi in contemporanea e include anche capacità di calcolo grafiche (tramite Gpu) nell’ottica di future applicazioni di AI. “In una prima fase, da marzo a maggio 2023, abbiamo attivato l’infrastruttura con la soluzione Citrix e gestito il tema dell’autenticazione”, racconta Pietro Brignola, responsabile dell’area sistemi informativi di UniPa. “Oggi Citrix, che punta all’active directory, è fruibile senza soluzione di continuità in modalità single-sign-on per tutto l’ecosistema di servizi di UniPA”. In una seconda fase sono state attivate licenze Windows Remote Desktop e a giugno il sistema di identificazione era allineato e performante. La terza fase è stata l’onboarding degli utenti, seguito da

attività di formazione sui nuovi strumenti. “Sono stati raggiunti tutti gli obiettivi in termini di prestazioni, resilienza e scalabilità che ci eravamo prefissati”, assicura Brignola. “Tra le altre cose, gli utenti possono accedere in sicurezza all’infrastruttura, senza bisogno di Vpn, da qualsiasi luogo del mondo”. Gli utenti si collegano alle macchine virtuali accedendo tramite single-sign-on e, all’occorrenza, con autenticazione a più fattori. Dopo ogni accesso ritrovano i propri dati e le applicazioni a cui sono abilitati, come se fossero davanti al proprio Pc. “La tecnologia Nutanix”, rimarca Pietro Paolo Corso, delegato ai progetti extraordinari e alle infrastrutture digitali di UniPa, “è stata scelta sia per le sue caratteristiche di eccellenza, in termini di performance e funzionalità, sia perché è l’unica aperta a tutti gli hypervisor. Una caratteristica che ci consentirà di poterci aprire a collaborazioni con soggetti terzi in un’ottica di servizio per il territorio regionale e non solo”. Ulteriori sviluppi sono all’orizzonte. Uno è quello, già citato, dell’uso del cluster dedicato alla didattica per eseguire applicazioni di AI. L’altro è un più ampio ridisegno dei processi, che comporterà un aggiornamento dell’hardware in uso. “Stiamo guardando all infrastruttura iperconvergente non solo come architettura di servizio alla componente Vdi, ma anche come punto di convergenza di tutte le architetture computazionali, che vorremmo fossero orchestrate dalla componente applicativa Nutanix”, prosegue Brignola. “Quindi stiamo valutando la sostituzione di altri apparati legacy, al momento presenti nel vecchio data center, per proseguire nel processo di rinnovamento e apertura verso l’esterno, che oltretutto ci consentirà notevoli economie in termini di gestione e manutenzione”. Si pensa, infine, al potenziamento della resilienza: già oggi i due cluster di UniPA possono supportarsi a vicenda in caso di malfunzionamenti o picchi di carico, ma si sta valutando la realizzazione di un vero e proprio sistema di disaster recovery basato su tecnologia Nutanix.


ECCELLENZE.IT | Macron

SUL DIGITALE E SULL’ERP SI COSTRUISCE IL FUTURO L’azienda sinonimo di abbigliamento tecnico sportivo ha migrato i processi di headquarter su Sap S/4Hana Cloud. Così può puntare crescere in modo scalabile e sostenibile.

I

l marchio Macron, noto per la sua impronta innovativa nel campo dell’abbigliamento tecnico sportivo, sta compiendo passi significativi nel rafforzare il proprio impegno verso l'innovazione e il miglioramento continuo. Il 2024 si è aperto con una serie di evoluzioni chiave, sia fisiche sia digitali, che delineano il futuro della società. Il Macron Campus, sviluppato nella città di Bologna, è il centro focale di tale trasformazione. Questo spazio multifunzionale non solo ospita uffici e showroom, ma include anche campi sportivi dedicati ai test dei materiali, aree per attività produttive e spazi destinati allo stoccaggio e alla spedizione dei prodotti finiti. Un ambiente che incarna la filosofia di Macron, incentrata sulla creazione di prodotti di alta qualità attraverso l’innovazione continua. Parallelamente, il gigante dell’abbigliamento sportivo ha deciso di rivoluzionare il proprio ambiente di gestione aziendale, con il passaggio all’Erp di Sap S/4Hana Cloud. Questa mossa mira a ottimizzare le attività di acquisto, vendita, logistica e produzione, al fine di offrire un’esperienza ancora più definita ai clienti e ai partner. Il progetto è stato avviato nel novembre 2021, con il primo rilascio avvenuto poi nell'ottobre 2022 nelle aree di amministrazione, finanza e controllo a livello di gruppo. Il processo di aggiornamento è proseguito nel corso del 2023, estendendosi ora su tutti i processi dell'headquarter. È da sottolineare che ogni fase di questo ambizioso progetto è stata orchestrata con la massima attenzione per garantire la

continuità operativa a tutti i clienti e partner coinvolti. Macron sta anche rivoluzionando la propria interfaccia esterna con l’imminente lancio di un nuovo portale B2B-Extranet. Questa piattaforma renderà più agevole e veloce l’interazione e lo scambio di informazioni e dati tra l’azienda, i clienti LA SOLUZIONE S/4Hana Cloud è la versione Software as-a-Service dell’Erp di Sap e comprende una suite di applicazioni aziendali integrate. Fondata sul database Sap Hana, sfrutta l’elaborazione in-memory e dà accesso ai dati in tempo reale.

e i suoi partner. Con oltre novanta club sportivi professionistici e nazionali vestiti, l’80% del fatturato generato all'estero e una rete vendita presente in oltre trenta paesi attraverso più di 170 Sport Hub, l’azienda sta così consolidando la sua presenza globale. “Qualità e sviluppo aziendale passano anche dagli strumenti innovativi che migliorano i processi lavorativi e il rapporto con i clienti e partner”, ha indicato Gianluca Pavanello, Ceo di Macron. “In questo percorso, intendiamo portare al prossimo livello la nostra casa digitale. Investiamo costantemente nel futuro facendo scelte mirate e di alto profilo volte a supportare uno sviluppo scalabile e sostenibile del nostro business a livello globale, proprio come sta avvenendo con il progetto Macron Campus”. 47


ECCELLENZE.IT | Quadrifoglio Sit voluptate Group

DALL’IT ALL’OT, RETI SENZA SEGRETI Con la tecnologia di Claroty e i servizi di Crowdstrike è stata realizzata una soluzione di mappatura delle vulnerabilità, monitoraggio e risposta alle minacce che garantisce una visibilità completa.

L

a cybersicurezza dev’essere solida, ben costruita e integrata nell’ambiente circostante, senza lasciare angoli vuoti. Proprio come i mobili per uffici, ambienti residenziali e hospitality che da trent’anni Quadrifoglio Group progetta, produce e commercializza. L’azienda trevigiana non era soddisfatta della soluzione di cybersicurezza in uso, che garantiva solo un servizio di monitoraggio delle minacce, tralasciando la risposta e la remediation. Tale soluzione, inoltre, tempi aveva segnalato un elevato numero di falsi positivi, lasciando invece scoperti alcuni aspetti della superficie informatica di Quadrifoglio. “Forti di un’esperienza ultratrentennale, abbiamo sempre cercato di mantenerci al passo con i tempi, sviluppando un’azienda basata su tecnologie all’avanguardia, per garantire ai nostri clienti il miglior prodotto possibile”, racconta Daniele Malutta, IT manager di Quadrifoglio Group.

48 | FEBBRAIO 2024

LA SOLUZIONE Claroty xDome esegue un inventario completo delle risorse Internet of Things, rileva le eventuali vulnerabilità e valuta i rischi, oltre a controllare la segmentazione della rete. I servizi Mdr Falcon Complete di Crowdstrike garantiscono ricerca proattiva delle minacce e reazione agli eventuali attacchi. Ciò che viene monitorato sulla piattaforma di Claroty può essere visualizzato e correlato anche su CrowdStrike Falcon. “Da qui l’esigenza di aggiornare anche il nostro sistema di sicurezza. Come qualsiasi altra azienda del settore industriale, infatti, un fermo di produzione sarebbe per noi insostenibile”. Con il supporto del system integrator Servintek, è partita la ricerca di una diversa e più completa piattaforma, capace di proteggere i server e i client in modo continuativo, 24 ore al giorno e sette giorni su sette, e capace inoltre di proteggere i sistemi di Operational Technology (OT). In contemporanea Quadrifoglio ha ricevuto un finanziamento destinato all’ammodernamento (e anche al potenziamento della sicurezza) dei propri sistemi di produzione in ottica di industria 4.0. La scelta è ricaduta su Claroty, società specializzata nella protezione di sistemi cyber-fisici (Cps) per ambienti industriali, e su CrowdStrike, che invece propone servizi di rilevamento e risposta gestiti (Managed Detection and Response, Mdr). Servintek ha proposto al cliente una soluzione integrata, composta da due elementi: xDome, ovvero la piatta-

forma Software as-a-Service di Claroty per il monitoraggio degli ambienti industriali, e i servizi gestiti di monitoraggio e risposta Mdr Falcon Complete di CrowdStrike. L’installazione, terminata nel marzo 2023, ha permesso sin da subito a Quadrifoglio Group di ottenere piena visibilità e proteggere i propri ambienti OT e IT, intervenendo proattivamente per correggere le vulnerabilità e impedire violazioni che avrebbero un potenziale impatto sulla produzione. “L’offerta integrata di Claroty e CrowdStrike è ciò di cui avevamo bisogno per mappare e analizzare in modo chiaro tutti i dispositivi e i rischi collegati alla nostra rete e in pochi mesi dall’implementazione ha già superato ogni nostra aspettativa”, testimonia Malutta. L’azienda veneta ha potuto mappare le proprie reti Lan e Wlan e aggiornare i sistemi OT, nonché gli endpoint che compongono l’ambiente informatico. Per la prima volta sono state avviate attività di monitoraggio degli utenti che si collegano dall’esterno per effettuare interventi di manutenzione. Ancor più significativo è il fatto che Quadrifoglio abbia potuto effettuare un’analisi delle vulnerabilità e dei rischi correlati alla propria rete e ai dispositivi. Poiché la gestione di ogni singola vulnerabilità non è fattibile, la tecnologia di Claroty realizza una simulazione di decrescita del rischio, stilando una serie di raccomandazioni da seguire: in questo modo Quadrifoglio Group può scegliere quali azioni implementare e con quale priorità. Alla luce dei risultati raggiunti, l’azienda ha intenzione di estendere entro la fine dell’anno la protezione targata Claroty a tutti i dispositivi Internet of Things non ancora raggiunti.


ECCELLENZE.IT | Auroflex

INTELLIGENZA E AUTOMAZIONE PER LE ETICHETTE DI LUSSO La società specializzata in luxury label printing ha velocizzato molti processi e ha ampliato le possibilità grafiche offerte.

A

nche le etichette possono essere di lusso, se realizzate su materiali di pregio e se frutto di progetti e concept personalizzati: di questo si occupa Auroflex, uno dei nomi principali del luxury label printing. Fondata negli anni Settanta nel trapanese, l’azienda realizza su grandi, piccole e micro tirature etichette adesive per clienti di vari settori, dall’agroalimentare (e in particolare vini) alla cosmesi. Ogni creazione nasce dall’ingegno dei designer che lavorano per Auroflex ma anche dalle diverse tecnologie di stampa e nobilitazione delle etichette impiegate. Negli ultimi anni, poi, l’azienda ha deciso di trasformare i propri processi attraverso la digitalizzazione, l’automazione e l’intelligenza artificiale, così da poter esplorare nuovi mercati e opportunità. Per farlo, ha scelto di affidarsi a Insight. “Con Insight abbiamo iniziato a disegnare e realizzare le prime fasi del progetto, e quando abbiamo sentito la necessità di andare oltre, siamo sempre riusciti a trovare la soluzione migliore tra varie alternative”, racconta Fabio Butera, Ceo di Auroflex. Con il supporto e l’esperienza del system integrator è stato avviato un percorso di trasformazione digitale i cui ingredienti sono l’adozione di algoritmi di computer vision e intelligenza artificiale generativa (GenAI), l’e-commerce e l’automazione di processo (Robotic Process Automation). I canali di vendita sono stati rinnovati su più fronti: il sito Web

è stato trasformato in un sito di Web ecommerce, che include anche un’area per l’interazione con i grafici collaboratori esterni dell’azienda ed è predisposto per l’utilizzo della GenAI. Di fatto, quello digitale è già pronto per diventare, in futuro, il principale canale di vendita di Auroflex. I servizi di quotazione delle lavorazioni personalizzate e di consulenza grafica per lo sviluppo di idee creative personalizzate sono ora digitalizzati e questo, tra le altre cose, rende l’esperienza utente più immediata e anche più omogenea. Gli algoritmi di visione computerizzata permettono di analizzare un progetto grafico e definire la sequenza delle lavorazioni necessarie, i LA SOLUZIONE Attraverso un nuovo sito di e-commerce e con strumenti di AI generativa sono stati digitalizzati diversi processi, dalla consulenza, alla vendita, alla gestione degli ordini, fino al completamento dei progetti grafici per le etichette. La Robotic Process Automation velocizza l’ordine dei cliché di stampa.

materiali e gli inchiostri speciali a corredo, ottenendo anche stime di tempi e costi. I modelli AI, in questa fase, producono indicazioni aggiuntive e raccomandazioni su come ottimizzare il risultato finale. Il progetto grafico può quindi essere renderizzato in 3D e commentato o completato con testi (anche generati dall’AI, ma lasciando sempre l’approvazione e l’ultima parola ai professionisti di Auroflex). Ultimata la definizione della commessa, la Robotic Process Automation permette di automatizzare i processi di ordine dei cliché di stampa ai fornitori. Tutto questo migliora la produttività delle persone e velocizza i diversi flussi di lavoro di consulenza, ordine, progettazione, produzione e fornitura al cliente. Auroflex ha quindi ottenuto un taglio dei tempi necessari per gli ordini (pari al 20%) e dei preventivi (80%), un drastico calo del tasso di difettosità (ridotto dell’80%), e inoltre ha quadruplicato le possibilità grafiche offerte. “Ho apprezzato di Insight la grande professionalità e la capacità di avere più soluzioni disponibili, per il cloud ma non solo”, testimonia Butera. “Abbiamo trovato professionalità, disponibilità di soluzioni e di alternative, e competenze”. 49


APPUNTAMENTI

CYBERSECURITY SUMMIT

Quando: 28-29 febbraio 2024 Dove: Hotel NH Collection Milano CityLife, Milano Perché partecipare: giunto alla dodicesima edizione, l’evento di The Innovation Group dedicato alla sicurezza informatica quest’anno affronta temi caldi come la compliance alle nuove normative europee, il ransomware e il ruolo dell’AI al servizio degli attacchi e della difesa.

CIO LEADERS SUMMIT

Quando: 14-16 marzo 2024 Dove: Grand Hotel Dino, Baveno (VB) Perché partecipare: accessibile su invito per chief information officer e funzioni equipollenti, l’evento propone la forma dei tavoli di lavoro tematici, coordinati da esponenti del mondo accademico.

AI FORUM

Quando: 4 aprile 2024 Dove: Palazzo Mezzanotte, Milano Perché partecipare: l’evento annuale di AIxIA (Associazione Italiana per l’Intelligenza Artificiale), organizzato con il supporto di Digital Events e The Innovation Group, è alla sua sesta edizione. Oltre alla conferenza plenaria sono previsti workshop tematici e un’area espositiva.

SMART MANUFACTURING SUMMIT2024 METAFACTORY: TRA SOGNO E REALTÀ

LOCATION

MILANO - 9 e 10 Aprile 2024 NH Collection Milano CityLife, Milano

Il settore manifatturiero è di fronte a molteplici sfide: alla trasformazione digitale, quella del paradigma “4.0”, oggi si affiancano gli obiettivi della transizione verde e una nuova visione di industria che rispetta il Pianeta e si fonda sulla cooperazione tra uomo e macchine. È l’industria 5.0, sostenibile, resiliente e incentrata sull’uomo, ma che può esistere solo grazie a tecnologie come l’AI generativa, i digital twin, il 5G, la robotica collaborativa, l’IoT e gli analytics.

INFO www.theinnovationgroup.it

MAIL carlotta.difalco@tig.it

50 | FEBBRAIO 2024

SMART MANUFACTURING

Quando: 9-10 aprile 2024 Dove: Hotel NH Collection Milano CityLife, Milano Perché partecipare: si discuterà di robotica, Internet of Things, digital twin, 5G e intelligenza artificiale, e del passaggio dal paradigma 4.0 a quello di industria 5.0, sostenibile e responsabile.

NETCOMM FORUM

Quando: 8-9 maggio 2024 Dove: Allianz MiCo Milano Perché partecipare: per lo storico appuntamento del Consorzio del Commercio Digitale Italiano, alla diciannovesima edizione, sono attesi quest’anno oltre 30mila partecipanti. In programma conferenze plenarie e centinaia di workshop.


Events & Webinar Market Research Consulting & Advisory Digital Marketing Go to market services Content creation Storytelling ICT Magazines

www.tig.it 02 87285500


Cybersecurity 5.0: interconnessa, sostenibile, human-centric

MILANO - 28 e 29 Febbraio 2024 NH Collection Milano CityLife, Milano

MAIN PARTNER:

In questa 12esima edizione, il CYBERSECURITY SUMMIT di The Innovation Group si focalizzerà sui temi più attuali e di dibattito della sicurezza informatica, tra cui:  la pianificazione della cyber resilienza e di piani di gestione delle crisi  il percorso verso la compliance al regolamento DORA e alla direttiva NIS2  la valutazione del rischio per orientare gli investimenti  l’evoluzione del ruolo dei Ciso in azienda  la cybersicurezza preventiva  il ransomware e l’importanza di un piano di risposta Nel corso del Summit, inoltre, saranno presentati i risultati della ricerca “Cyber Risk Management 2024”, che evidenzia la maturità dei programmi di gestione del rischio cyber nelle aziende di diversi settori.

INFO

MAIL

www.theinnovationgroup.it

paola.ferrari@tig.it

SPONSOR:


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.