Technopolis 53

Page 1

www.technopolismagazine.it

STORIE DI ECCELLENZA E INNOVAZIONE

NUMERO 53 | LUGLIO 2022

TECNOLOGIA E FIDUCIA PER CONQUISTARE I CLIENTI Tra nuove frontiere di intelligenza artificiale e metaverso, la customer experience non può dimenticare i valori di trasparenza ed empatia.

AGRIFOOD

Infrastrutture, competenze, investimenti: l'agricoltura italiana deve lavorare su tutti i fronti per cogliere i vantaggi del digitale.

CYBERSICUREZZA

Tra ransomware, phishing e minacce interne, il rischio informatico nelle aziende è talvolta sottovalutato.

EXECUTIVE ANALYSIS

Machine learning e IoT industriale si fanno largo tra le imprese manifatturiere. Il rapporto fra IT e OT può essere migliorato.


The Innovation Group Innovating business and organizations through ICT

Events & Webinar Market Research Consulting & Advisory Digital Marketing Go to market services Content creation Storytelling ICT Magazines

www.theinnovationgroup.it segreteria.generale@theinnovationgroup.it 0287285500


SOMMARIO 4 STORIA DI COPERTINA STORIE DI ECCELLENZA E INNOVAZIONE

N° 53 - LUGLIO 2022 Periodico mensile registrato presso il Tribunale di Milano al n° 378 del 09/10/2012 Direttore responsabile: Emilio Mango Coordinamento: Valentina Bernocco Hanno collaborato: Roberto Bonino, Rebecca Parsons, Elena Vaciago Foto e illustrazioni: iStockphoto, Adobe Stock Images, Shutterstock, Unsplash, Pixabay

Tecnologie e fiducia nel cuore dell’esperienza Il metaverso è un nuovo modo di immaginare Interazioni human-like con l’intelligenza artificiale Alla ricerca dell’empatia, anche digitale

11 IN EVIDENZA

Tecnologia ostile o responsabile? Dipende da noi Nel multicloud, ecosistema vuol dire flessibilità La tecnologia alimenta l’economia circolare Un retail fatto di dati e di cloud Vendite di Pc in calo, la guerra non aiuta Parte da Milano il cloud tricolore di Google Etica e profitto negli investimenti green Il business? È una sfida con sé stessi Un Salone del Mobile amplificato dal digitale

22 AGRIFOOD TECH Agricoltura digitale, l’Italia deve ancora “seminare”

24 RETI 5G

Le potenzialità della connettività wireless

26 CYBERSECURITY Editore e redazione: Indigo Communication Srl Via Palermo, 5 - 20121 Milano tel: 02 87285220 www.indigocom.it Pubblicità: The Innovation Group Srl tel: 02 87285500 Stampa: Ciscra SpA - Arcore (MB) © Copyright 2021 The Innovation Group Srl Tutti i diritti di proprietà letteraria e artistica riservati. Il Sole 24 Ore non ha partecipato alla realizzazione di questo periodico e non ha responsabilità per il suo contenuto. Pubblicazione ceduta gratuitamente.

La sicurezza è a volte un’illusione

34 INDUSTRIA 4.0 Anno zero per la servitization italiana

38 EXECUTIVE ANALYSIS

L’OT guida il percorso digitale della manifattura La tecnologia al servizio dell’efficienza Data-driven banking, un viaggio alle prime tappe Velocità e consistenza, due esigenze primarie

46 ECCELLENZE

L’Erbolario Consiglio Nazionale delle Ricerche Atlantia Vivisol

50 APPUNTAMENTI


Foto di Glenn Carstens Peters da Unsplash

STORIA DI COPERTINA | CUSTOMER EXPERIENCE

TECNOLOGIE E FIDUCIA NEL CUORE DELL’ESPERIENZA Il rapporto fra aziende e utenti che acquistano prodotti o servizi continua a trasformarsi, tra pagamenti biometrici, live shopping e le promesse del metaverso.

4

| LUGLIO 2022

L’

esperienza è tutto, o quasi. Oggi, ancor più che nel recente passato, la customer experience è diventata una priorità per le aziende che vendono beni e servizi. Dall’online al mondo offline, dal B2C al B2B, in qualsiasi mercato si operi è imperativo considerare le esigenze del cliente in tutte le attività, a partire dallo sviluppo prodotto e fino alla comuni-

cazione, alla vendita e al post vendita. Lo dicono i numeri: secondo le stime di Juniper Research, il giro d’affari delle cosiddette Customer Data Platform oggi vale circa 1,7 miliardi di dollari ed è destinato a crescere del 250% nell’arco di cinque anni, arrivando nel 2027 a un giro d’affari annuo di 6 miliardi di dollari. Si tratta di piattaforme software che raccolgono, classificano e correlano


dati sulle azioni, le abitudini, i gusti, i desideri, l’identità degli utenti quando fanno acquisti online o in negozio, quando navigano sul Web, interagiscono con i social media o anche, semplicemente, quando scelgono di leggere o di cestinare un’email. Dal punto di vista della domanda, il mercato è alimentato soprattutto dagli operatori di e-commerce e dai retailer, mentre dal punto di vista dell’offerta i nomi di riferimento sono Oracle, Salesforce, Microsoft, Tealium, per citare i principali. Se i dati (la loro disponibilità, ma soprattutto la capacità di interpretarli) sono le fondamenta di qualsiasi buona strategia di customer experience, a valle ci sono le applicazioni, le interfacce, le interazioni. E questo è un mondo in costante mutamento, che spesso accoglie le ultime frontiere della tecnologia in anticipo rispetto ad altri ambiti: pensiamo ai chatbot che hanno in parte sostituito il personale umano nel servizio clienti, o agli algoritmi per l’analisi delle azioni e conversazioni online, che permettono di personalizzare le azioni di marketing in modi sempre più sofisticati. Omnicanalità e personalizzazione sono ancora i modelli di riferimento, ma sempre più è necessario metterli in pratica sfruttando tecnologie di automazione e di intelligenza artificiale che aiutino a gestire grandi volumi di dati senza restarne sommersi, e possibilmente in tempo reale. Perché il cliente, effettivo o potenziale, il tempo non ce l’ha quasi mai e la soglia di tolleranza verso una user experience non soddisfacente si abbassa progressivamente. Colpa (o merito) della banda ultralarga, che ci ha abituati a navigare in Internet senza troppi rallentamenti, e delle applicazioni per smartphone, progettate per essere user friendly. Similmente, per ridurre il tasso di abbandono anche le procedure di pagamento devono essere facili e snelle,

oltre che sicure. A tal proposito, viene da domandarsi se prenderanno il largo, finalmente, i pagamenti biometrici. Juniper Research ne è convinta e pronostica che il giro d’affari dei servizi di mobile payment basati su riconoscimento facciale, lettura dell’impronta digitale o altri metodi biometrici triplicherà il proprio valore nell’arco di cinque anni. Si passerà dai 332 miliardi di dollari del 2022 ai 1,2 miliardi di dollari del 2027 ed Apple Pay, naturalmente, sarà uno dei protagonisti. Il bisogno di trasparenza

Se l’usabilità delle interfacce è un aspetto centrale della CX, altrettanto lo è la trasparenza. Purtroppo è ancora diffuso, specie nel settore di viaggi e turismo, il ricorso ai cosiddetti dark pattern: letteralmente, “percorsi oscuri” con cui un sito Web o un’applicazione induce l’utente ad acquistare servizi aggiuntivi senza quasi accorgersene. Nella migliore delle ipotesi, il cliente si sentirà raggirato ed eviterà di rivolgersi ancora a quell’azienda o marchio; nella peggiore, potrebbero scattare denunce e class action. In ogni caso, se la fiducia si erode servirà poi molto tempo per ricostruirla. Per garantire una CX soddisfacente e presupposto di fidelizzazione, dunque, le buone intenzioni sono importanti almeno quanto la tecnologia. Peraltro la voglia di trasparenza emerge chiaramente dalle indagini di mercato più recenti (ne parliamo anche a pagina 9), come quella realizzata tra gennaio e febbraio scorsi da Adobe su oltre 16mila consumatori e duemila dirigenti aziendali di 15 nazioni: il 73% degli utenti sospetta che le compagnie possano usare i loro dati per scopi diversi da quelli dichiarati; oltre la metà delle delle persone (55%) non comprerebbe mai più da un’azienda che ha dimostrato di non meritare fiducia, e i giovani della Generazione Z si mostrano particolar-

mente intransigenti su questo punto (il 60% non acquisterebbe più). Queste tendenze valgono anche nel nostro Paese, come suggerito da una ricerca di Salesforce che ha coinvolto oltre 17mila consumatori e manager aziendali in 29 nazioni: per l’87% degli intervistati italiani, in tempi di cambiamento il valore della fiducia è diventato ancora più importante; per l’89%, l’esperienza fornita da un’azienda non è secondaria alla qualità dei suoi prodotti o servizi. La scommessa del metaverso

Oltre ai chatbot, tecnologia già consolidata e in continuo miglioramento, le frontiere più innovative dell’esperienza clienti sono probabilmente i pagamenti biometrici, la realtà virtuale e quella aumentata. Queste ultime non hanno finora trovato applicazione se non in sperimentazioni di nicchia, ma lo scenario potrebbe cambiare grazie ai grandi investimenti di Facebook in ciò che Mark Zuckerberg ha chiamato “metaverso”, ovvero una dimensione digitale immersiva e non volatile, che continua a svilupparsi di sessione in sessione e nella quale l’utente si cala in forma di avatar. Il successo o insuccesso di questa scommessa dipenderà, probabilmente, non tanto dalle tecnologie quanto dalla loro adozione di massa, perché attualmente i visori di realtà virtuale sono ancora un oggetto costoso e non appetibile per l’utente medio. E dipenderà, in egual misura, dalla capacità dei social network di attrarre aziende inserzioniste, disposte a pagare per pubblicizzare sé stesse nel metaverso. Intanto alcune sperimentazioni fanno scuola, anche nel made in Italy: Holding Moda, gruppo che racchiude diversi marchi di abbigliamento di imprese nostrane medie e piccole, anche artigianali, ha allestito il proprio showroom parigino con visori e guanti tattili (dotati di tecnologia aptica) che permettono ai visitatori di esplorare 5


STORIA DI COPERTINA | CUSTOMER EXPERIENCE

OSTACOLI E STIMOLI NELLE AZIENDE ITALIANE La nuova, rafforzata centralità della customer experience (CX) trova conferma nella “Digital Business Transformation Survey 2022” condotta da The Innovation Group su un campione di 213 imprese private e organizzazioni pubbliche italiane. La quota di aziende che considerano il miglioramento dell’esperienza dei clienti come una priorità per il 2022 è intorno al 24%: un dato non altissimo, ma in forte crescita (+71%) rispetto a quanto emerso dall’edizione precedente della ricerca. Inoltre la seconda priorità più citata (39% degli intervistati), cioè il lancio di nuovi prodotti o servizi, è un tema indirettamente legato alla customer experience. A che punto siamo, oggi, in Italia? Domina l’idea di una certa maturità, reale o percepita che sia: il 65% del campione ritiene che la propria società od organizzazione abbia già un’elevata competenza in ambito CX, mentre il 27% rientra nella categoria dei “principianti” e appena l’8% in quella dei completi “inesperti”. Le aziende con una competenza elevata sono più orientate a offrire una eccellente CX e a migliorare la customer satisfaction, mentre quelle meno mature puntano direttamente all’aumento delle vendite e all’acquisizione di nuovi clienti (senza però preoccuparsi troppo di fidelizzarli o di trasformarli in portavoce del loro marchio). A tendere, si può prevedere un graduale spostamento di aziende ed enti pubblici verso una maggiore maturità in ambito CX, ma questo non sarà un percorso privo di ostacoli. I principali sono la scarsa collaborazione fra l’IT e il business, la difficoltà nell’integrare i diversi touchpoint (cioè i “punti di contatto” tra l’utente e l’azienda o marchio), i costi elevati degli investimenti che andrebbero sostenuti, e ancora il basso grado di adozione di tecnologie adeguate, l’assenza di una strategia chiara, la mancanza di competenze e il fatto che non venga percepito il valore della customer experience. Se questi sono gli ostacoli, d’altra parte non mancano gli strumenti che aiutano a condurre attività di CX sempre più evolute. Il primo, fondamentale, è il Crm (customer relationship management), a cui fa ricorso il 61% delle organizzazioni del campione. Seguono i software che misurano il grado di soddisfazione degli utenti (28%), quelli di analytics di tipo Big Data (24%), le piattaforme di gestione dei dati (data management platform, 19%), gli strumenti di servizio clienti automatizzati come i chatbot (14%), le applicazioni di chiamata e videochiamata (13%) e l’Internet of Things (11%). Solo il 2% già usa applicazioni di realtà aumentata rivolte ai clienti, ma questa è una frontiera promettente e che inizia a prendere piede in ambiti come l’immobiliare, l’arredamento e la cosmesi. collezioni di abiti non presenti in sede, verificandone la qualità e le caratteristiche dei tessuti. Peraltro il progetto è stato curato da un’azienda italiana, la fiorentina Monogrid, a testimonianza del fatto che nel nostro piccolo possiamo rappresentare l’eccellenza anche nel campo del made in Italy, per così dire, digitalizzato.

Foto di Sara Kurig da Unsplash

All’inseguimento della Cina

6

| LUGLIO 2022

Calarsi in un mondo virtuale immersivo può essere coinvolgente, ma anche restando più tradizionalmente davanti allo schermo di un Pc o smartphone è possibile vivere esperienze d’acquisto interattive ed empatiche. Nato in Cina da oltre un decennio, il fenomeno del live shopping (anche detto livestream shopping) ha accelerato la propria crescita solo recentemente, specie grazie agli

investimenti di colossi come Amazon, Google (tramite YouTube), Meta (Facebook e Instagram), TikTok, Twitter e Pinterest. Gli eventi trasmessi in diretta streaming, integrati con strumenti per l’interazione e l’acquisto, servono innanzitutto ad attirare traffico, amplificando la notorietà di un marchio e le sue campagne di marketing. Inoltre hanno dimostrato di poter aumentare il tasso di conversione: gli utenti non solo guardano, ma comprano. Secondo le stime della società di consulenza e analisi Coresight Research, nel 2021 in Cina il mercato del live shopping ha raggiunto un valore di 300 miliardi di dollari, mentre negli Stati Uniti ha toccato appena quota 11 miliardi ma salirà a 25 miliardi già nel 2023. Valentina Bernocco


IL METAVERSO È UN NUOVO MODO DI IMMAGINARE La dimensione virtuale immersiva potrà rivoluzionare l’esperienza dei consumatori, ma le big tech dovranno fare da apripista, mobilitando grandi investimenti. La customer experience è a un punto di svolta, oppure il metaverso sarà un fuoco di paglia? Ne abbiamo parlato con Marco Zanuttini, fondatore e Ceo di TechStar. La giovane azienda, nata nel 2021, realizza soluzioni e progetti basati su realtà aumentata, virtuale e intelligenza artificiale. Quali sono oggi le tecnologie più innovative per la customer experience?

Nell’evoluzione dei sistemi informativi, inspiegabilmente, l’interfaccia utente dei software è sempre rimasta indietro. Abbiamo sempre un menu riferito a una struttura ad albero, che permette di arrivare a una pagina, poi a un’altra, per finire magari su una landing page con un modulo da compilare. Comunicare, comprare, interagire, iscriversi a un servizio, ricavare delle informazioni: la struttura è sempre simile, mentre ogni utilizzatore potrebbe avere necessità di una sequenza di navigazione che non è quella progettata. Perché allora non creiamo software che adattano la propria struttura all’esperienza dell’utente? Ed eccoci quindi a ragionare sull’intelligenza artificiale, e in particolare sull’uso del machine learning: grazie a esso possiamo immaginare un sistema che, dopo un certo numero di interazioni, impara e si adatta, presentando all’utente l’interfaccia più efficace per arrivare al suo obiettivo, come scaricare un documento o chiedere informazioni, invece di obbligarlo a un percorso standard. E dall’altro lato eccoci al metaverso, un canale d’interazione nuovo, completamente da costruire.

Marco Zanuttini A proposito di metaverso, rappresenta davvero qualcosa di innovativo?

Se ne parla relativamente da poco, ma le tecnologie di base, come la realtà virtuale, non sono nuove. C’è stato invece un cambiamento radicale nel modo di usare questi strumenti. Ora abbiamo non solo la possibilità ma anche la volontà e consapevolezza strategica per creare degli spazi virtuali che esistono indipendentemente dalla nostra presenza, dove attraverso un avatar ci si può incontrare e interagire. C’è stato un grande cambiamento concettuale, reso possibile dal fatto che alcuni dei big player sul mercato hanno teorizzato questo nuovo mondo e hanno deciso di investire su di esso. Potremmo dire che, proprio per cercare di superare i limiti che i social network tradizionali cominciano a mostrare, è stata teorizzata la possibilità di un social tridimensionale. Da una ricerca di Gartner risulta che oggi solo il 37% dei dirigenti aziendali sta pensando di adottare tecnologie di metaverso...

Vero, ma confesso di non essere d’accordo sulla parola “solo”: il 37% è una

percentuale davvero significativa, se pensiamo che si sta parlando concretamente di metaverso da pochi mesi. Anche tra le aziende italiane l’interesse è alto, c’è la consapevolezza che siamo di fronte a un’evoluzione in grado di avere un impatto enorme. Sta a noi capire e accogliere questo interesse, aiutare i nostri clienti a comprendere che siamo all’inizio, ma proprio per questo siamo davanti a un terreno di sperimentazione estremamente ricco. Perché allora non provarci subito, perché lasciare che siano gli altri a fare le prime esperienze di un mondo che impatterà, anzi sta già impattando sulla nostra comunicazione e sulla società intera? Dunque il metaverso è destinato a trasformare la customer experience?

Assolutamente sì. Se pensiamo anche a cose ordinarie, come a un sito di ecommerce, è possibile che ci troviamo di fronte a una rivoluzione totale dell’esperienza. Un visitatore entra in un negozio e noi possiamo supportarlo con un’esperienza immersiva che impara dal suo comportamento attraverso l’intelligenza artificiale, e gli offre le informazioni di cui ha bisogno in maniera dinamica e interattiva. Pensiamo anche al brand storytelling, a come possiamo presentare il nostro marchio non più proponendo un testo ma invitandolo a “vivere” il nostro brand in uno spazio virtuale, Si apre, insomma, un mondo completamente nuovo per la user experience e per la customer experience. Un mondo del quale, in effetti, non abbiamo ancora nemmeno immaginato tutto. V .B.

7


STORIA DI COPERTINA | CUSTOMER EXPERIENCE

INTERAZIONI HUMAN-LIKE CON L’INTELLIGENZA ARTIFICIALE I programmi voicebot imparano a rispondere sempre meglio alle domande dei clienti e a sostenere conversazioni anche complesse. Per molto tempo, come clienti siamo stati abituati a interagire con i fornitori in modo diretto, di persona o al telefono, trovando dall’altra parte un essere umano in grado di replicare alle nostre richieste o necessità. Quell’epoca non è certo ancora passata, ma oggi è sempre più frequente trovarsi a poter dialogare con un interlocutore virtuale. I chatbot sono uno strumento piuttosto diffuso, ma ora sta arrivando il tempo dei voicebot, programmi in grado di lavorare sul linguaggio naturale, sulla sua comprensione e interpretazione. Come ci stiamo arrivando? Ne abbiamo parlato con Giovanni Mannarino, sales director Italy di Spitch.ai. L’intelligenza artificiale è davvero uno spartiacque tra il “prima” e il “dopo” della customer experience?

Giovanni Mannarino

Nelle interazioni completamente umane, le tecnologie sono intervenute nel tempo soprattutto per mettere ordine nei flussi conversazionali e guidare gli operatori nel supporto al cliente. Con l’avvento dell’intelligenza artificiale è divenuto possibile ridurre i flussi di ingaggio attraverso gli Ivr (Interactive Voice Response, ndr) conversazionali, primo passo di un’interazione fra macchina e uomo. Il vero scoglio, tuttavia, è sempre stato rappresentato dalla comprensione del linguaggio naturale. Le prime esperienze sono state negative, poiché i sistemi di automatic speech & recognition non erano in grado di cogliere le sfumature e la varietà delle espressioni usate dalle persone. Ora, invece, i voicebot possono arrivare a risolvere problemi perché sanno non solo riconoscere l’intento della

comunicazione, ma anche gestire temi e porre domande funzionali alla richiesta iniziale. Come fanno questi programmi a capire domande magari molto specifiche?

La speech analytics esiste già da diverso tempo, ma prima era usata solo per capire che cosa volessero i clienti. I voicebot, invece, devono essere in grado di gestire interazioni evolute, quindi devono lavorare su dataset di training per poter articolare risposte sempre più pertinenti. Per fare un esempio pratico, il settore energetico è stato per molto tempo statico, fatto di poche tariffe e varianti. Oggi le dinamiche dei costi e fattori come la guerra in Ucraina stanno ridisegnando il panorama, con richieste che un automa vocale non sarebbe in grado di supportare, per esempio il pagamento rateizzato. Il prodotto di Spitch.ai analizza tutte le interazioni machine-to-human, raccogliendo intenti che la macchina prima non sapeva come risolvere. Avendo dipartimenti di data analytics interni evoluti, si possono impostare anche in un giorno nuovi intenti. Quali mercati in Italia sono più reattivi a queste evoluzioni tecnologiche?

Sicuramente il citato comparto dell’energia sta trainando, per sfruttare anche opportunità connesse a bonus e aperture al mercato libero. Banche e assicurazioni si sono mosse con una certa decisione da qualche tempo, mentre retail e telecomunicazioni stanno inseguendo. Può apparire singolare che le telecomunicazioni siano più indietro, ma occorre tener presente le dinamiche sociali e una tradizione più legata ai classici call center. Roberto Bonino

8

| LUGLIO 2022


ALLA RICERCA DELL’EMPATIA, ANCHE DIGITALE Uno studio di Sitecore dipinge il profilo di un consumatore sempre più mosso da valori etici, voglia di trasparenza e di relazioni autentiche. I consumatori hanno voglia di autenticità e di empatia. Valori tipicamente legati alla relazione faccia a faccia, quella tra un cliente e il commesso di un negozio, ma che oggi devono trovare posto anche nelle interazioni mediate dalla tecnologia. Uno studio di Sitecore, “Brand Authenticity”, condotto su consumatori italiani (mille intervistati), britannici, francesi e statunitensi, ha evidenziato le necessità dell’esperienza clienti in un mondo inevitabilmente sempre più digitalizzato. Ce ne parla Federico Tota, regional vice president di Sitecore Italia. Le esigenze di CX stanno cambiando?

Dalla nostra ricerca è emerso un panorama del rapporto brand/consumatore sempre più diversificato, molto complesso, non superficiale. Un panorama che richiede alle aziende di costruire una relazione di fiducia con il consumatore. Negli ultimi due anni, per i molti cambiamenti figli della pandemia, la fedeltà al marchio è stata messa a dura prova e proprio per questo i valori che orientano gli utenti sono più forti e differenzianti. Il 68% consumatori italiani vorrebbe che i brand comunicassero maggior empatia e coinvolgimento, entrando in relazione diretta con loro. C’è un forte bisogno di trasparenza, per esempio il 97% vorrebbe maggior chiarezza sugli aumenti di prezzo. Ma sono anche importanti i valori etici: il 92% chiede ai brand di dimostrare di agire in modo equo e il 54% è disposto a pagare di più per i prodotti di aziende che garantiscono al personale retribuzioni adeguate.

E la tecnologia come entra in gioco?

La richiesta di maggior empatia e coinvolgimento da parte dei consumatori si traduce per le aziende nella necessità di dar vita a esperienze digitali sempre più ricche. Colpisce il fatto che chi ha meno di 44 anni o è impiegato si descrive come “convertito al digitale”, e questo è un dato interessante. Per questi consumatori il telefono sta diventando il canale di shopping online privilegiato, e dunque bisogna curare molto l’esperienza d’uso anche in ottica di omnicanalità. Inoltre le aziende oggi non possono prescindere dal dato per offrire un’esperienza sempre più seamless, come si suol dire, e prodotti personalizzati. Come vedete il metaverso?

Avvalersi di tecnologie come intelligenza artificiale, machine learning e realtà aumentata non è un ostacolo all’empatia. Tutti i grandi brand stanno cercando di capire come poter avere una presenza nel metaverso, che può rappresentare una risorsa ma è ancora un punto interrogativo.

Federico Tota

Nella trasformazione della CX a che punto sono le aziende italiane?

Molte hanno cominciato a ragionare sulla user experience, sull’interfaccia e sulla comunicazione del servizio, anche sull’onda degli insegnamenti portati da Amazon con il suo e-commerce. Ma Amazon è anche un esempio di buona comunicazione. Molte aziende italiane in passato hanno lanciato servizi creativi e innovativi ma li hanno comunicati male. Qual è il contributo di Sitecore alla customer experience “empatica”?

Certamente, come azienda leader nella customer experience stiamo portando il valore dell’empatia nella relazione con i nostri dipendenti e soprattutto verso i nostri clienti e partner. Crediamo che laddove esiste una employee experience di valore, con un forte coinvolgimento e un forte legame con l’azienda, quell’esperienza si rifletta anche nel rapporto con i clienti. Grazie a un investimento di 1,2 miliardi di euro nel 2021 che ha generato ben quattro acquisizioni (Four51, Boxever, Moosend, Reflection) e l’apertura di nuovi uffici e team residenziali nel Sud Europa in Italia, Francia, Spagna, Portogallo e Grecia, Sitecore sta rivoluzionando la prospettiva digitale dei prossimi anni con approccio componibile e non monolitico. Con 5.200 clienti nel mondo e referenze importanti come Volvo, L’Oreal, Puma, Aston Martin e Zurich e ben 800 partner, proponiamo oggi una piattaforma digitale componibile abilitata Sas per migliorare i contenuti, l’esperienza cliente e la promozione dell’e-commerce. V.B.

9


The Innovation Group Innovating business and organizations through ICT

LO SMART RETAIL: IBRIDO E RESILIENTE

Milano | 6-7 Luglio 2022 Hotel Melià

Giunto alla terza edizione, Retail & Fashion Summit è l’unico evento della comunità imprenditoriale e manageriale italiana pensato per promuovere il dialogo tra business e tecnologia e, coinvolgendo i diversi interlocutori interessati ai processi di innovazione, insieme agli stakeholder che predispongono politiche di incentivazione e promozione della trasformazione dei settori Retail, GDO e Fashion del nostro Paese. Nei due anni di pandemia, gli imprenditori e i manager più illuminati hanno utilizzato il “tempo sospeso” dei lockdown e delle restrizioni per investire in tecnologia e accelerare il processo di trasformazione delle proprie aziende. Oggi quindi il retail italiano, nonostante le difficoltà, si trova nella condizione di riprendere con ancora maggior efficienza. Le minacce però non mancano, sul fronte geopolitico e quindi anche dei costi energetici, logistici e delle materie prime, fattori che rendono lo scenario complesso e sfidante. In quest’ottica, i temi dei finanziamenti (PNRR ma anche molte altre iniziative di sostegno e rilancio), quelli delle strategie energetiche e di approvvigionamento, quelli della gestione avanzata e intelligente dei cicli di vita del prodotto e più in generale della transizione ecologica si affiancano al filone principale dell’evoluzione tecnologica in ottica smart del retail: Cloud, Intelligenza Artificiale, Realtà Virtuale, Aumentata e Metaverso. L’evento avrà, come di consueto, un’ottica “bifocale” che comprende un taglio più strategico di scenario e allo stesso tempo i tavoli di lavoro volti a distillare le istanze più importanti per la crescita del settore.

INFO

MAIL

www.theinnovationgroup.it

segreteria.generale@theinnovationgroup.it

#TIGINNOVATION


IN EVIDENZA

l’analisi

IN EVIDENZA

TECNOLOGIA OSTILE O RESPONSABILE? DIPENDE DA NOI

Come poter creare tecnologia nel modo giusto, responsabile, rispettoso dei singoli? Gli hackeraggi, i ransomware, le violazioni dei dati e gli attacchi DDoS sono protagonisti del racconto mediatico sulla tecnologia ostile, e indubbiamente possono creare danni. Ma sono solo un tassello di un quadro molto più ampio ed esiste una tecnologia ben più ostile di quella degli attacchi informatici. Oggi i pericoli di una tecnologia sbagliata sono maggiori rispetto al passato. Se un sito di e-commerce ci raccomanda un prodotto per noi non interessante, ci basta semplicemente ignorarlo. Ma se un sito, usando una tecnologia di intelligenza artificiale, ci consiglia un farmaco sbagliato, allora le conseguenze possono essere gravi. A volte la tecnologia è ostile in modo del tutto involontario. I software di riconoscimento facciale che producono risultati imprecisi nell’identificare le donne di colore non vengono creati intenzionalmente, il problema sta nella base di dati utilizzati. Spesso non siamo bravi a comprendere quali saranno le conseguenze di una tecnologia sbagliata, perché ci focalizziamo solo sulle persone a cui quella tecnologia è rivolta o sul singolo problema da risolvere. Per questo dovremmo allargare lo sguardo, pensando non solo all’obiettivo o agli obiettivi specifici per cui quella soluzione tecnologica è stata cre-

ata, bensì all’impatto sulle persone, anche su quelle che non sembrano direttamente coinvolte. Dal mio ingresso in Thoughtworks, alla fine degli anni Novanta, ho visto l’azienda crescere da cento a undicimila persone, una crescita che è stata per lo più organica e solo recentemente alimentata dalle acquisizioni. Siamo nati con l’ambizione di voler rivoluzionare l’industria tecnologica, un’ambizione audace. Ma fin dall’inizio avevamo un’idea molto definita di come poter creare tecnologia in modo giusto. Guardavamo ai numerosi progetti di alto profilo che erano

Rebecca Parsons

falliti dopo aver mobilitato enormi investimenti e per noi rappresentavano tutto ciò che di sbagliato si può fare con la tecnologia. Quindi abbiamo iniziato a incapsulare nel nostro lavoro una nozione di tecnologia responsabile, sviluppata non solo per risolvere un problema ma anche in modo da agire creando il minor danno possibile. Alla base c’è la capacità di riconoscere le conseguenze non desiderate delle scelte che compiamo. Mettendo insieme tecniche strutturate, strumenti e metodi definiti da altri soggetti, abbiamo realizzato il Responsible Tech Playbook, una guida che aiuta le aziende a prendere decisioni migliori sulla tecnologia. Porsi delle domande è essenziale. I gruppi di persone che testano i prodotti e servizi in fase di sviluppo riflettono davvero gli utenti finali a cui ci rivolgeremo? E c’è un’adeguata rappresentanza? La qualità e l’accuratezza dei dati usati per alimentare le soluzioni data-driven è sufficiente, e i dati sono liberi dal bias? Nella progettazione, si tiene conto adeguatamente dell’usabilità e dell’accessibilità? Le scelte sono in linea con gli obiettivi di sostenibilità o potrebbero avere un impatto negativo sull’ambiente? Questo approccio rappresenta il modo in cui da sempre abbiamo sviluppato software. I metodi sono diventati più sofisticati negli anni ma il principio alla base è rimasto lo stesso: non fare la cosa sbagliata. Vogliamo sviluppare soluzioni tecnologiche che siano non soltanto utili, ma anche giuste. Rebecca Parsons, chief technology officer di Thoughtworks

11


IN EVIDENZA

NEL MULTICLOUD, ECOSISTEMA VUOL DIRE FLESSIBILITÀ Dell Technologies amplia e rafforza le alleanze con i fornitori cloud, per consentire alle aziende la massima libertà di scelta. Viviamo in un mondo multicloud, che ci piaccia o no. Le aziende si appoggiano a una molteplicità di fornitori di Iaas, PaaS e SaaS, e forzarle a utilizzare tecnologie compatibili con una sola piattaforma cloud non è più una strategia praticabile. E molti vendor lo hanno capito. Tra chi ha sposato la filosofia della libertà di scelta e, anzi, ne ha fatto il proprio punto di forza c’è Dell Technologies. “Mai come prima d’ora viviamo in un mondo multicloud”, spiega Fabio Zezza, Data Protection Solutions lead di Dell Technologies Italia. “Grazie alla tecnologia riusciamo a gestire le applicazioni tanto on-premise quanto in uno o più cloud pubblici o in modalità asa-service. La tecnologia ci permette di avere consistenza operativa in termini fino a ieri impensabili. La nostra strategia è pensata per offrire ai clienti la

Fabio Zezza

12 |

LUGLIO 2022

possibilità di estrarre il massimo valore dalle informazioni, nel minor tempo possibile e al giusto costo, indipendentemente dal luogo in cui si trovano i dati”. Nel concreto, questa filosofia per Dell significa permettere ai clienti di eseguire il proprio software in qualsiasi ambiente di cloud pubblico. Con Project Alpine, progetto annunciato all’inizio di quest’anno e presentato in anteprima tecnica durante il Dell Technology World di Las Vegas dello scorso maggio. Nei prossimi mesi sarà possibile eseguire lo storage a blocchi, a file e a oggetti di Dell nei cloud pubblici di Aws, Azure e Google Cloud, ottenendo la stessa esperienza d’uso I servizi di storage di Dell potranno combinarsi con quelli nativi dei cloud provider e negli ambienti IT ibridi sarà garantita un’esperienza d’uso uniforme per chi oltre al cloud impiega,

Alberto Bastianon

on-premise, i sistemi Dell PowerStore, PowerFlex e PowerScale (tutti reduci da recenti aggiornamenti e potenziamenti software).“Dell”, sottolinea Alberto Bastianon, pre sales director per l’Italia, “è fermamente convinta che il futuro multicloud sarà anche un futuro di collaborazione, in cui i nostri clienti avranno necessità di far coesistere applicazioni e ambienti diversi. Quindi vogliamo supportare la massima libertà per le loro scelte infrastrutturali”. La logica di ecosistema collaborativo si estende anche ad altri ambiti, come l’uso del cloud per le attività di analytics, che notoriamente esigono importanti risorse di calcolo e storage. Prossimamente, nel secondo semestre dell’anno, sarà possibile il Data Cloud di Snowflake per l’analisi dei dati conservati onpremise su macchine Dell. “L’annuncio della collaborazione con Snowflake forse ha stupito un po’ il mercato”, osserva Bastianon. “Snowflake è un’azienda leader nei data analytics, che ha sempre ragionato esclusivamente in un’ottica cloud. Che cosa può significare questa partnership? Per Dell potrebbe aprire a nuove collaborazioni di ecosistema, ma risponde anche a esigenze specifiche di compliance, controllo e resilienza dei dati”. I ben cinquecento annunci legati al software dell’ultima convention di Las Vegas sono un segno evidente dello spostamento del mercato verso la tecnologia immateriale. “Questa spinta verso il software”, precisa Zezza, “poggia però su un’eccellenza tecnologia di Dell sull’hardware che oggi forse è meno in primo piano ma rappresenta una piattaforma abilitante su cui continuiamo a innovare. Molti dei 26mila brevetti di Dell ricadono nell’ambito dello storage fabric”. Valentina Bernocco


LA TECNOLOGIA ALIMENTA L’ECONOMIA CIRCOLARE Cisco lancia nuovi incentivi finanziari e un’app che aiuta le aziende a calcolare il proprio impatto ambientale. Gianmatteo Manghi

Oggi più che mai è fondamentale che il settore tecnologico riduca il proprio consumo di risorse e la propria produzione di rifiuti. Ma l’Ict può anche aiutare le aziende a ridurre il proprio impatto ambientale. Applicazioni di economia circolare, incentivi economici, diffusione di competenze sono le iniziative di Cisco su questi temi. “L’anno scorso abbiamo preso un impegno preciso: diventare carbon neutral entro il 2040”, ha dichiarato Gianmatteo Manghi, amministratore delegato di Cisco Italia. “Questo impegno può essere onorato solo favorendo, fra le altre cose, un sistema virtuoso di economia circolare”. L’applicazione “Send IT Back” (disponibile già da due anni negli Stati Uniti e ora estesa a tutti 27 Paesi dell’Unione Europea e al Regno Unito) permette ai clienti di Cisco di gestire la restituzione dei prodotti per la riparazione, la rigene-

razione e il riuso, estendendone in questo modo la vita utile. L’utilizzo è semplice: una volta scaricata l’app, in pochi passaggi viene concordata la richiesta per il ritiro di un determinato dispositivo. A dimostrazione del fatto che i clienti sono molto interessati a queste buone pratiche, negli Stati Uniti tra il 2020 e il 2021 la quantità di prodotti restituiti tramite “Send IT Back” è aumentata del 156%. Secondo i dati della European Environment Agency, nel 2019 in Europa è stato riciclato solo il 39% dei rifiuti elettrici ed elettronici. Un dato allarmante, se si pensa che per ogni tonnellata di rifiuti riciclati si possono evitare due tonnellate di emissioni di anidride carbonica. Negli ultimi quindici anni Cisco si è impegnata a ridurre sempre di più il suo impatto ambientale, e attualmente l’azienda riusa o ricicla il 99,9%

dei prodotti che le vengono restituiti. Inoltre i suoi prodotti vengono progettati oggi tenendo conto della possibilità di disassemblarli, ripararli e riusarli. La società si è posta l’ambizioso obiettivo di fare in modo che entro il 2025 il 100% dei nuovi prodotti e packaging siano creati secondo principi di progettazione circolare. È in questo contesto che nasce “Cisco Green Pay”, il nuovo programma finanziario che, applicando concetti di economia circolare, rende possibile dilazionare il pagamento di un prodotto Cisco da tre a cinque anni e usufruire al contempo di un incentivo del 5% sugli hardware. Al termine dei cinque anni il dispositivo viene ritirato gratuitamente e inserito in un percorso di circolarità. Un programma che ha quindi lo scopo di aiutare i clienti a realizzare una strategia IT sostenibile (un tema a cui tutti oggi sono chiamati ad adeguarsi, in molteplici settori). Al termine dei cinque anni si può decidere se rinnovare la tecnologia per un altro anno o restituirla gratuitamente. In tal caso, il prodotto sarà smaltito nel rispetto dell’ambiente, mentre al cliente sarà inviata una certificazione di conferma del corretto inserimento nel sistema di economia circolare, da utilizzare per il bilancio di sostenibilità. Infine, una specializzazione in “Environmental Sustainability”, dedicata ai partner di canale, ha lo scopo di diffondere maggiori competenze su questi temi, in termini di cultura, linguaggio, risultati ottenibili. La specializzazione fornirà ai partner tutte le informazioni necessarie per sensibilizzare i clienti sui vantaggi della migrazione al cloud e dell’aggiornamento delle vecchie tecnologie, oltre a dati completi sull’impatto che possono avere sull'ambiente partecipando a un modello di economia circolare. Elena Vaciago

13


IN EVIDENZA

UN RETAIL FATTO DI DATI E DI CLOUD Nonostante i contraccolpi della pandemia, il comparto ha continuato a innovare. La crescita della francese Cegid ne è la prova. Il comparto retail ha sofferto più di altri le conseguenze pandemia, ma non per questo l’innovazione si è fermata, anzi. Uno dei testimoni di questo dinamismo è Cegid, multinazionale francese attiva nel mercato delle soluzioni (soprattutto cloud-based), per i segmenti della finanza, delle risorse umane e del retail. L’azienda ha intensificato la sua crescita proprio nel settore del commercio al dettaglio, un mercato che sta attraversando grandi difficoltà a causa della pandemia ma che nello stesso tempo sta accelerando quella trasformazione digitale indispensabile per recuperare efficacia ed efficienza. Soluzioni e strategie sono state oggetto, anzi soggetto, dell’evento “Cegid Connection 2022”, tenutosi a Montecarlo a metà giugno, a cui Technopolis ha partecipato. Nathalie Echinard, che dirige la business unit retail della multinazionale, ha annunciato almeno tre importanti direttrici dello sviluppo: un programma di accelerazione per le startup del

Mario Davalli

14 |

LUGLIO 2022

mondo della vendita al dettaglio; la nuova versione della piattaforma Cegid Retail; e l’acquisizione di StorIQ, azienda britannica fondata nel 2015, con sede a Londra e circa 30 dipendenti. La piattaforma StorIQ, dedicata alla pianificazione delle operazioni nei punti vendita, va a completare l’offerta retail della società, rafforzandone la posizione nel mercato delle soluzioni di gestione di punti vendita. Il “cambio di passo” (uno degli slogan dell’evento), si percepiva anche nel corso delle tante dimostrazioni che hanno coinvolto gli attuali clienti di Cegid (per l’Italia erano presenti tra gli altri Benetton, Celio, Swatch e L’Erbolario), che oggi hanno a disposizione una suite completa di soluzioni per la gestione di back office e front office delle catene di vendita, e che possono contare su uno slancio importante della multinazionale nella direzione dei prodotti SaaS. Anche se alcuni clienti storici sono ancora legati alle versioni on-premise.

Pascal Houillon

Il dinamismo dei nuovi trend

Al di là degli annunci, “Cegid Connection” è stata l’occasione per rimarcare le tendenze più importanti del mondo retail. Tra queste, sicuramente la sostenibilità e l’inclusività come valori ormai irrinunciabili, l’importanza dei dati per offrire un’esperienza di acquisto sempre più personalizzata, la tracciabilità (abilitata anche dalle tecnologie come blockchain) e la rivoluzione della logistica, indotta anche dalle nuove condizioni geopolitiche. Una rivoluzione che incide sia sulla logistica in ingresso (le materie prime) sia su quella in uscita, mentre le abitudini dei clienti cambiano velocemente e prefigurano scenari come il microfullfilment e l’autonomous delivery. In questo scenario decisamente dinamico, Cegid si mostra altrettanto attiva nel progettare e supportare il cambiamento. “La nostra crescita è costante ed è ugualmente supportata dall’incremento del business per linee interne e acquisizioni”, ha detto il Ceo, Pascal Houillon. “Come nel caso di StorIQ, la nostra strategia è di comprare aziende che crescono più di noi, per dare un ulteriore impulso al nostro già rapido passo. Velocità e omnicanalità sono, infatti, ormai due caratteristiche imprescindibili del retail”. “Anche per quanto riguarda l’Italia”, ha aggiunto Mario Davalli, country manager Sud Europa di Cegid, “la crescita del business è sensibile. Se fino a qualche anno fa le soluzioni SaaS non venivano prese in considerazione, oggi la richiesta cresce. E vista la sete di know-how che caratterizza i settori del digitale, non possiamo negare che ci sia la volontà di effettuare operazioni di acquisizione anche nel nostro Paese”. Emilio Mango


TECHNOPOLIS PER CCH TAGETIK

IL MUTEVOLE MONDO DELLA SOSTENIBILITÀ PER IL FINANCE Il tema della misurazione e del monitoraggio della sostenibilità ambientale e sociale ha fatto irruzione anche in settori, come quello finanziario, che sembravano meno coinvolti. Come per il resto del mondo, anche qui si passa per obiettivi, scadenze di breve e lungo termine, Kpi e report da redigere. Cch Tagetik, Expert Solution di Wolters Kluwer, ha creato da qualche tempo la soluzione Esg & Sustainability, che integra in uno strumento unico tutto quanto serve per allinearsi ai requisiti di reporting, ma anche la data intelligence necessaria per impostare una crescita sostenibile di lungo termine. Com’è noto, dal gennaio 2023 la tassonomia in ambito Ue su questo fronte si farà ancor più stringente e questo metterà maggior pressione nei dipartimenti di Finance, Compliance e Risk dedicati alle tematiche Esg. Nel settore delle banche e assicurazioni, inoltre, la componente di sostenibilità si lega alle necessità di allineamento alle normative specifiche, aumentando la complessità. La soluzione di Cch Tagetik affronta in modo particolare il tema della generazione dei report Esg. “Sono integrate tutte le componenti di supporto alla tassonomia Ue, ma anche agli standard Gri (Global Reporting Initiative), Sasb (Sustainability Accounting Standards Board) e altri, utilizzando processi e calcoli precostruiti ed espandibili, in modo tale da poter importare, aggregare, elaborare e analizzare dati anche complessi e generare automaticamente i report Esg”, spiega Sara Rosati, director solutions di Cch Tagetik. Evidentemente, una soluzione di questo genere non è di per sé verticalizzata in uno specifico ambito e si adatta alle esigenze di diverse categorie di aziende. “Abbiamo scelto di mettere a punto una proposta che fosse modulare”, conferma Rosati. “Non tutti gli istituti bancari e le compagnie assicurative affrontano il tema della sostenibilità nella stessa maniera e non per tutti le priorità sono uguali. Pertanto, gli elementi legati alla tassonomia, al Gri, alla carbon intensity o al Net Zero sono moduli della stessa soluzione e ogni azienda può attivare quelli per essa prioritari”. Sempre al passo con le normative Il vantaggio per le aziende è che la soluzione Esg & Sustainability integra in modo automatico l’adeguamento normativo, per cui gli indicatori da rispettare verranno sempre aggiornati anno dopo anno anno (sia dal punto di vista dei calcoli sia dal punto di vista della relativa rendicontazione), facendo sì che la componente di studio e di analisi della normativa resti in carico al team Cch Tagetik, forte dell’esperienza maturata nel mondo della vigilanza bancaria e

Foto di anncapictures da Pixabay

In un panorama normativo complesso si inseriscono nuovi requisiti di reporting e necessità di data intelligence.

assicurativa. “Intendiamo supportare i clienti in quello che è uno vero e proprio viaggio all’interno della normativa”, sottolinea Rosati. “Partiamo dalla data discovery, per calcolare gli indicatori, seguiamo la fase di raccolta dai diversi device dove i dati possono essere ospitati e poi guidiamo le aziende in un campo ancora piuttosto giovane, in cui non tutto appare così chiaro. Il nostro è uno strumento al servizio di utenti e consulenti del settore”. La stessa piattaforma di Cch Tagetik è in continuo divenire e non è escluso che in futuro, oltre ai punti fermi legati soprattutto al reporting in campo Esg, possano essere aggiunte componenti che completino uno scenario peraltro già esteso, visto che il supporto non si limita alla generazione dei report, ma arriva alla rappresentazione dei dati all’interno del documento di disclosure, integrando la componente di tassonomia con gli indicatori richiesti.

15


IN EVIDENZA

VENDITE DI COMPUTER IN CALO, LA GUERRA NON AIUTA Nel primo trimestre del 2022 i volumi distribuiti in Europa Occidentale sono scesi del 3% anno su anno, a detta di Canalys. Ma regge la domanda di Pc aziendali.

Foto di StockSnap da Pixabay

Le vendite di Pc e di tablet affrontano un momento non facile, tra colli di bottiglia nella fornitura di componenti e rialzo dei costi di supply chain, come effetto indiretto dello scenario geopolitico. Questi fattori, secondo gli analisti di Canalys, hanno frenato sia la domanda sia l’offerta di personal computer nel primo trimestre del 2022, contribuendo a un calo anno su anno del 3% nei volumi commercializzati su scala mondiale (e in Europa Occidentale si registra la stessa percentuale di decremento), a fronte però di una crescita di giro d’affari del 15%. Il calo si spiega in parte come un fisiologico rallentamento della domanda, dopo un biennio di corsa all’acquisto di nuovi Pc per il lavoro e la didattica a distanza. Sono intervenute, poi, le ben note dinamiche di supply chain: produt-

16 |

LUGLIO 2022

tori di chip e altri componenti che hanno faticato a star dietro agli ordini degli Oem, e quest’ultimi costretti a rallentare la tabella di marcia commerciale e ad alzare i prezzi. Le aziende non mollano la presa

“Negli ultimi due anni l’Europa Occidentale è stato un mercato resiliente per i venditori di Pc”, ha dichiarato Trang Pham, research analyst di Canalys, “grazie alla capacità di questa regione di adattarsi nel rispondere al covid. La domanda di Pc aziendali è forte, dato che molti mercati sono tornati ufficialmente alle normali operazioni di business. Non a caso, quasi il 60% dei dispositivi commercializzati in Europa nel primo trimestre erano per uso aziendale. Tuttavia il mercato Pc sente la pressione dei

colli di bottiglia della catena di fornitura su scala globale, dovuti ai lockdown nei centri della manifattura cinesi e alla guerra in corso in Ucraina”. In Europa Occidentale Canalys ha conteggiato 15,8 milioni di Pc commercializzati tra inizio gennaio e fine marzo. Al primo posto Lenovo, con una quota del 26%, tallonata da una Hp che ha il 25% di market share: entrambi i marchi hanno confermato la solida posizione in testa alla classifica, nonostante la contrazione dei volumi. In particolare, per i computer e tablet di Lenovo l’Emea è la seconda regione più importante in termini di giro d’affari, dopo la Cina. Hp quest’anno ha ridotto le vendite di Chromebook ma ha incrementato quelle di computer di fascia alta, destinati sia a utilizzi lavorativi sia al gaming. Nella classifica del trimestre seguono, nell’ordine, Dell, Apple e Acer con il 14%, il 10% e il 9% di quota rispettivamente. Il futuro dei Pc in Europa

Guardando al futuro, secondo gli analisti è probabile che il rialzo dei prezzi dell’energia, causato dalla crisi geopolitica, e la conseguente inflazione scoraggeranno gli acquisti di nuovi Pc e tablet nei mesi prossimi. “Considerando l’attuale previsione sull’economia del 2022, ci attendiamo che la spesa dei consumatori si affievolisca per la riduzione del potere d’acquisto”, ha illustrato Pham. “Mentre i computer negli ultimi due anni si sono guadagnati l’etichetta di oggetti essenziali, ora i consumatori rimanderanno i nuovi acquisiti e gli upgrade se non completamente necessari. C’è però un lato positivo, perché la ripresa delle attività aziendali, sia tra le Pmi sia tra le grandi imprese, manterrà in salute e in forza la domanda di Pc nel lungo periodo”. V.B.


PARTE DA MILANO IL CLOUD TRICOLORE DI GOOGLE Varata nel capoluogo lombardo la prima “region”, alla quale seguirà quella di Torino. Tim e Intesa Sanpaolo i partner forti del progetto. L’attesa è finita: nel mese di giugno Google ha finalmente inaugurato la prima delle due cloud region pianificate sul territorio italiano. A Milano è operativa la prima delle due infrastrutture di data center, mentre la seconda, allocata a Torino, sarà avviata fra qualche mese. La region da poco inaugurata è collegata all’infrastruttura di Google, fatta di cavi in fibra ottica, sottomarini e sotterranei, ed è divisa in tre zone. Partner tecnologico del progetto è Tim, che ha supportato la realizzazione delle infrastrutture puntando, oltre che sulla potenza di calcolo, sulle performance e sulla sicurezza, nonché sulle caratteristiche di sostenibilità legate all’ottimizzazione delle emissioni di CO2. L’altro partner forte dell’iniziativa è Intesa Sanpaolo, che utilizzerà soprattutto la region di Torino per migrare progressivamente sul cloud i propri processi. Con Paolo Spreafico, director of customer engineering di Google Italy, abbiamo commentato ragioni e obiettivi di questa iniziativa.

dall’Università di Torino, le nuove region potranno creare fino a 65mila nuovi posti di lavoro in Piemonte e Lombardia entro il 2025, oltre a generare un impatto economico stimabile in 3,3 miliardi di euro. Non possiamo svincolare l’offerta tecnologica dal supporto all’economia del Paese. E anche la cultura digitale, come dimostra il progetto Opening Future, che coinvolgerà ventimila studenti nei prossimi sette anni e ingloberà nel cloud almeno diecimila piccole e medie imprese. Su quali elementi punterete per attirare le aziende?

La sovranità digitale è un tema rilevante e a questo possiamo aggiungere la disponibilità di un’architettura Zero Trust e l’assicurazione sui workload a ulteriore garanzia. Abbiamo appurato come per le realtà italiane la latenza del servizio sia un importante fattore di spinta e questo ci ha portati anche all’individuazione delle aree geografiche delle nostre region.

Appunto, ma perché due sedi così vicine?

Molte aziende dispongono di architetture ibride con sedi dislocate perlopiù proprio fra Milano e Torino. L’ubicazione è rilevante per poter lavorare in cloud con tempi e velocità accettabili. Inoltre, le due aree sono un’ulteriore garanzia per le esigenze di disaster recovery, importanti in settori come quello finanziario anche per ragioni normative, benché sia Milano sia Torino siano a loro volta suddivise in tre zone fisicamente separata per la stessa ragione. Va sottolineato, inoltre, che tutto è collegato tramite la nostra rete proprietaria a un insieme di 34 region nel mondo, per supportare anche esigenze di footprint internazionale. Vi espanderete ulteriormente in Italia?

Non ci sono preclusioni in tal senso, ma va detto che già ora con il servizio Distributed Cloud portiamo i workload a ridosso del cliente, in logica di edge computing. Nostro intento è anche collaborare con player locali per supportare le esigenze di chi vuole lavorare con architetture multicloud, sfruttando la presenza territoriale di un operatore per la prossimità e noi come provider di riferimento più complessivo. Roberto Bonino

Che cosa vi spinge a investire in Italia?

Nel 2020 abbiamo annunciato un piano di investimenti da circa 900 milioni di dollari sul territorio nazionale. Ovviamente puntiamo a rafforzare la nostra visibilità sulle aziende impegnate nei progetti di innovazione e trasformazione digitale, ma è importante sottolineare come, in base ai dati forniti in modo indipendente

17


IN EVIDENZA

ETICA E PROFITTO NEGLI INVESTIMENTI GREEN Prestiti e bond legati alla sostenibilità sono in forte crescita. Con grandi potenzialità da cogliere e con qualche ostacolo da superare. I valori della sostenibilità si fanno largo anche nel mondo delle aziende e nel mercato degli investimenti. Quali sono le opportunità e i rischi connessi a questa tendenza? Ce ne parla Filippo Di Rienzo, account director Italy di Refinitiv, società fornitrice di software e soluzioni digitali per il settore finanziario. Qual è l’attuale scenario della finanza green?

Il mercato della finanza sostenibile ha superato i mille miliardi di dollari di valore nel 2021 e sta crescendo a velocità supersonica. Diversi i fattori di spinta. Innanzitutto, l’urgenza delle sfide di sostenibilità, in particolare quelle legate al cambiamento climatico. Le preoccupazioni della gente sono accentuate dalle regole istituzionali e dalla legislazione tese a ottenere effetti benefici sull’ambiente e sulla società. Questo si riflette anche sulle preferenze dei consumatori e sull’innovazione tecnologica e dei modelli di business, fattori che stanno creando un mercato per prodotti e servizi più sostenibili. Tutto ciò convince gli investitori del fatto che la performance di responsabilità ambientale, sociale e di governance (Esg) è un indicatore di forte performance finanziaria. I green bond, quindi, convengono?

La capacità di dare risposta alle questioni Esg avrà un impatto sempre maggiore sul successo a lungo termine delle aziende. L’emissione di green bond è attualmente venti volte maggiore di quanto non fos-

18 |

LUGLIO 2022

Filippo Di Rienzo

se nel 2015 e rappresenta un decimo del mercato dei capitali di debito mondiale. Inoltre i prestiti legati alla sostenibilità sono triplicati fino a toccare i 717 miliardi di dollari nel 2021. Considerando il contesto sociopolitico e l’importanza guadagnata dalla sostenibilità, il mercato continuerà a crescere. Anche se finora i responsabili dell’emissione di green bond sono stati soprattutto governi, enti pubblici e la finanza, negli ultimi anni le aziende hanno cominciato a emettere i propri. I numeri dimostrano che gli investimenti sostenibili sono un business profittevole. Ci sono particolari sfide legate alla gestione dei dati?

In un mondo in rapida trasformazione le aziende hanno bisogno di una grande volume di dati di elevata qualità. Inoltre è importante che possano accedervi nel modo più flessibile e agile possibile. Il nostro obiettivo è permettere alle aziende di accedere facilmente, da qualsiasi dispositivo e da qualsiasi luogo, ai dati di cui hanno bisogno. E questo ci porta su

un’altra sfida: la tecnologia con cui poter accedere ai dati che servono. In Refinitiv crediamo che le capacità digitali, come cloud, intelligenza artificiale e machine learning, stiano trasformando rapidamente il settore attraverso l’automazione, la riduzione del rischio e nuovi modelli di business. Attraverso insight e dati personalizzati, gli utenti possono compiere migliori decisioni. Per i dati Esg, una delle principali sfide è la mancanza di un accordo su di essi e la disponibilità di dati azionabili. Manca una standardizzazione dei regolamenti in materia, per cui per le aziende la disclosure è su base volontaria e non soggetta a criteri uniformi. Come aiutate gli asset & wealth manager?

L’industria finanziaria può favorire la sostenibilità e la decarbonizzazione, ma i dati e gli strumenti usati dagli attori del mercato devono essere adeguati allo scopo. Refinitiv è impegnata nella creazione e nel monitoraggio del Piano d’Azione per la finanza sostenibile dell’Unione Europea. Siamo membri del Technical Expert Group sulla finanza sostenibile dell’Onu e consulenti della Commissione Europea sull’agenda dei cambiamenti normativi in quest’ambito. Ci impegniamo per essere il database standard del mercato. Le nostre informazioni per gli investimenti Esg sono progettate per aiutare le aziende a compiere scelte d’investimento sicure e sostenibile, e coprono l’80% del market cap mondiale e 76 Paesi con oltre 630 metriche. Aiutiamo a valutare rischi e opportunità creati dalle performance di aziende e Paesi in aree critiche, come il cambiamento climatico, le retribuzioni dei dirigenti, la diversità e l’inclusione. Per i dati e punteggi Esg, point-in-time e non, offriamo informazioni sui green bond per aiutare a valutare strategie di reddito fisso e investimenti sostenibili.


IL BUSINESS? È UNA SFIDA CON SÉ STESSI Matteo Rigamonti ha fondato Pixartprinting nel 1994 e oggi ha creato Weerg, società che offre lavorazioni Cnc e stampa 3D via Web, e che utilizza con successo, tra le altre, le stampanti HP 3D. “A diciassette anni avevo già le idee chiare: volevo creare un’azienda che fatturasse 40 miliardi e che mi permettesse di andare in pensione a quarant’anni”. A scherzare così, ma nemmeno poi tanto, è Matteo Rigamonti, un capo d’azienda che mostra le caratteristiche tipiche della migliore tradizione imprenditoriale italiana (creatività e capacità di visione) ma che ha più di una nota distintiva; la più evidente è il distacco, unito a un’autoironia non comune, dalle dinamiche aziendali tradizionali. Rigamonti nel 1994 fondò Pixartprinting, che diventò la più grande azienda europea del Webprinting business. E ora è alla guida di Weerg, azienda con sede a Gardigiano (Venezia) che, attraverso la piattaforma weerg.com, offre online lavorazioni Cnc e stampa 3D dedicate a diversi settori industriali, mettendo a disposizione degli utenti tutti i vantaggi di un servizio basato sull’e-commerce puro. Com’è nata la sua prima impresa?

Avevo studiato economia e avevo iniziato alcune attività nell’ambito della grafica e della comunicazione. Mi piaceva la fotografia, ma il mio obiettivo da giovane era avere successo, indipendentemente dal settore. Allora usavo un Macintosh Plus (la cui genesi ho sempre attribuito alla Xerox più che a Steve Jobs) acquistato nel 1987 e iniziai con un service nel mondo del pre-printing. Una delle cose che mi infastidivano di più erano i ritardi nei tempi dei pagamenti. Decisi di puntare sul pagamento alla consegna, ma mi ritrovai presto senza clienti.

Alcedo. Quando ho lasciato la posizione di Ceo, lavoravano in Pixartprinting ben 400 persone. Che cosa l’ha convinta ha iniziare una nuova avventura?

Matteo Rigamonti E poi, quando è arrivata la svolta?

Ho iniziato, da solo, a costruire il sito di Pixartprinting, per lavori di tipografia commissionati online e pagati in modalità e-commerce, fermo nella mia convinzione che il lavoro andasse pagato alla consegna. L’idea era buona, l’azienda galleggiava. Poi un giorno ho deciso di comprare una casa che costava cinque volte di più del patrimonio che avevo a disposizione, ma promisi di saldare l’intera cifra entro un anno dal contratto. Quello fu lo stimolo che mi spinse a premere sull’acceleratore e far crescere l’azienda: così ho triplicato il fatturato in dodici mesi e ho pagato il mio debito. Qual è stato il segreto del successo?

Sono convinto che le barriere all’ingresso possano essere usate a nostro vantaggio. Se convinci un cliente a uscire dalla sua confort zone e a lavorare con te cambiando le sue abitudini, allora gli altri faranno molta più fatica a riprenderselo. In più, francamente, allora i miei concorrenti erano molto disorganizzati. L’azienda, dopo anni di crescita, è stata venduta in due tranche: 30 milioni nel 2011 e 150 milioni nel 2014, al fondo

Non i soldi. Considero il denaro come una sorta di misura del successo, non certo il fine ultimo. Ho provato per qualche anno a non fare nulla, ma a me piace fare azienda, mi piace mettermi alla prova con le leggi del business, sfidarle e vincere. Perché Weerg?

Se si riferisce al nome, ho scelto semplicemente quello che mi suonava meglio tra quelli suggeriti da un’applicazione software che propone nomi brevi e leggibili per nuove imprese. Se si riferisce all’azienda, anche questa è una sfida con me stesso, un modo per avere la vita che voglio e per dimostrare le mie capacità. Come per la prima avventura, il settore del Cnc e della stampa 3D mi intrigava ma non ne capivo un granché. Posso dire però che quando sono uscite le prime macchine HP 3D c’è stata sicuramente una svolta: la prima serie che abbiamo acquistato, Multi Jet Fusion 4200, produceva già in volumi importanti ed era scalabile. Oggi, con 16 macchine (nel frattempo sono uscite le nuove Multi Jet Fusion 5210), siamo probabilmente la più grande installazione di HP 3D in Europa di questo specifico modello. Il business va discretamente: siamo in 35 e quest’anno puntiamo a crescere del 40% rispetto al 2021. E.M.

19


IN EVIDENZA

UN SALONE DEL MOBILE AMPLIFICATO DAL DIGITALE

razione di una piattaforma, realizzata insieme a Jakala, che unisce l’aspetto legato al prodotto a quello, appunto, narrativo.

Grazie alla tecnologia e all’aiuto di Jakala, l’evento fieristico arricchisce ed espande nel tempo l’esperienza degli espositori e degli appassionati di design. Il Salone del Mobile edizione 2022 è stato un successo. Oltre duemila espositori e più di 250mila presenze, nonostante le difficoltà dovute alla pandemia e alla guerra, testimoniano la vitalità di un settore che evidentemente aveva le giuste energie per riprendere in grande stile dopo i lockdown. Anche la tecnologia digitale in questo successo ha avuto un ruolo importante: ne parliamo con Luca Adornato, digital & marketing director del Salone del Mobile, e Paolo Pedersoli, senior partner di Jakala. Qual è il bilancio del progetto di trasformazione digitale del Salone?

Luca Adornato: Siamo in un momento importante di un percorso iniziato poco meno di due anni fa, nell’agosto 2020, anno in cui l’evento fu cancellato. Allora bisognava reinventarsi e capire come il digitale potesse aiutarci a tornare in linea con il successo degli anni precedenti. Oggi

siamo alla fine di una prima tappa di questo percorso, che ha visto lo sviluppo di strumenti digitali ma anche di un racconto diverso che il Salone voleva imbastire, per dare riscontro a un obiettivo strategico: espandere nel tempo e nello spazio quella che da oltre sessant’anni è la più importante fiera del suo settore al mondo. Quali sono stati i pillar di questa trasformazione?

L.A.: La pandemia ha accelerato un processo di analisi interno e di sviluppo degli strumenti digitali. Il pilastro è stato sicuramente l’analisi dei target: degli espositori e degli operatori di settore, e poi dei design lover, degli appassionati. È stato costruito un percorso per rendere più ampia, continua e costante la valorizzazione dei marchi e delle informazioni, anche sfruttando i social. Insomma, abbiamo cercato di espandere nello spazio e nel tempo la capacità narrativa. Tutto questo grazie alla struttu-

Su quali principi la piattaforma?

avete

costruito

Paolo Pedersoli: L’idea, fin dall’inizio, è stata quella di estendere la fruizione dell’evento dalla settimana del salone fisico ai 365 giorni, grazie alle tecnologie digitali e al portale, destinato a diventare un punto di riferimento del mondo del design per tutto l’arco dell’anno. La piattaforma non doveva ovviamente sostituire l’evento, ma anzi rafforzarlo. Gli elementi abilitanti sono il sito salonemilano.it (che aggrega tutti i contenuti, anche di aziende e sponsor), l’app per smartphone (che rende più fluida e aiuta l’esperienza degli utenti) e poi la realtà aumentata, che permette ai visitatori di ottenere informazioni più ricche, di interagire con lo spazio dell’evento fisico e con i produttori, iniziando una vera e propria relazione anche commerciale. Infine, c’è tutto l’aspetto riguardante il backend, che coinvolge i dati e la loro analisi, per restituire un patrimonio informativo alle aziende, la quali quindi non usufruiscono solo dello spazio fieristico ma anche, nel pieno rispetto delle regole Gdpr, dei lead e degli insight utili per il business. Tra i prossimi passi, è prevista la piena integrazione dei social nell’ecosistema. Puntando su dati e contenuti non c’è il rischio di snaturare il Salone?

Luca Adornato

20 |

LUGLIO 2022

Paolo Pedersoli

L.A.: Assolutamente no. Lo scopo di questo progetto non è trasformare il Salone in un media, ma far sì che le capacità di interazione del digitale amplifichino la visibilità dell’evento. Così potremo far battere ancora più forte un cuore che ha dimostrato di avere tanta voglia di pompare nuove energie. Emilio Mango


TECHNOPOLIS PER AXIANTE

IL FINANCE INTELLIGENTE E IN REAL-TIME È STRATEGICO Tecnologie evolute, ma anche competenze e strategie di gestione dei dati: così è possibile trasformare la tradizionale gestione finanziaria in un’attività che fa crescere l’azienda. Oggi all’interno delle aziende la funzione “finanza e controllo” non è più una componente passiva, focalizzata sulla rendicontazione. Può svolgere, invece, un importante ruolo consulenziale per gli altri reparti aziendali, dalle vendite agli acquisti, passando per la produzione e la ricerca e sviluppo. L’attuale contesto geopolitico, sociale e di mercato non permette più di poter contare su scenari stabili e facili da gestire perché prevedibili. A causa della pandemia di covid, prima, e del conflitto bellico e geopolitico poi, ci siamo dovuti abituare ad affrontare scossoni improvvisi, imprevisti e su larga scala. In particolare il 2022 è segnato da tre fenomeni importanti: il forte incremento del costo delle materie prime e dell’energia, l’accelerazione dell’inflazione e l’impatto sulla domanda in diversi mercati. Le aziende sono state e sono costrette a rivedere pesantemente le proprie previsioni, i piani di crescita e gli investimenti sia a breve sia a medio termine. Prepararsi all’incertezza è un vantaggio Il finance manager oggi più che mai dev’essere reattivo, anzi deve operare in real-time, e per farlo ha bisogno di accedere a dati esterni, visto che molti degli elementi che influenzano le scelte delle aziende sono esterni. Oltre all’approccio real-time, assistiamo a un cambiamento di ruolo: l’organizzazione “finanza e controllo” non ha più solo il compito di fare elaborazioni di dati per la rendicontazione e la pianificazione. È sempre più impegnata a Romeo Scaccabarozzi

dialogare con le linee di business (commerciale, marketing, sviluppo, produzione, eccetera) diventando un fornitore interno di consulenza e aiutando le altre componenti dell’azienda ad affrontare il futuro. Un futuro instabile, se a prima vista può spaventare, può anche divenire un’opportunità da cogliere se l’azienda sa muoversi in anticipo e in modo più smart rispetto alla concorrenza. Prepararsi a scenari imprevedibili, in modo da avere un tempo di reazione inferiore ai competitor, oggi è strategico. Purtroppo le aziende che oggi, in Italia, possono dire di avere un approccio real-time (cioè che operano avendo solo un 20% di processi già programmati e predefiniti) sono una minoranza, circa due su dieci. Questo accade prevalentemente per due motivi. Il primo è l’accesso ai dati, che spesso è limitato e non abbastanza rapido. In secondo luogo, molte aziende utilizzano ancora applicazioni tecnologicamente datate per l’area finanza e controllo. Il ruolo della Business Innovation Integration Un reparto finance di tipo real-time ha bisogno innanzitutto di una forte integrazione dei dati, interni ed esterni. Oggi le tecnologie evolute, che consentono questa integrazione, non mancano, ma è importante che l’azienda abbia definito una chiara strategia relativa ai dati. Qui entra in gioco Axiante, che va oltre il ruolo tradizionale di system integrator per proporsi quale Business Innovation Integrator. Si parte dal business, perché ogni investimento in tecnologia deve puntare a un obiettivo di business. Ciò significa aiutare le aziende nella trasformazione grazie alle competenze tecnologiche e verticali su specifici settori e aree aziendali, come quella finanziaria, di cui si occupa la divisione Axiante Stream. Fare integrazione vuol dire poi saper mettere insieme il nuovo e l’esistente, affiancando alle tecnologie già in uso nuove componenti innovative, con un matrimonio destinato a funzionare. Infine, appunto, l’innovazione: offriamo le nostre competenze verticali sul finance per aiutare le aziende a definire una corretta data strategy. Dall’unione della giusta strategia e delle giuste tecnologie è possibile ottenere una soluzione unica e differenziante. Fare meglio della concorrenza significa innanzitutto fare qualcosa di diverso e di unico. Per questo servono delle soluzioni intelligenti che trasformino la semplice attività di gestione amministrativa in un pilastro della crescita aziendale. Romeo Scaccabarozzi, amministratore delegato di Axiante

21


Foto di Anna Shvets

AGRIFOOD TECH

AGRICOLTURA DIGITALE, L’ITALIA DEVE ANCORA “SEMINARE” Per trasformare il comparto agricolo italiano le tecnologie non bastano. Servono cultura, ricerca, nuovi modelli organizzativi e integrazione dei dati.

P

rima di poter raccogliere i frutti dell’agricoltura digitale, l’Italia ha ancora molto da seminare. Robotica, sensori, connessioni Internet of Things, analytics, intelligenza artificiale sono potenti strumenti di trasformazione, che sempre più in futuro consentiranno efficienze e un miglior uso delle risorse (terreni, fertilizzanti, acqua, energia) per ottenere risparmi, taglio degli sprechi, riduzione dell’impatto ambientale. Le tecnologie ci sono, ma alla loro adozione si frappongono ostacoli di natura economica, infrastrutturale, organizzativa, culturale. “L’agricoltura è il terreno più fertile per declinare la transizione ecologica e quella digitale e ora bisogna fare subito un salto quantico verso l’innovazione del settore primario, parlando di 5.0“, ha dichiarato il ministro delle Politiche agricole alimentari e forestali, Stefano Patuanelli, ospite dell’Agrifood Tech 5.0 Summit organizzato da The Innovation Group a Roma lo scorso aprile. Gli 22 |

LUGLIO 2022

incentivi del Piano 4.0 sono una risorsa da sfruttare, ma non l’unica. “Per aggredire i mercati esteri abbiamo bisogno di un’agricoltura più forte e competitiva”, ha detto Ivano Vacondio, presidente di Federalimentare. “Il sistema della manifattura alimentare ha avuto il grande vantaggio del 4.0, che ha permesso una grande spinta sugli investimenti, e se la digitalizzazione nel nostro settore è diventata un elemento straordinario è proprio perché abbiamo sfruttato questa grande risorsa. Ma per utilizzarla abbiamo bisogno di costruire valore, perché gli investimenti vanno fatti anche con capitale proprio”. Risorse economiche e umane

Nel nostro Paese solo una piccola fetta dell’attività agricola è coperta dagli incentivi del Piano 4.0. Le imprese più digitalizzate, in percentuale, sono quelle del Veneto, Piemonte, Friuli Venezia Giulia e Abruzzo, ma lo scenario nazionale è assai immaturo. “Abbiamo un li-

vello molto basso di digitalizzazione delle aziende agricole, in alcuni casi prossimo allo zero”, ha illustrato Massimiliano Giansanti, presidente di Confagricoltura. “Il dato nazionale è del 4%, nelle isole siamo al 2%. Solo 112 comuni rurali sono raggiunti dalla fibra ottica, al contrario dei 1.936 che dovranno essere cablati. Ancor prima di parlare di agrifood tech, la questione da affrontare è il ritardo tecnologico. Senza le connessioni e senza le infrastrutture difficilmente realizzeremo qualcosa”. “In Italia continuiamo ad avere un deficit di investimenti in tecnologie e in ricerca e sviluppo”, ha rimarcato Elio Cosimo Catania, consigliere del Ministro per le politiche di innovazione nel settore agroalimentare. “Sulla tecnologia il deficit corrisponde a un valore che stimiamo intorno al 2% del Pil, cioè 25 o 30 miliardi di euro che dovremmo investire per essere al pari della media europea. Sulla ricerca e sviluppo siamo al 50% in meno rispetto al livello europeo. La buona notizia è che forse uno dei pochi provvedimenti di policy che davvero abbia inciso negli ultimi anni nel nostro Paese è stato quello del 4.0, che ha consentito di accelerare


l’attenzione sul tema dell’information technology e in generale dell’innovazione. L’esperienza del 4.0 ci dice però che gli incentivi sono importanti ma non bastano. Servono leadership ed esempio da parte di chi è al vertice delle associazioni e delle imprese. La trasformazione non avviene senza la volontà forte di chi è ai vertici delle organizzazioni” L’altro grande tema, citato da un po’ tutti i relatori del summit, riguarda la formazione e la cultura digitale. “Il capitale umano è quello che fa la differenza in azienda, più ancora ancora dei sensori”, ha sottolineato Stefano Vaccari, direttore generale di Crea (Consiglio per la ricerca in agricoltura e l’analisi dell’economia agraria). “Il Crea su questo sta investendo molto e con soldi propri, perché purtroppo il Pnrr non favorisce la ricerca agricola. Stiamo investendo in formazione e in un’agricoltura di precisione che sia collettiva, un’innovazione diffusa. Singole imprese agricole capaci di entrare in un modello completamente digitalizzato in Italia ce ne sono poche, ma ci sono grandissime reti capaci di farlo, a cominciare dalle organizzazioni professionali e dal mondo della cooperazione”. Competenze e dati sono centrali

“Se non continuiamo a insistere su una formazione che non riguardi solo le università ma parta già dagli istituti tecnici, allora non abbiamo ben chiare le figure di cui abbiamo bisogno nelle nostre imprese”, ha sottolineato Ettore Prandini, presidente di Coldiretti. “Inoltre la formazione non si deve concludere nell’ambito scolastico bensì proseguire sempre”. Prandini ha rimarcato l’importanza degli obiettivi di sostenibilità, anche di fronte a esigenze contingenti di altro genere, come l’aumento della capacità produttiva nazionale. L’innovazione (in particolare nella meccanizzazione e nell’agricoltura di precisione) può permetterci di raggiungere entrambi i risultati, ma serve anche una

maggiore cooperazione tra produttori e distributori, tra imprese agroalimentari e Gdo, due mondi che in Italia spesso scaricano uno sull’altro le responsabilità. Inoltre, per ridurre la dipendenza del nostro comparto agroalimentare dal costo delle materie prime energetiche, dei concimi e degli antiparassitari, bisognerebbe puntare sulla genomica ma il disegno di legge sulla possibilità di fare sperimentazione in campo è fermo. Oltre alle infrastrutture, alla formazione e alla ricerca, un quarto grande tema è quello dell’accesso ai dati. “La digitalizzazione in agricoltura agevola il settore in tutte le fasi, dalla produzione alla trasformazione”, ha osservato Giorgio Mercuri, presidente della Alleanza Cooperative Agroalimentari. “Ma mettere in campo tecnologie digitali, robot, sensori è solo metà del percorso. Il grande lavoro è il recupero dei dati, che serviranno a sviluppare soluzioni di intelligenza artificiale capaci di dare la svolta al futuro delle produzioni”. La potenza dei dati sta però nella loro somma e integrazione, dunque Mercuri (e con lui altri ospiti del summit) ha sottolineato l’importanza di creare una o più piattaforme Big Data nazionali. Un buon punto di partenza sono i dati satellitari che già oggi permettono di tracciare parte delle attività agricole.

Elio Cosimo Catania

Allargare le alleanze e lo sguardo

“Abbiamo bisogno di un’agricoltura forte, competitiva, che faccia qualità e sia capace di reggere il mercato”, ha sottolineato Ivano Vacondio, presidente di Federalimentare. “Le filiere hanno senso e hanno forza se sono filiere corte. Abbiamo bisogno sempre più di avere un rapporto diretto con i produttori, laddove possibile. Non sempre lo si può fare ma le filiere coste funzionano perché consentono di disperdere meno la redditività”. Vacondio ha fatto l’esempio della filiera dei cereali, in cui questo modello ha funzionato. Che nel digitale non si possa procedere da soli lo ha rimarcato anche Maurizio Martina, vicedirettore generale della Fao ed ex ministro dell’Agricoltura. “Non possiamo disgiungere la riflessione sull’implementazione tecnologica da una riflessione sui modelli organizzativi dei sistemi agricoli italiani”, ha detto Martina, invocando un’innovazione di tali modelli e il pieno ricorso a strumenti cooperativi, di distretto, di filiera, vitali per un settore fatto soprattutto di piccole e medie aziende. “Altrimenti penso sia difficile compiere realmente questa svolta tecnologica necessaria”, ha rimarcato Martina. Gli ha fatto eco Maria Chiara Carrozza, presidente del Consiglio Nazionale delle Ricerche, sottolineando che “senza una visione ad ampio spettro non riusciremo a portare il nostro sistema dell’agricoltura nel nostro secolo. Essere nel nostro secolo non vuol dire digitalizzare, investire solo sulla globalizzazione e rendere tutto tecnico, bensì avere una visione complessiva, biosostenibile, che ci permetta di raggiungere gli obiettivi di compatibilità con l’ambiente. Per fare questo servono essenzialmente la cultura, l’investimento in nuovi modelli organizzativi e l’alleanza strategica. Il Cnr ci sarà, con il suo dipartimento e i suoi nuovi istituti, ci sarà sempre di più e si concentrerà sulla ricerca fondamentale”. Valentina Bernocco 23


RETI 5G

LE POTENZIALITÀ DELLA CONNETTIVITÀ WIRELESS Dalle smart city alla videosorveglianza, dalle ambulanze ai negozi: un mosaico di nuovi servizi sta emergendo con il 5G. La visione di Cradlepoint, società specializzata in soluzioni di Wireless Wan.

D

a anni si parla di 5G ma oggi i tempi sono davvero maturi e le applicazioni in uso stanno cambiando la nostra vita nel quotidiano. Per la prima volta, stando ai dati di Counterpoint Research, a inizio 2022 si è visto un sorpasso nel campo della telefonia: il 51% degli smartphone venduti a gennaio è un modello 5G. Sarebbe però un grosso errore credere che il potenziale di questa tecnologia si limiti all’esperienza d’uso di uno smartphone. Ne abbiamo parlato con Lorenzo Ruggiero, area director Southern Europe di Cradlepoint, azienda del gruppo Ericsson, che dal 2006 sviluppa e vende soluzioni di connettività “intelligente” per reti cellulari.

La connettività wireless ad alta velocità sta davvero cambiando il mondo?

Oggi numerose aziende hanno adottato il cloud, di conseguenza essere online e operativi è per loro un must, pena interruzioni delle attività o danni alla customer experience. Pensiamo al retail: oggi la connettività è parte integrante dell’esperienza di acquisto in negozio. La connettività wireless è, inoltre, indispensabile laddove non arrivino i cavi, nei chioschi multimediali o nei terminali di digital signage, sugli autobus come nelle ambulanze. Nelle principali città degli Stati Uniti ambulanze e autobus impiegano la tecnologia di Cradlepoint. 24 |

LUGLIO 2022

Nell’ambito dei trasporti, in Italia oltre duemila autobus hanno installato i nostri router per offrire servizi di connettività a bordo, per esempio lo streaming di contenuti video. Sempre nel nostro Paese sono diverse le implementazioni di ambulanze connesse in 5G e 4G. Altro caso d’uso interessante sono le reti parallele: spesso le reti esistenti sono complesse ed è difficile utilizzarle per accogliere nuovi applicativi, per questo si ricorre a reti parallele basate su Wireless Wan 5G e 4G. E poi ci sono i servizi per il retail e per le smart city, come i sistemi che monitorano e rilevano il traffico sulle nostre strade.

nostri router per dare connettività ai sistemi di biglietteria e telemetria a bordo. Forti del progetto già in atto, durante la fase più acuta della pandemia abbiamo lavorato al fianco di Atb nell’implementazione di una soluzione di conta passeggeri e di infomobilità. Un altro caso interessante riguarda la società australiana Taylor Construction, la quale grazie alla connettività di Wireless WAN di Cradlepoint ha dotato i propri cantieri di una soluzione di realtà aumentata che permette di avere un rendering olografico degli edifici in costruzione per i propri dipendenti e per i clienti.

Ci fa qualche nome?

I punti di forza sono i nostri router e la gestione via cloud. I nostri dispositivi permettono di dialogare con le stazioni degli operatori mobili al meglio, anche captando un segnale debole. Ci lavoriamo costantemente affinché possano offrire prestazioni e affidabilità. Grazie alla nostra soluzione Wireless WAN il cliente ha bisogno solamente di una Sim, tutto il resto è di competenza nostra e del rivenditore Cradlepoint specializzato. Nel momento in cui viene collegato all’alimentazione, il router si configura automaticamente via cloud. Per questo la nostra proposta è particolarmente adatta a contesti retail come i temporary store, dove garantiamo una connettività day one, annullando i tempi di configurazione. Tale connettività Wireless 5G o

Possiamo citare Atb, l’azienddei trasporti di Bergamo, i cui mezzi usano i

Lorenzo Ruggiero

Come si struttura la vostra offerta?


Foto di Conny Schneider da Unsplash

4G può essere utilizzata anche in parallelo a una connessione cablata per avere maggiore banda e alta affidabilità. In questi contesti il 5G fa la differenza?

Oggi, grazie al 5G, tutto ciò che si faceva prima con il 4G lo si può fare ancora meglio. Pensiamo all’esperienza degli smartphone: con il 4G abbiamo iniziato ad affidarci molto di più ad applicazioni che prima utilizzavamo poco, ad esempio streaming di contenuti e le Unified Communications, mappe e geolocalizzazione. Nella videosorveglianza, per esempio, l’alta definizione ha ampliato le potenzialità, permettendo di cogliere i dettagli all’interno di un ambiente. Sull’onda della nuova tecnologia 5G molte applicazioni saranno ottimizzate e soprattutto ne nasceranno di nuove. I nostri nuovi router offrono nativamente le potenzialità del 5G, inoltre molti modelli precedenti possono essere aggiornati al 5G con l’ausilio di un piccolo modulo. È possibile affidarsi a più di un operatore mobile contemporaneamente, impiegando due o più Sim; tale utilizzo simultaneo di più tecnologie è molto importante, in particolare in alcuni ambiti come le ambulanze connesse o in generale per i progetti mission-critical in cui

l’assenza di connettività potrebbe comportare impatti significativi. E a che punto siamo con l’adozione?

Per quanto riguarda il 5G, in Italia lo scenario è abbastanza avanzato rispetto ad altri Paesi europei dove l’assegnazione delle frequenze è avvenuta più recentemente o è ancora in corso. A livello locale gli operatori hanno investito tanto e bene, dunque oggi è tempo di capitalizzare questi investimenti. Perché il 5G e non il WiFi?

Il Wi-Fi è un tipo di connettività che lavora in maniera circoscritta e resta solitamente all’interno di un’area locale. Oggi le imprese possono contare su una nuova opzione, le reti Private 5G. Con queste soluzioni si ottiene una rete mobile aziendale in cui il traffico privato è protetto e i servizi di comunicazione sono disegnati specificamente per sup-

L’OPZIONE “IBRIDA” DEL PRIVATE 5G L’espressione Private 5G, ancora relativamente nuova, nei prossimi anni diventerà familiare a chi si occupa di infrastrutture di rete e anche a molte aziende utenti. Così, almeno, assicurano i fornitori di hardware o di software per le reti, come Cisco, Hpe Aruba, Ericsson e la sua controllata Cradlepoint, per citare alcuni nomi di aziende che hanno recentemente presentato soluzioni Private 5G. Alla base c’è l’idea di combinare la connettività 5G e il Wi-Fi per prendere il meglio da entrambe le tipologie di rete, bilanciando esigenze di bassa latenza, di copertura e di costi. Si ottiene quindi una rete “ibrida”, composta da due tecnologie complementari e capace di passare automaticamente da una all’altra in funzione dei bisogni, del contesto (outdoor o indoor, spazi di grandi, medie o piccole dimensioni) e del tipo di utilizzo (il 5G è ideale per le connessioni Internet of Things, per esempio).

portare applicazioni in cui qualità dei servizi, tempi di latenza e capillarità sono essenziali per il business. Riteniamo che questo trend crescerà fortemente nei prossimi due anni. Far parte del gruppo Ericsson ci permette di sviluppare molte sinergie. Inoltre, l’intelligenza cellulare è un punto di forza della nostra offerta: è integrata in ogni nostra proposta, dal dispositivo hardware alla gestione in cloud. Il nostro router software-defined è in grado di agganciare la connessione più velocemente e di mantenerla anche in caso di segnale debole. Il sistema di gestione in cloud permette di ottenere statistiche sulle prestazioni e visibilità sulle applicazioni utilizzate in una rete aziendale, in un negozio, su un veicolo o per un oggetto IoT. Come vi muovete sul mercato italiano?

Abbiamo scelto di affidarci a partner competenti e affidabili. Tipicamente lavoriamo con i principali system integrator e operatori telefonici. In Italia abbiamo un significativo numero di clienti medio-grandi ai quali si affiancano realtà più piccole, seguite dai nostri partner, e il mercato è in straordinaria crescita. Basti pensare che al nostro esordio in Europa, nel 2020, il team era composto da meno di dieci persone mentre oggi siamo più di cento. La reazione del canale dei partner è stata molto positiva, tutti hanno dimostrato di avere una piena consapevolezza della transizione che sta avvenendo con il 5G e le reti private. V.B. 25


Foto di Xpics da Pixabay

CYBERSECURITY

LA SICUREZZA È A VOLTE UN’ILLUSIONE La percezione del rischio di attacchi mirati tra i Ciso è in calo, ma la crisi geopolitica in corso aumenta il pericolo reale, come sottolineato da Proofpoint.

D

opo un 2020 di corsa allo smart working, per le aziende il 2021 è stato ancora un anno di lavoro intenso, in cui è stato necessario spingere ulteriormente sul pedale dell’acceleratore per la digitalizzazione delle proprie attività. Ed è anche stato un anno di grande crescita degli attacchi informatici, specialmente quelli cosiddetti di supply chain, in cui software legittimi sono stati alterati in fase di sviluppo o di distribuzione per colpire l’utente finale. Il 2022 avrebbe potuto essere l’anno della quiete dopo la tempesta, ma è arrivata una tempesta ancor più grande: la guerra, con il suo contorno di crisi geopolitica e la nuova ondata di attacchi DDoS, cyberspionaggio, hacktivismo e ransomware realizzati 26 |

LUGLIO 2022

come dimostrazione di forza. Una nuova, inaspettata cyberwar. Su un livello più basso si sono dispiegate ondate di

phishing che con la guerra non avevano nulla a che fare, ma che ne sfruttavano i temi e l’onda emotiva. Secondo i monitoraggi del consorzio Anti-Phishing Working Group (Apwg), nei primi tre mesi di quest’anno il numero degli attacchi di phishing ha superato il milione, con una crescita del 15% rispetto al trimestre precedente; nello stesso lasso di tempo il furto di credenziali aziendali conseguente a phishing è salito del 7%. Un anno tutt’altro che tranquillo

Luca Maiocchi

Se il phishing spesso rappresenta il primo anello di una catena di attacco, il ransomware può essere il passaggio finale. Escludendo momentanee fluttuazioni legale allo smantellamento di gang cybercriminali (che sono però pronte a rimescolarsi e riformarsi nel giro di poco tempo), il fenomeno continua a crescere. Nel suo ultimo report “State of Ransomware 2022”, Sophos evidenzia che lo scorso anno il 66% delle aziende (su una


RANSOMWARE, IL RISCATTO È LA PUNTA DELL’ICEBERG Nel primo trimestre del 2022, dai monitoraggi di Check Point emerge che a livello globale ogni settimana è stata colpita da ransomware un’azienda su 53, e il dato è in ascesa del 24% rispetto alla proporzione di una su 66 del primo trimestre 2021. Da anni i ransomware (cioè gli attacchi informatici che esigono il pagamento di un riscatto in cambio della “liberazione” dei dati crittografati o dei sistemi bloccati in altro modo) sono in continua crescita e l’ennesima statistica sul tema ormai non stupisce più. Ma quel che oggi deve soprattutto preoccupare è la loro evoluzione qualitativa. Nella maggior parte dei casi, i gruppi cybercriminali hanno messo a punto un modus operandi che permette loro di agire con successo sia nell’attacco sia nelle procedure di “negoziazione” con la vittima. Prima di attivarsi, per esempio, fanno una stima accurata dello stato finanziario dell’azienda, poi chiedono un riscatto coerente con sue le entrate annuali, in percentuale compresa tra lo 0,7% e il 5% del giro d’affari, a detta di Check Point. Il riscatto è però solo una piccola parte del danno economico registrato: includendo i costi di risposta e ripristino, le spese legali, i costi di monitoraggio, la somma è fino a sette volte più alta. E poi c’è da considerare il danno di reputazione, molto difficile da quantificare se non a distanza di anni. Sul fenomeno ransomware, interessanti sono anche i dati di Sophos. Nel 2021 il 46% delle aziende colpite da attacchi crittografici ha scelto di cedere alla richiesta di pagamento. E il backup, non dovrebbe limitare i danni, permettendo di recuperare i dati senza doversi piegare al ricatto dei cybercriminali? Certamente è così, ma accade anche che le aziende scelgano di pagare lo stesso, magari per tornare immediatamente operative evitando danni economici da mancata attività o multe o reputazione rovinata. Anche quando il backup ha permesso di recuperare i dati, in un caso su quattro circa (26%) le aziende hanno pagato ugualmente. rosa di 5.600 clienti di 31 nazioni) ha subìto almeno un attacco di questo tipo. Nel 2020 la percentuale era stata solo il 37%. Il dato più notevole riguarda però l’importo dei riscatti chiesti dagli autori degli attacchi: in un anno la cifra media si è quintuplicata, arrivando nel 2021 a 812.360 dollari. Inoltre risulta triplicata la quota di aziende che ha pagato riscatti pari a un milione di dollari o superiori. Phishing e ransomware sono minacce che tipicamente viaggiano sulla posta elettronica, ma altri vettori d’attacco non vanno sottovalutati. “Gli attacchi tramite social media contro le aziende continuano a crescere rapidamente”, ha

spiegato John LaCour, principal product strategist di HelpSystems e membro di Apwg. In media, un’azienda viene colpita attraverso questo canale tre volte, e nel 47% dei casi la tecnica usata è lo spoofing, cioè la falsificazione dell’identità. “Molte aziende”, ha proseguito LaCour, “non si rendono conto che i loro dirigenti sono vittima di spoofing sui social media. Questo è un enorme rischio per il business”. Il rischio di sottovalutare il rischio

Sembra dunque che i responsabili della cybersicurezza in azienda non possano dormire sonni tranquil-

li nemmeno in questo 2022. Eppure la percezione del rischio è in calo. Da una ricerca di Proofpoint (“Voice of the Ciso 2022”, condotta a inizio 2022 su 1.400 responsabili della sicurezza informatica di medie e grandi aziende di 14 Paesi) sono emerse significative differenze tra il presente e il recente passato. Nel 2021 il 64% dei Ciso italiani credeva che la propria azienda potesse subire un attacco informatico, mentre nel 2022 la percentuale è scesa al 46%; i numeri sono quasi gli stessi per la percezione del rischio di attacchi mirati, cioè 63% nel 2021 e 42% nel 2022. “In alcuni Paesi i Ciso oggi percepiscono un rischio minore rispetto all’anno scorso, in altri un rischio maggiore”, ha commentato il country manager di Proofpoint, Luca Maiocchi, a margine della presentazione della ricerca. “L’Italia è in media, mentre per esempio Francia e Canada percepiscono un rischio molto maggiore. Perché queste discrepanze? Laddove c’è maggiore maturità informatica, c’è anche maggiore consapevolezza del rischio”. Ma perché, in generale, la percezione del pericolo è in calo? L’ipotesi emersa dallo studio di Proofpoint è che i dipartimenti di cybersicurezza interni alle aziende abbiano ormai familiarizzato con le nuove modalità di lavoro introdotte nell’ultimo biennio, e dunque si sentano più pronti ad affrontare eventuali attacchi. “Fortunatamente la dinamica del lavoro da casa è stata abbracciata dai Ciso ma si è anche vista la dinamica della great resignation: le persone abbandonano le aziende in gran numero”, ha sottolineato Andrew Rose, resident Ciso di Proofpoint. “Nel 2022 abbiamo a che fare forse con il problema più grande di tutti: la crisi geopolitica. I Ciso devono capire come poterla gestire, si tratti dei loro uffici locali in Ucraina e Russia o di proteggersi dalle minacce derivanti dalla crisi”. Valentina Bernocco 27


CYBERSECURITY

LE MINACCE INTERNE SONO IL PRIMO PROBLEMA Le cosiddette minacce interne sono il principale problema di cybersicurezza percepito dai Ciso italiani. Secondo un’indagine di Proofpoint (di cui parliamo a pag. 27), nella rosa degli attacchi informatici che più preoccupano i danni causati dai dipendenti per negligenza o dolo sono al primo posto, citati dal 34% del campione italiano. Seguono il phishing, a poca distanza con una quota del 33%, le frodi originate da violazioni delle email aziendali (30%), i malware (28%), la violazione degli account cloud (Microsoft 365, Google Workplace o altri, 27%), i DDoS (20%), i ransomware (20%) e gli attacchi alla supply chain (18%). “I Ciso italiani mettono al primo posto il tema delle minacce interne, a conferma di quello che riscontriamo

28 |

LUGLIO 2022

noi come vendor”, ha commentato Luca Maiocchi, country manager di Proofpoint. “Il timore dei ransomware è leggermente in calo, forse perché le nostre aziende si sono ormai abituate a trattare con questa minaccia”. I dipendenti, dunque, sono un rischio per l’azienda? Purtroppo sì, ma sono anche una risorsa importante. Per quante volte sia stato detto, all’interno di report, interviste e nei commenti degli analisti, il fatto che le identità siano diventate il nuovo perimetro digitale delle aziende, non è mai abbastanza sottolineato. L’uso estensivo di infrastrutture e applicazioni cloud, a cui si accede spesso tramite dispositivi personali e reti domestiche, ha reso sempre più vaga la distinzione tra il “dentro” e il “fuori”, tra ciò che fa

parte o non fa parte delle risorse IT aziendali. Molti attacchi informatici, come il phishing e lo spoofing, intercettano l’ingenuità o le disattenzioni degli utenti per arrivare a sottrarre dati o a bloccare le attività di un’azienda. In altri casi il varco per i cybercriminali si apre grazie grazie a un dispositivo non aggiornato, su cui è installato un software vulnerabile. “Abbiamo chiesto se i dipendenti rappresentino il nuovo “perimetro” della sicurezza informatica, e dunque un fattore di rischio, volontario o involontario che sia”, ha spiegato Antonio Ieranò, evangelist cyber security strategy di Proofpoint. “In media, il 60% dei Ciso pensa che i dipendenti siano una componente fondamentale per la protezione del loro perimetro di sicurezza”. Ci sono settori, fa notare Ieranò, che solo di recente hanno cominciato a maturare questo genere di consapevolezza: come quello sanitario, oggi nel mirino degli attacchi informatici molto più di quanto non fosse in passato. In generale, la percezione del rischio derivante dal famigerato “fattore umano” non è ancora abbastanza forte. “Il World Economic Forum stima che il 95% dei problemi di sicurezza informatica sia imputabile a errori umani”, ha proseguito Ieranò. “Ma tra i Ciso questa percezione è intorno al 60%. Una differenza sensibile, segno che esiste ancora una distanza tra lo scenario reale dei rischi informatici e la loro percezione”. Nel report si evidenziano anche differenze tra un ambito e l’altro: nel settore dell’istruzione, in particolare, il divario tra percezione del rischio legato all’utente e la realtà è molto accentuato. V.B.


TECHNOPOLIS PER BITDEFENDER

TRE PASSI PER LA SICUREZZA DEI CARICHI DI LAVORO IN CLOUD I team DevOps possono migliorare la protezione dei workload che garantiscono la distribuzione e l'esecuzione delle applicazioni. Il DevOps viene considerato un approccio “green” quando si tratta di pratiche di sicurezza. Gli sviluppatori sono generalmente concentrati sulle prestazioni e sulla distribuzione delle soluzioni, piuttosto che sulla loro protezione. Con il progredire della sicurezza dei carichi di lavoro nel cloud, dalla distribuzione all'adozione diffusa, fino all'ottimizzazione del runtime, i team DevOps devono implementare alcuni passaggi per garantire la corretta protezione dei loro progetti. Ma quali sono i passaggi fondamentali per i team DevOps per migliorare le loro difese di protezione dei carichi di lavoro nel cloud per la distribuzione ed esecuzione delle applicazioni? Garantire una valutazione corretta Il primo passo è assicurarsi che venga eseguita una valutazione corretta. Per un’azienda è fondamentale comprendere i rischi associati alla migrazione e all'infrastruttura del fornitore di soluzioni cloud. Per questa valutazione i team DevOps devono porsi diverse domande. Innanzitutto, qual è la responsabilità condivisa del progetto? Occorre considerare tutti coloro che utilizzeranno questa soluzione e chi avrà il compito di mantenerla in funzione una volta avviata. In secondo luogo, quali controlli possono essere effettuati con l'infrastruttura attuale e quali devono essere implementati? Una volta che il progetto di protezione dei carichi di lavoro nel cloud è in fase di esecuzione attiva, occorre prendere nota delle funzionalità di sicurezza che si è in grado di implementare immediatamente e di quali misure mancano ancora. Infine, quali controlli di sicurezza sono in linea con la gestione del rischio? Una volta completata la valutazione iniziale, bisogna appurare di aver assegnato controlli di sicurezza adeguati per essere allineati alle iniziative di gestione del rischio. Riconoscere i rischi potenziali I criminali informatici stanno spostando i loro attacchi verso ambienti virtualizzati e, più specificamente, verso Linux. In primo luogo, questo succede perché più dell'80% dei carichi di lavoro residenti in ambienti cloud/hybrid cloud (sia server sia container) girano su distribuzioni basate su Linux, essendo questi ambienti più efficienti e facili da gestire. Sono però anche più generici e stereotipati, il che rende più semplice per i criminali informatici imitare un ambiente. In secondo luogo, i carichi di lavoro basati su Linux sono i più trascurati in qualsiasi infrastruttura: trattandosi di un ambiente open-source, molti non ritengono la protezione Linux una loro responsabilità. Infine, la maggior parte

Yasser Fuentes

delle distribuzioni è ospitata nel regno dell'open-source, quindi non c'è un vero impegno a fornire aggiornamenti e patch di sicurezza. Quando distribuiscono una soluzione in un ambiente Linux/open-source, i team DevOps devono essere consapevoli dei rischi anche sul lungo periodo. Sicurezza in tutte le fasi Tenendo conto di queste informazioni, esistono dei passaggi chiave per creare e distribuire ambienti virtualizzati più sicuri. Quando si sviluppa un'iniziativa DevOps, verificare che la sicurezza sia stata prevista in ogni fase della pipeline di distribuzione. È importante considerare funzionalità di rilevamento e la risposta gestiti (Mdr) e di rilevamento e risposta estesi (Xdr) durante la fase di pre-distribuzione per valutare in modo proattivo minacce, configurazioni errate e vulnerabilità. Successivamente, quando i container sono pronti per l'esecuzione, assicurarsi di proteggere la fase di runtime. Senza questo passaggio i container rimangono vulnerabili in caso di violazione. È necessario essere responsabili dei dati che le proprie applicazioni elaborano all'interno del cloud, siano essi di proprietà o meno. Quando si adotta una tecnologia sviluppata da altri, la protezione dei dati ospitati è una responsabilità condivisa. Ognuno di questi passaggi garantirà ambienti più affidabili e di facile utilizzo. I controlli di sicurezza dovrebbero essere in linea con i processi e lo sviluppo del prodotto, e non dovrebbero essere sacrificati solo per ottenere una distribuzione più rapida o efficiente. Comprendendo come proteggere al meglio le iniziative DevOps, i team di sviluppo riusciranno a creare ambienti container migliori e più sicuri.

Yasser Fuentes, technical product manager cloud di Bitdefender

29


TECHNOPOLIS PER CYBER GURU

FORMAZIONE, UN INVESTIMENTO CHE DÀ BUONI FRUTTI Competenze e consapevolezza sono la prima arma di difesa contro i rischi cyber. Vittorio Bitteleri, country manager di Cyber Guru, spiega la metodologia messa a punto dalla sua azienda. Addestrare le persone a riconoscere una minaccia cyber, come una email di phishing o un’anomalia nella navigazione online, sta diventando una delle priorità più sentite dai responsabili della cybersecurity. E non solo da loro, ma anche da funzioni del business come le risorse umane e la direzione. Perché è importante la formazione in ambito cybersecurity, e come approcciarsi a essa? Abbiamo affrontato il tema con Vittorio Bitteleri, country manager di Cyber Guru, società specializzata nella realizzazione di percorsi di apprendimento sulla cybersecurity che ha sviluppato una propria metodologia innovativa. Che cosa è cambiato negli ultimi due anni? La pandemia ha aumentato l’orario di esposizione dei dipendenti all’utilizzo di device IT, e questo ha reso le persone molto più vulnerabili agli attacchi cyber. Nelle nostre sessioni di addestramento con template di phishing simulato abbiamo visto come le persone siano oggi particolarmente sensibili ad alcune informazioni “esca”, utilizzate dagli attaccanti. La formazione Vittorio Bitteleri

continua è quindi un aiuto determinante, per rendere le persone la prima difesa aziendale: un percorso formativo evoluto può stimolare i dipendenti a diventare prima barriera di difesa, a prevenire le compromissioni dei device, anche quelli di utilizzo personale. Quale è la metodologia sviluppata da Cyber Guru? Il nostro obiettivo è quello di migliorare i cambiamenti delle persone. Questo non è immediato, ci vuole tempo, una formazione “omeopatica”, in piccole dosi ma molto efficace. Abbiamo approcciato questo tema con un aspetto metodologico nuovo, lavorando molto sull’andragogia, ossia sull’insegnamento rivolto a persone adulte che hanno un livello di attenzione basso, non superiore ai cinque-sette minuti. Grazie a un team multidisciplinare, che considera anche aspetti psicologici e comunicativi (oltre, ovviamente, a quelli del dominio cyber), abbiamo sviluppato un percorso formativo per aiutare gli utenti a percepire il rischio nascosto dietro al monitor. Concetti di gamification e video “Netflix-like” consentono al discente di immedesimarsi nelle situazioni proposte, il coinvolgimento e la narrazione aiutano l’apprendimento, mostrando come anche un comportamento normale (per esempio, l’uso di una rete Wi-Fi pubblica non protetta da password) possa portare a un evento nefasto. Una volta visto che cosa accade al protagonista, l’utente presterà maggiore attenzione in futuro. Nel programma formativo di Cyber Guru i concetti sono appresi da lezione a lezione , l’attenzione si mantiene alta con l’addestramento esperienziale. Stimoliamo in modo continuativo l’utente alla ricezione di email di phishing con livelli di difficoltà adeguati alla sua preparazione. Qual è il reale ritorno di un percorso formativo? I nostri clienti, grazie anche al fatto che ci siamo dotati della certificazione ISO 9000 2015, possono ottenere incentivi come quelli previsti dal piano Transizione 4.0 o Pnrr (con il meccanismo del credito d’imposta fino al 50% dell’investimento) o anche il rimborso totale tramite i fondi interprofessionali. A parte l’aspetto meramente economico, il vero ritorno sull’investimento in formazione è il cambio posturale dell’organizzazione di fronte agli attacchi cyber. Con un benchmark sulla platea dei clienti, abbiamo visto che a distanza di un anno il click rate e la postura migliorano e i comportamenti non virtuosi si dimezzano.

30 |

LUGLIO 2022


TECHNOPOLIS PER MANDIANT

INTELLIGENCE E AUTOMAZIONE, I MIGLIORI ALLEATI Per le aziende è sempre più importante dotarsi di una corretta gestione del rischio informatico e ottimizzare il lavoro dei Security Operation Center. Quali sono, oggi le priorità dei responsabili della cybersicurezza aziendali? E quali tecnologie possono fare la differenza? Ne abbiamo parlato con Giancarlo Marengo, country manager di Mandiant Italy.

Giancarlo Marengo

Nell’agenda dei chief information security officer, oggi, quali sono le priorità? Negli ultimi due anni, a causa della pandemia, delle minacce informatiche e dell’aumento degli attacchi ransomware, le aziende hanno compiuto investimenti dedicati alla sicurezza informatica, realizzati sia in tecnologia sia in persone. Quest’anno una priorità chiave per i Ciso dovrebbe essere ottimizzare questi investimenti. I Ciso devono anche mantenere il dialogo sul rischio informatico e sull’impatto che le misure proattive e reattive hanno sul profilo di rischio di un’organizzazione. Il rischio informatico può essere un grande problema. E come lo possiamo affrontare? Per gestire il rischio informatico con successo le organizzazioni dovrebbero concentrare gli sforzi sull’identificare le minacce più importanti e sul fare in modo che queste informazioni integrino il profilo di rischio cyber operativo dell’azienda. Alcuni esempi: misurare e migliorare la capacità di hunting; gestire la vulnerabilità con le capacità di assegnare un punteggio e identificare rapidamente quelle più pericolose per un settore e attività specifici. L’obiettivo di una corretta gestione del rischio informatico è aiutare a far emergere le minacce e vulnerabilità di cui l’organizzazione dovrebbe preoccuparsi maggiormente e che hanno la potenzialità di causare un impatto significativo. In tutto questo, qual è il ruolo della threat intelligence? I Ciso possono essere supportati dai controlli forniti dalle tecnologie che hanno acquistato, ma per contrastare efficacemente le nuove minacce hanno anche bisogno delle giuste competenze e della più recente intelligence sulle minacce. La cosa più importante è che l’intelligence deve essere actionable, cioè in grado di innescare azioni concrete per verificare o incrementare la sicurezza in risposta a un allarme. È importante che un servizio di threat intelligence abbia anche una capacità immediata di investigazione o di risposta agli incidenti, codificata all’interno dei processi dell’organizzazione con Service Level Agreement misurabili che diventano una vera e propria appendice della piattaforma

di intelligence utilizzata. Infine, oltre a intraprendere un’azione, è necessario misurare l’efficacia dell’azione stessa attraverso una validazione esterna. Come migliorare l’efficacia dei Security Operation Center? L'automazione e l’intelligenza artificiale possono aiutare a riconoscere le attività malevole nel luogo in cui avvengono, per esempio comandi dannosi impartiti su sistemi compromessi, o i file sospetti inviati via email o scaricati. Inoltre possono a rendere scalabile la gestione del volume degli alert ricevuti dal Security Operation Center aziendale. L’automazione aiuta anche nell’analisi, consentendo di classificare grandi quantità di dati come collezioni di file, di elaborarli e di identificare quelli dannosi, mantenendo al minimo i falsi positivi. Lo stesso può essere fatto, ad esempio, con gli Url e con altri vettori d’attacco. Quando le organizzazioni usano l’automazione per rilevare e rispondere agli incidenti alla velocità della macchina, questo innesca un circolo virtuoso: i SoC sono in grado di rispondere agli allarmi di sicurezza in maniera tempestiva; le preziose (e generalmente scarse) risorse umane vengono impiegate al meglio e gli analisti svolgono un lavoro più stimolante e più coerente con le loro competenze; inoltre l’azienda può permettersi di analizzare un valore di dati ancora più elevato senza incorrere in congestioni.

31


TECHNOPOLIS PER THALES

IL CONTRIBUTO DEL CLOUD ALLA SOVRANITÀ DIGITALE Secondo il World Economic Forum, la sovranità digitale si riferisce alla "capacità di detenere il controllo sul proprio destino digitale, ovvero sui dati, sull'hardware e sul software che hai creato e sul quale fai affidamento". Mentre i dati continuano a crescere in modo esponenziale e le aziende moderne si affidano sempre più alle piattaforme digitali, l'esigenza di una sovranità digitale tra le nazioni è in aumento. Il World Economic Forum ha stimato che oggi oltre il 92% dei dati nel mondo occidentale è archiviato su server di società con sede negli Stati Uniti. Le preoccupazioni legate al controllo e alla privacy di questi dati da parte dei governi europei sono state determinanti per l'introduzione del Gdpr, il Regolamento generale per la protezione dei dati personali. Tuttavia, è stato solo nel 2020, quando la Corte di Giustizia dell'Unione Europea ha dichiarato invalido il Privacy Shield tramite la sentenza Schrems II, che la sovranità digitale è diventata un argomento di discussione urgente nelle grandi imprese e nel settore pubblico. Il Privacy Shield rappresentava una struttura di protezione giuridica globale all'interno del quale le imprese internazionali potevano elaborare e trasferire i dati in tutta sicurezza tra l'Unione Europea e gli Stati Uniti. Si stima che siano state colpite dalla sentenza oltre cinquemila società, le loro filiali e i fornitori, impattando una percentuale importante dei 1.300 miliardi di dollari a cui ammonta il commercio transatlantico annuale. L'impatto della sovranità digitale La sovranità digitale ha sollevato interrogativi tra i direttori IT in merito alla strategia cloud, la governance e la gestione del rischio. La sfida non riguarda solo la posizione geografica dei dati sensibili, ma anche chi vi ha accesso all'interno di un'organizzazione. Ad esempio, secondo la sentenza Schrems II, se un dipendente con sede negli Stati Uniti accede a dati sensibili protetti dall'Ue all'interno della propria azienda, questo accesso può essere considerato una "esportazione" di dati sensibili e una violazione del Gdpr. Le aziende devono dunque individuare e adottare le misure supplementari necessarie per portare la protezione dei dati trasferiti tra giurisdizioni sovrane al livello richiesto dalla legislazione locale. Per quanto riguarda il cloud, tuttavia, questo è più facile a dirsi che a farsi. Le aziende si affidano a una miriade di servizi cloud. Secondo la nuova “Relazione sulle minacce verso i dati” del 2022, redatta da 451 Research per Thales, il 34% delle aziende a livello globale utilizza almeno 50 applicazioni SaaS, mentre il 17% ne usa più di 100. I dati sensibili passano attraverso la

32 |

LUGLIO 2022

Luca Calindri

maggior parte di queste piattaforme, creando un ambiente che, secondo metà degli intervistati, rende più complesso gestire la privacy e le norme di protezione dei dati nel cloud rispetto alle reti on-premise. Dati, software e sovranità operativa Per quanto riguarda una strategia cloud efficace, secondo Thales sono tre i pilastri principali che supportano gli obiettivi di sovranità digitale. In particolare, sovranità dei dati significa mantenere il controllo sulla crittografia e sull'accesso. Ciò impedisce ai dati sensibili di cadere nelle mani di estranei senza che vi sia una esplicita autorizzazione, e garantisce il rispetto delle norme. Poi, la sovranità operativa offre all'azienda visibilità e controllo sulle operazioni del fornitore. In questo modo gli utenti malintenzionati o i processi dannosi non possono accedere o impedire di accedere a dati preziosi, come nel caso di attacchi ransomware o accessi degli utenti privilegiati. Infine, la sovranità del software porta a eseguire carichi di lavoro senza dipendere dal software di un fornitore.

Luca Calindri, country sales manager Italy & Malta, Data Protection division di Thales


TECHNOPOLIS PER VECTRA AI

CONOSCERE LE MINACCE PER UNA DIFESA EFFICACE Awareness, prevenzione e automazione sono le strategie migliori per riuscire ad anticipare le mosse degli attaccanti. Ma senza trascurare la risposta rapida agli incidenti. La chiave per una buona difesa sta nel conoscere e prevedere le mosse dell’attaccante. Anche in ambito cybersecurity, infatti, il fattore umano fa la differenza: ancor prima di analizzare il tool utilizzato per far breccia nei sistemi, occorre comprendere metodi, tecniche, tattiche e intenti degli attaccanti, per capire quale sarà il prossimo passo. Il panorama delle minacce oggi è variegato e affollato. I numerosi criminali informatici conoscono una molteplicità di modi per ottenere l’accesso agli ambienti dell’organizzazione finita nel mirino, senza contare i diversi tool con cui possono automatizzare la progressione dell’attacco. Andando, però, ad analizzare tutti questi elementi e le relazioni che intercorrono tra di essi, ci si trova di fronte a un set relativamente piccolo di metodi, che si evolve lentamente nel tempo. L’analista di sicurezza deve, dunque, partire dalla comprensione di questi metodi e delle relative contromisure, facendo riferimento a matrici come il MITRE Att&ck e il più recente D3fend, e adottare un linguaggio comune che faciliti la condivisione di informazioni e renda il processo più efficace. Quando si ragiona in ottica di difesa preventiva, proattiva e reattiva, un approccio simile consente di ottimizzare le attività di threat intelligence, utili ad anticipare le mosse dell’attaccante attraverso tutta la catena di attacco. È altrettanto importante utilizzare lo stesso mindset in attività di threat hunting e difesa proattiva: in questi casi si commette spesso l’errore di concentrarsi unicamente sull’indicatore dell’attacco, mentre occorre chiedersi anche come, dove e perché si sia sviluppato, indagando sull’intera organizzazione. Nella fase di risposta all’incidente, riuscire a unire i puntini velocemente significa aver tempo per anticipare le future mosse dell’attaccante. Affiancare agli analisti le giuste tecnologie In questo compito gli analisti non vanno lasciati da soli: devono essere affiancati da tecnologie all’avanguardia come quelle di Vectra AI, che utilizza un approccio al rilevamento delle minacce focalizzato sull’analisi e sull’individuazione del metodo, delle tattiche e del comportamento messi in atto, correlando queste informazioni per mostrare velocemente all’analista la progressione dell’attacco e l’obiettivo dei suoi autori. La tecnologia di Vectra AI è anche quella con il maggiro numero di brevetti citati all’interno del nuovo framework MITRE D3fend, che mappa le necessarie contromisure alle tecniche di attacco. Oggi la causa principale di data breach resta la compromissione delle identità e degli account, soprattutto in ambienti ibridi. Anche

Alessio Mercuri

sotto questo aspetto, la tecnologia può aiutare analisti e organizzazioni attraverso la prevenzione. I report ci dicono che a fornire all’attaccante la via d’accesso all’infrastruttura aziendale sono spesso le configurazioni errate. Grazie alla recente acquisizione della società Siriux, Vectra AI è in grado di ridurre la superficie di attacco analizzando automaticamente la postura di sicurezza dell’ambiente Microsoft365. Siriux scansiona le configurazioni di sicurezza di ogni servizio abilitato nel tenant M365 e la configurazione di ogni utente all’interno di questi servizi, alla ricerca di configurazioni errate che potrebbero rendere l’organizzazione vulnerabile ad attacchi come Dark Halo e Nobelium. Inoltre, al fine di poter rilevare attacchi che coinvolgono ambienti ibridi, c’è bisogno di una tecnologia capace di correlare autonomamente gli eventi e a comprendere l’estensione dell’intrusione, aiutando l’analista e l’organizzazione a rispondere in maniera veloce. Risposte che devono far leva sempre più sull’automazione, con tecnologie in grado di integrarsi tra di loro e di essere gestite da strumenti di orchestrazione e dai playbook in essi creati.

Alessio Mercuri, Security Engineer di Vectra AI

33


Foto di Gerd Altmann da Pixabay

INDUSTRIA 4.0

ANNO ZERO PER LA SERVITIZATION ITALIANA

Molti i vantaggi del modello della servitizzazione, sia per chi lo propone sia per chi lo fruisce. Ma non mancano criticità.

R

incari dei costi energetici, ritardi nelle consegne: le imprese industriali italiane nella congiuntura attuale affrontano difficoltà non da poco. Dinamiche che, tra le altre cose, hanno l’effetto di rafforzare l’interesse per il digitale e per le tecnologie che abilitano il paradigma Industria 4.0. Se oggi le soluzioni più adottate in questo ambito sono il monitoraggio da remoto e la fabbrica connessa (cioè l’Industrial IoT), gli ambiti di innovazione sono innumerevoli e mostrano tutti prospettive di crescita importanti, come emerge dai risultati della “Smart Manufacturing Survey 2022” di The Innovation Group e ContactValue. La trasformazione digitale richiederebbe però anche lo sviluppo di nuovi modelli di business: uno su tutti, quello della servitizzazione, o servitization, ossia il passaggio da modelli basati sul concetto di prodotto a nuovi paradigmi che vedono il sistema prodotto-servizio come un tutt’uno. Nel campo industriale questo può significare la cessione di una macchina da parte di un fornitore a un cliente attraver34 |

LUGLIO 2022

so un contratto di servizio. Si tratta di una transizione che ha difficoltà a farsi strada in Italia a causa del perdurare di approcci tradizionali. Ma è la naturale evoluzione per un comparto industriale che è sempre più connesso e collaborativo. Obiettivi come risparmio energetico, competitività, sostenibilità aziendale possono oggi essere raggiunti con un salto in avanti verso l’innovazione e la digitalizzazione. “La servitization è il processo con cui le aziende trasformano strategia, capacità, competenze e processi interni, con l’obiettivo di creare valore nel passaggio dalla vendita del prodotto alla vendita di un sistema “prodotto-servizio”, spiega Giuditta Pezzotta, professore associato dell’Università degli Studi di Bergamo. “In un’ottica relazionale con il cliente, il valore non si crea più solo all’atto di vendita ma sempre di più si parla di value in use, ovvero della possibilità di creare valore durante l’intero ciclo di vita del prodotto”. Un modello di servitization impatta su ogni singolo aspetto del business di un’impresa industriale. L’azienda produttrice di macchinari si posiziona

come erogatore di servizi verso i clienti finali e alla stregua di un intermediario finanziario. Il cliente può usufruire della macchina pagando in base all’utilizzo e con un contratto di servizio pluriennale. I molti vantaggi della servitizzazione

Dal punto di vista dei produttori industriali, i benefici di un approccio più spinto alla servitization sono molteplici, e non riconducibili soltanto alla vendita aggiuntiva di servizi collegati al prodotto (servizi oggi già molto diffusi, di assistenza tecnica, monitoraggio, manutenzione preventiva e predittiva, formazione dei tecnici). La connettività e la raccolta di dati legati all’impiego delle macchine permettono, infatti, alle imprese industriali di avvantaggiarsi di un’enorme ricchezza di informazioni, ad esempio sul grado di utilizzo dei sistemi, su consumi e fonti energetiche, sui materiali utilizzati, sul costo dei fattori produttivi. Diventa così possibile risolvere, in ottica di manutenzione predittiva, alcune delle problematiche che potrebbero insorgere durante l’intero ciclo di vita della macchina, ma anche anticipare soluzioni che vanno incontro alle esigenze del cliente. Inoltre, i nuovi servizi che nascono dalla disponibilità dei dati di produzione possono favorire il raggiungimento di obiettivi di riduzione dei consumi energetici, di efficienza e sostenibilità ambientale. La cosiddetta service economy, come noto, permette di comprendere come migliorare continuamente e di sviluppare e lanciare servizi innovativi molto più rapidamente del tempo richiesto per la produzione di un nuovo modello di macchina industriale. Altro punto di forza importante è la relazione di partnership di lungo periodo che si instaura con i clienti, grazie all’approccio fortemente customer-oriented. Dalla comprensione delle esigenze del cliente si arriva all’attivazione di processi che creano valore condiviso nel tempo. In settori molto compe-


titivi, fidelizzare il cliente con un servizio a forte valore aggiunto può essere l’unico modo per evitare che si rivolga a qualcun altro. Altri benefici ascrivibili alla servitization sono l’incremento sostanziale dei margini (non dimentichiamo che la marginalità sui servizi è più alta, fino al 25% o 30% in base al settore); la stabilizzazione prospettica del cashflow grazie a flussi di ricavi costanti e ricorrenti; la gestione ottimale delle giacenze dei ricambi; il miglioramento della reputazione del con connotazioni Esg (Environmental, social, and corporate governance), dato che i produttori possono gestire i propri macchinari in ottica di economia circolare. Lo scenario italiano

A che punto siamo oggi in Italia nello sviluppo di un mercato dei servizi di Industria 4.0? “Osserviamo molto fermento”, illustra Pezzotta. “Siamo in una fase in cui molte aziende cercano di capire come raccogliere dati che siano affidabili, un passaggio non così immediato. L’Industrial IoT è sviluppato ma c’è ancora timore, soprattutto per aspetti di privacy e cybersecurity. Un altro ambito su cui si punta molto è quello dell’everythingas-a-service e delle piattaforme cloud: è diventato una moda parlare di coolingas-a-service, heating-as-a-service, manufacturing-as-a-service. Varie aziende stanno elaborando questi concetti ma molte sono ancora in una fase sperimentale, con poche applicazioni commerciali già diffuse. Molto fermento c’è anche attorno agli algoritmi di intelligenza artificiale, usati a supporto della manutenzione predittiva, del miglioramento di attività operative di service e di customer service. Abbiamo poi soluzioni basate su realtà virtuale e aumentata, oggi utilizzate in realtà manifatturiere, nel mondo dei veicoli, delle macchine movimento terra, a supporto di manutenzione, del training dei tecnici e di tutti gli attori della service chain. Sono tecnologie che durante la pandemia

hanno visto un ulteriore sviluppo, poiché hanno consentito a molte aziende di continuare a erogare servizi anche da remoto, sfruttando i dati delle macchine connesse, con costi competitivi”. Requisiti e criticità da affrontare

“La servitizzazione è un processo di trasformazione che riguarda tutta l’azienda, non solo la divisione Service”, sottolinea Pezzotta. “Uno degli errori più comuni è proprio pensare che si fermi lì. Invece è l’intera azienda a dover cambiare, dalla progettazione (che deve essere fatta avendo in mente un sistema prodotto-servizio e il suo intero ciclo di vita, le tecnologie richieste, chi erogherà il servizio) alla vendita. La forza commerciale dovrà capire che vendere soluzioni è diverso rispetto al vendere prodotti: cambiano le logiche di relazione con il cliente, le marginalità, il fatturato e il rischio che l’azienda assume”. Il coinvolgimento dell’intera azienda è, dunque, un primo requisito da soddisfare. Inoltre è opportuno considerare alcune criticità insite nel modello della servitizzazione. “Uno dei punti più difficili è creare il giusto rapporto con il cliente”, prosegue Pezzotta. “Bisogna conoscerne il business e soprattutto aver instaurato un rapporto di forte fiducia reciproca”. Se dal punto di vista delle tecGiuditta Pezzotta

nologie non ci sono limiti, il problema è individuare le modalità più corrette per scambiare dati tra aziende diverse, mantenendo elevato il trust, condividendo le informazioni in tutti i punti decisionali. Inoltre in alcune aziende i reparti vendite tendono a frenare l’adozione di un modello di questo tipo e restano legati a una cultura prodotto-centrica. Un’altra sfida è la ricerca di competenze sulle tecnologie e su aspetti di data science da parte di chi svilupperà i nuovi servizi. Va citata, poi, la difficoltà nell’individuare il pricing più corretto per un servizio che deve essere basato sull’analisi di molti rischi, essendo il ciclo di vita del bene molto lungo. Uno dei principali vincoli lato produttori rimane ancor oggi la possibilità di esporsi finanziariamente per offrire nuovi servizi. Se, infatti, il produttore decide di non vendere più il prodotto ma solo il suo utilizzo (come avviene oggi in una serie di esperienze molto avanzate a livello internazionale, pensiamo ai casi di Abb, Rolls Royce, GE, Canon, Ricoh), allora manterrà la proprietà del bene, non potrà contare su un cashflow immediato ma su ricavi diluiti nel tempo, e si assumerà il rischio del mancato utilizzo del bene. Dal punto di vista delle aziende fruitrici dei prodotti servitizzati, invece, a fronte di benefici attesi come la garanzia di un livello di servizio elevato (quindi, l’annullamento dei malfunzionamenti e tempi di fermo) e la possibilità di collaborare con il fornitore in una partnership di lungo periodo, permangono nel mercato italiano alcuni freni che limitano ancora la diffusione di servizi connessi avanzati. Si tratta soprattutto della maggiore propensione all’acquisto di prodotti (eredità di anni di incentivi che hanno fortemente privilegiato le spese Capex rispetto alle Opex) e di retaggi culturali, come la paura di perdere know-how e di scambiare informazioni sui processi produttivi considerate critiche. Elena Vaciago 35


INDUSTRIA 4.0

IL RISCHIO FINANZIARIO DA AFFRONTARE Quali difficoltà frenano il passaggio alla servitization, e come superarle? Il punto di vista della società di management consulting Strategia & Controllo. Una trasformazione da modelli di business product-oriented a modelli service-oriented è una tendenza che sta sempre più prendendo piede nel mondo industriale e soprattutto nei Paesi anglosassoni, dove è già realtà da tempo. “La servitizzazione”, spiega Dante Laudisa, partner della società di management consulting Strategia & Controllo, “ha i suoi vantaggi innegabili, che conseguono la possibilità per il produttore di assicurarsi entrate continuative. Un tema che negli ultimi tempi, con pandemia, guerra, carenza di materie prime e problemi nelle consegne, ha acquistato molta importanza”. Così come molto importante è la possibilità di avere un rapporto più stretto con i clienti finali, conoscerli “intimamente” e poter basare su un approccio data-driven lo sviluppo di nuovi prodotti o ser-

vizi. In aggiunta, la digital servitization fa bene all’ambiente, perché le macchine devono essere costruite per erogare servizi flessibili, hanno più cicli di vita, sono predisposte strutturalmente per l’economia circolare. Quali sono, invece gli aspetti che frenano l’evoluzione in chiave service economy? “Con questo modello di business”, aggiunge Laudisa, “il produttore deve avere una struttura patrimoniale adeguata, deve finanziare l’erogazione del servizio mantenendo la proprietà delle macchine: questo non è per tutti. Il problema che ci siamo posti e a cui abbiamo trovato risposta con la nostra soluzione Paradigmix, quale modello brevettato di Risk Management e Performance, è stato appunto quello di individuare una soluzione al finanziamento dei contratti di servizio associati ai proDante Laudisa

36 |

LUGLIO 2022

dotti”. Paradigmix calcola lo scoring relativo a ogni asset in gestione e permette di darne un’immediata e sintetica visibilità dello stato di salute, degli indicatori di rischio osservati. Lo scoring andamentale, attraverso la certificazione su blockchain della prestazione dell’asset, può essere utilizzato tramite un’operazione di cartolarizzazione, tramite operazioni di finanza alternativa (come l’emissione di Bond), in modo che il produttore possa accedere a una nuova fonte di autofinanziamento. “L’altro tema che abbiamo affrontato”, prosegue Laudisa, “era invece come aiutare i produttori a modificare l’organizzazione, in modo da mettere al centro i clienti, attivando modelli di ascolto completi, in grado di attraversare tutta l’azienda. Ci siamo, infatti, convinti che adottare la Digital Servitization richieda un approccio olistico, un completo ridisegno di processi e attività, un ripensamento degli aspetti finanziari, di marketing, industriali. Poiché la formazione è molto importante in Strategia e Controllo, con riferimento al progetto europeo Thing+ abbiamo lanciato le sessioni formative della nuova figura professionale certificata del servitization manager, che supporta l’azienda nel reinventare il proprio modello di business in tutte le diverse fasi: dal generare nuove idee al renderle realtà e, successivamente, nell’adozione delle tecnologie e degli strumenti più idonei a sostenere e favorire la servitizzazione”. Elena Vaciago


IL MONDO DEL PACKAGING SI APRE AI SERVIZI Anche i produttori di sistemi per il confezionamento stanno trasformando i modelli adottati. Il caso di Ima Digital. Ima Group è un colosso del packaging, cui fanno capo decine di aziende, per un totale di 80 Paesi rappresentati e 54 impianti produttivi. Ima Digital rappresenta l’anima più innovativa, focalizzata sullo sviluppo di servizi digitali, soluzioni di robotica e applicazioni per la manifattura 4.0. Con Martina Stefanon, business development manager dell’azienda, abbiamo parlato del percorso verso la servitization. Qual è la vostra visione sulla servitization?

Sul piano teorico è uno scenario plausibile, pensiamo che in futuro il mercato possa andare in questa direzione. Ma al momento non indirizziamo questo modello di business: richiederebbe strutture finanziarie in grado di sostenerlo, non banali su impianti spesso molto complessi come i nostri. Inoltre, avendo a disposizione tutti i dati della

Martina Stefanon

macchina connessa, possiamo utilizzare algoritmi per ottimizzare sempre più i processi produttivi muovendoci verso servizi performance-based, incentrati su contratti vincolati alla performance della macchina. L’esperienza aumenta, i clienti stanno crescendo in questo senso e vediamo che questi progetti hanno sviluppi sempre più interessanti. Quali sono oggi le vostre priorità?

Obiettivo di Ima Digital è portare innovazione nel settore manifatturiero, tramite servizi basati sulle tecnologie più avanzate, in un percorso che ci fa passare da fornitori di macchine a fornitori di soluzioni tecnologiche. Oggi il nostro focus sui servizi è molto forte e abbiamo un portafoglio che, a partire dal dato generato dalla macchina utilizzata in contesto produttivo, comprende monitoraggio, assistenza da remoto, formazione dei tecnici. Il tema delle competenze è oggi molto sentito: noi rispondiamo con tecnologie avanzate di training digitale. Abbiamo sviluppato un concetto di algorithm-as-a-service e una “Algo Kitchen”, una “cucina” che sforna algoritmi i quali, posizionati in un “Algo Market”, possono essere riutilizzati per un’ampia gamma di macchine. Oggi molte industrie vivono la difficoltà ad approvvigionarsi di componenti e questo sta allungando i tempi di consegna: con i nostri modelli di virtual commissioning è possibile testare in un ambiente virtuale una macchina senza che essa sia completamente montata. In questo modo alcune divisioni hanno recuperato fino a cinque mesi nei tempi di consegna.

Nell’offerta di servizi per il mondo industriale prevale un approccio standard o customizzato?

Vediamo entrambe le opzioni. Avendo internamente il controllo su tutti gli sviluppi, siamo molto flessibili nel venire incontro alle esigenze specifiche dei clienti. Alcuni servizi machine-insensitive sono molto standard e possono essere utilizzati su qualsiasi tipologia di macchina, già oggi li eroghiamo anche per sistemi di costruttori terzi. Va però considerata l’unicità del cliente, che ha modalità di produzione, ambienti e requisiti molto specifici. Come dare risposta a questa unicità?

Ima ha una grandissima esperienza su tantissimi clienti di settori diversi, quindi, su svariate necessità, bisogni, organizzazioni. Studiando il customer journey di ciascuno siamo in grado di aiutarlo a costruirsi il proprio ecosistema digitale, da indossare come un vestito sartoriale. Sviluppiamo poi progetti specifici, tipicamente per grandi multinazionali, in modo da fornire un aiuto più verticale, per attività di cosviluppo di algoritmi, mettendo a disposizione la nostra competenza tecnologica con sinergie molto interessanti. Dalle esperienze fatte in questo senso abbiamo avuto conferma che la servitization porta il rapporto con il cliente a un livello più elevato. All’inizio siamo percepiti come un consulente (su temi come produrre in modo più efficace o come strutturare l’ecosistema digitale), alla fine diventiamo un partner di cosviluppo, creando in questo modo una relazione win-win con il cliente. E.V.

MAGGIO 2021 |

37


Foto di Gerd Altmann da Pixabay

EXECUTIVE ANALYSIS | Networking MANUFACTURING

L’OT GUIDA IL PERCORSO DIGITALE DELLA MANIFATTURA Nel mondo del produzione industriale la trasformazione 4.0 è avviata da tempo, ma molto lontana dal suo traguardo. Le tecnologie operative hanno un ruolo chiave.

S

intetizzando l’opera dei principali studiosi della materia, potremmo dire che la trasformazione digitale applicata al mondo manifatturiero riguarda l’integrazione di tecnologie avanzate all’interno di processi e prodotti, allo scopo di migliorare l’efficienza e la qualità della produzione, tenendo sotto controllo o riducendo i costi. Se le aspettative dei clienti e la crescente pressione competitiva sono i motori dell’innovazione a lungo termine, altre dinamiche hanno agito nel breve periodo: dalle chiusure della pandemia allo carenza di dei componenti, per arrivare all’aumento dei costi energetici. Questi fatti hanno evidenziato come la disponibilità di dati in tempo reale, l’automazione di attività 38 |

LUGLIO 2022

a basso valore e la capacità di pianificare flussi o interventi siano fattori chiave per i responsabili della produzione chiamati a rispettare gli obiettivi loro assegnati. Storicamente, il mondo della produzione ha sempre seguito un proprio percorso di gestione e sviluppo, oggi presieduto dalle cosiddette figure OT (Operational Technology), alle quali fanno capo responsabilità che spaziano dalla pianificazione e continuità operativa all’implementazione e al controllo della robotica negli impianti. L’adozione di tecnologia digitale si è concentrata inevitabilmente sulle macchine, già a partire dal tradizionale controllo numerico, per arrivare oggi a quella che, nell’ambito dell’evoluzione verso la logica dell’In-

dustria 4.0, si chiama fabbrica connessa. Su un altro fronte (fino a poco tempo fa completamente distinto) si è collocata l’Information Technology, con i propri sviluppi legati alle progressive esigenze di evoluzione di componenti e processi gestionali. I due mondi hanno viaggiato su binari separati per diverso tempo, ma le evoluzioni più recenti, come il cloud, i Big Data analytics, il wireless e l’intelligenza artificiale, hanno creato un terreno di sviluppo comune. Un terreno che però in buona parte dev’essere ancora esplorato. Sulla percezione dell’avanzamento della digitalizzazione nel campo della produzione industriale, The Innovation Group, in collaborazione con Technopolis, ha realizzato una ricerca qualitativa che ha coinvolto oltre quindici aziende manifatturiere di primo piano in Italia. Abiamo scelto di acquisire il punto di vista di executive e business manager del mondo OT.


Efficienza in primo piano

Le figure di direttori della produzione, Coo (chief operating officer) e assimilabili coinvolti nella ricerca interpretano il peso e l’apporto della digitalizzazione innanzitutto in funzione dei propri obiettivi di ottimizzazione dei processi, riassumibili nel concetto di Overall Equipment Effectiveness (Oee). Si tratta di un indice standard che misura le performance degli stabilimenti, partendo dalle macchine e comparando le prestazioni ottimali con quelle teoricamente massime. È chiaro, pertanto, che tutte le innovazioni spinte e introdotte dall’OT puntano in prima battuta a massimizzare l’efficienza produttiva dei macchinari, riducendo nella pratica e cercando di prevenire i fermi, presidiando la continuità operativa e garantendo rapidità di intervento in caso di anomalie. Gli effetti della progressiva digitalizzazione si traducono nella moltiplicazione dei dati generati. Nei casi più virtuosi, il loro indirizzamento verso il cloud e gli analytics genera azioni mirate soprattutto alla manutenzione predittiva degli impianti, all’individuazione di punti di rottura (non rintracciabili facilmente con il solo intervento umano) o a correttivi di pianificazione. Nelle situazioni più ordinarie, i dati restano perlopiù confinati nel mondo della produzione, e da qui vengono manipolati e utilizzati per necessità operative e organizzative. Le frontiere dell'innovazione Negli anni più recenti, una serie di sviluppi tecnologici ha progressivamente trovato spazio negli ambienti di produzione, supportando responsabili e operatori tanto nelle attività di routine quanto in un processo decisionale divenuto via via sempre più rapido, in qualche caso prossimo al concetto di tempo reale. Due tecnologie si staccano dal pacchetto di strumenti innovativi oggi a disposizione: il machine learning e l’IoT industriale

(Industriale Internet of Things). Si tratta di categorie affini e molto spesso complementari. I macchinari industriali, i robot e anche oggetti di uso comune progressivamente sono stati dotati di sensoristica, inizialmente con lo scopo di segnalare anomalie o altre tipologie di fenomeni. La capacità di questi dispositivi di generare dati è stata sfruttata per migliorare l’efficienza produttiva, individuando elementi di criticità o aiutando a prevenire blocchi derivati da guasti di qualche componente dell’impianto. Quello che ancora si rileva in diverse realtà è la difficoltà a condividere questi dati con figure o aree aziendali che potrebbero far compiere un salto di qualità all’attività di stabilimento, sia in termini di pianificazione e forecasting della produzione, sia in termini di capacità di prevedere i guasti ed evitarli con interventi mirati. I volumi si sono moltiplicati nel tempo, i data scientist non sempre sono presenti o non sono dedicati alla produzione e le capacità analitiche all’interno dei team OT non sono particolarmente diffuse. Gli eventi congiunturali più recenti, dalla pandemia agli aumenti dei costi energetici, dallo shortage di componenti o materie prime alla crisi russo-ucraina, hanno acuito la necessità di poter disporre di strumenti e capacità in grado di fornire forecast divenuti estremamente complessi. La reattività ai rapidi cambi di scenario è un elemento critico e qui entrano in gioco sistemi di tracciatura o di visibilità complessiva sulla catena di approvvigionamento, che non sono sono il diretto il controllo del manufacturing, ma hanno un impatto misurabile anche su performance e tempi di produzione. Il rapporto “bipolare” con l’IT Se n’è già fatto cenno, ma certamente la digitalizzazione dei processi industriali richiede un intervento diretto dei dipartimenti IT delle aziende e funziona

meglio quando si crea una collaborazione costruttiva con l’OT. Veniamo da trascorsi nei quali le reti industriali e quelle “di ufficio” hanno viaggiato in modo indipendente e separato. Le metodologie usate sono state (e sono) differenti, perché diverse sono le rispettiva preoccupazioni. L’OT persegue soprattutto la continuità operativa e la sicurezza di persone e macchine, mentre l’IT ricerca la centralizzazione dei dati e l’integrità dei sistemi. Formazione e linguaggio sono scogli che hanno spesso impedito di instaurare un dialogo efficace. Stanno cambiando le cose con l’avvento dello smart manufacturing, di tecnologie come le piattaforme Big Data e l’IoT, con la necessità di lavorare in tempo reale su dati e analisi ben definite? Dal nostro campione emerge un quadro che potremmo definire “bipolare”. In alcune realtà, se non di convergenza in senso stretto, si può parlare comunque di proficua collaborazione. Questa si traduce in un dialogo costante, nell’organizzazione di team sui progetti che comprendono figure appartenenti a entrambi i dipartimenti, nella definizione di processi strutturati nei quali si parte dall’esposizione di un’esigenza, per poi passare per la costruzione di proposte allineate ai requisiti iniziali e stabilire congiuntamente quale percorso scegliere. Al lato opposto si collocano aziende nelle quali permane una gestione piuttosto compartimentata delle rispettive attività. I manager della produzione e della supply chain imputano all’IT l’incapacità di comprendere con precisione i loro bisogni e di essere piuttosto lento nei tempi di risposta. Si aggiunge, in qualche caso, l’accusa di voler proporre una soluzione probabilmente molto efficace e all’avanguardia dal punto di vista tecnologico, ma non adatta a risolvere i problemi che assillano l’operatività della produzione. Roberto Bonino 39


EXECUTIVE ANALYSIS | MANUFACTURING

LA TECNOLOGIA AL SERVIZIO DELL’EFFICIENZA Nella nostra declinazione del concetto di efficienza operativa, mettiamo comunque al centro l’essere umano. Anche molta tecnologia è stata adottata per migliorare le condizioni di lavoro, dal punto di vista sia della sicurezza sia della riduzione degli errori. Produciamo treni e, per quanto sembri paradossale, utilizziamo una logica quasi artigianale. La continuità del processo di produzione è basilare, ma sempre correlata all’operato delle persone e alla loro capacità di imparare e comunicare velocemente. Roberto Balbis, industrial director, e Matteo Bonamico, responsabile testing engineering di Alstom Ferroviaria La digitalizzazione interviene in molti aspetti dell’operatività industriale, in termini di miglioramento continuo, monitoraggio delle prestazioni e visualizzazione di cruscotti sulle linee. Abbiamo diverse applicazioni anche molto innovative, che fanno leva sull’intelligenza artificiale per intervenire in modo predittivo sui nostri impianti, mentre la realtà aumentata serve per valutare in tempo reale cambiamenti sulle linee o controlli di qualità. Enrico Giaquinto, chief industrial operations officer di Angelini Un punto di svolta per noi è arrivato con l’introduzione del Mes (Manufacturing Execution System) nei nostri stabilimenti. Ora riusciamo a individuare tutte le opportunità di efficientamento che prima non si potevano a evidenziare. In taluni processi, inoltre, quali l’assemblaggio dei seggiolini di sicurezza per le autovetture, 40 |

LUGLIO 2022

abbiamo potuto efficientare ulteriormente gli aspetti di tracciabilità dei prodotti. Roberto Bresciano, direttore industriale di Artsana Negli ultimi anni abbiamo lanciato un programma che abbiamo battezzato Cementir 4.0. Lo scopo è integrare nell’innovazione tutti i processi produttivi che ruotano intorno al cemento, ma anche i servizi di manutenzione, la logistica interna ed esterna agli impianti. Così è stato possibile individuare le aree dove intervenire con tecnologie avanzate, come l’intelligenza artificiale sui macchinari o la geolocalizzazione dei mezzi per lo spostamento dei materiali interni di una fabbrica. Paolo Zugaro, group Coo di Cementir Nella nostra azienda il driver principale è la business continuity e questo non è un argomento che possa essere trattato separatamente. Dentro il concetto si integrano la continuità del processo di produzione, la riduzione degli scarti e la sicurezza del luogo di lavoro. Il contributo delle tecnologie digitali è rilevante soprattutto nella configurazione delle macchine e nella riduzione degli errori. Antonio Magnelli, head of global manufacturing division di Gruppo Chiesi I dipartimenti IT e OT di Conserve Italia condividono lo stesso hub e non è un caso, tant’è vero che gli investimenti tecnologici per le esigenze di Operational Technology sono in buona misura definiti, concordati e gestiti dal IT. In questa fase vogliamo caratterizzare meglio que-

sta scelta, per cui stiamo creando un team specializzato in soluzioni di Industria 4.0 e alcune persone dell’IT faranno parte di questa nuova squadra, a disposizione di tutte le fabbriche: vogliamo che possano comprendere meglio le problematiche da risolvere. Purtroppo, in questo momento la cybersecurity sta rallentando questo processo. Enrico Parisini, direttore della produzione di Conserve Italia In questa fase siamo focalizzati sul potenziamento dei sistemi Mom e Mes, quindi sulla connessione diretta tra macchine e sulla capacità di disporre di informazioni fruibili e immediate per metterci nelle condizioni di poter decidere in real time. Ma il digitale serve anche per migliorare le modalità di passaggio delle informazioni attraverso i processi e una continuità che si estenda dal design fino alla realizzazione dei prodotti. Mattia Rinaldis, executive vice president manufacturing di Danieli Negli ultimi anni abbiamo lavorato molto sulla digitalizzazione dello shop floor, per avere visibilità e tracciabilità end-toend dei processi industriali e della qualità del prodotto. A complemento, però, abbiamo introdotto strumenti per la gestione della skill force matrix, in pratica un digital twin della forza lavoro, che ci permette di avere un quadro preciso delle competenze delle nostre risorse in base alle posizioni occupate e progressivamente, grazie a logiche di machine learning, occupabili. Questo permette di assicurare che ogni persona sia nella posi-


zione giusta e abbia le giuste competenze per migliorare l'efficienza complessiva di processo e garantire qualità premium ai nostri consumatori. Nicola Serafin, Cto & Coo di De’ Longhi Group Possiamo contare su diverse applicazioni di Industrial IoT, ma sappiamo che la vera differenza deriva dalla capacità di gestione. La fase preparatoria è certamente molto impegnativa, ma riusciamo a ottenere risultati importanti. Oltre a far sì che sia il macchinario a comunicarci direttamente un eventuale fermo, possiamo monitorare costantemente l'andamento della produzione e verificare con luci di tipo semaforico se c'è qualche rallentamento. La capacità di analisi sui dati sarà il prossimo step. Marcello Casadei, head of manufacturing fabric care and Dish Care Europe di Electrolux L’utilizzo di strumenti di intelligenza artificiale ha subìto una forte accelerazione da circa un anno a questa parte. Utilizzando aggregatori di dati presi da vari componenti sul campo, per esempio, monitoriamo le utilities e, in funzione dei piani produttivi, i sistemi regolano automaticamente i set point dei principali vettori energetici. Sono coinvolti i consumi di gas ed elettricità, che in questo momento stanno generando i maggiori problemi sia in termini di efficienza sia di costi. Paolo Cobianchi, direttore industriale di Granarolo Siamo in una fase in cui diventa fondamentale seguire passo per passo tutta la catena del valore legata al cliente, dall'ordine alla consegna. Dal punto di vista interno, questo significa tenere sotto controllo il rapporto con i fornitori che devono consegnare i diversi componenti, verificare le capacità del plant in relazio-

ne alle risorse disponibili e alla logistica inbound e outbound, oltre a garantire la tracciabilità del prodotto in tempo reale. Sempre più la digitalizzazione dei processi deve avvenire in una logica integrata. Federico Baiocco, head of supply chain di Iveco Group Siamo un’azienda verticalmente integrata e questo ci porta a gestire internamente tutti i processi industriali end-to-end, dal concept di un prodotto fino ai servizi post vendita. La tecnologia funge da spina dorsale nella nostra organizzazione e il digitale è presente in tutti gli anelli della catena: dal design ai prototipi, dalla produzione fino alla presentazione ai clienti per la vendita. In produzione, con il sistema Mes che abbiamo messo a punto, possiamo controllare in tempo reale il livello di funzionamento delle macchine, gli scarti di prodotto o le attività di avanzamento del semilavorato e gestire tempestivamente eventuali non conformità. Giorgio Striano, Coo di Luxottica La manutenzione predittiva rappresenta un’applicazione concreta dell’Industrial IoT, ma nel nostro caso consideriamo molto interessanti le applicazioni relative alla realtà aumentata, perché consentono di accedere a sistemi collocati in remoto, con la possibilità di sviluppare percorsi formativi utilizzando un ambiente virtuale e sicuro, certamente più efficace e interattivo rispetto alla formazione eseguita attraverso tool tradizionali. Inoltre, la realtà aumentata ben si adatta a fornire istruzioni in tempo reale agli operatori mentre eseguono il loro lavoro, come ad esempio una checklist di collaudo. Stefano Cortiglioni, global head of manufacturing di Marelli Nell'ambito del processo di trasformazione complessiva di Pirelli, abbiamo creato team cross-funzionali, costituiti da figure di Smart Manufacturing e Operations,

della Ricerca e Sviluppo, e del Digital. Il lavoro di squadra parte dall'analisi del processo e dagli input di business, provenienti dall’OT, per arrivare - tramite la digitalizzazione, l’utilizzo efficace dei dati, e l’Artificial Intelligence -, a migliorare ulteriormente l’efficienza dei processi produttivi e la qualità del prodotto finito. Enrico Verdino, head of manufacturing, e Pierpaolo Tamma, chief digital officer di Pirelli La digitalizzazione dei processi industriali nel settore farmaceutico risente in modo particolare dell'impianto normativo in continua evoluzione. Gli aspetti collegati si devono integrare con i desiderata tipicamente industriali e tutto va con piattaforme che siano il più possibile trasversali al mondo dell'azienda. Noi stiamo lavorando molto nella logica del lean manufacturing, con digitalizzazione delle linee per la raccolta dati, in modo tale da poter intervenire con la soluzione all'eventuale problema, sia esso di tipo manutentivo, organizzativo o tecnologico. Roberto Teruzzi, executive vice president group industrial operations di Recordati In Sacmi Beverage le operations hanno come focus la soddisfazione del cliente e si occupano dei processi direttamente collegati alla realizzazione dei prodotti e dei servizi: pianificazione, acquisti, produzione, logistica, gestione installazioni, avviamento e collaudo in tutto il mondo e servizio tecnico di help desk. La tecnologia supporta la ricerca e l’utilizzazione del dato per ottimizzare la supply chain e la gestione delle attività in produzione e in cantiere, facendo sì che i componenti si trovino al posto giusto e nel momento giusto (nelle isole di montaggio e presso i clienti) e supportando le attività in remoto. Gianluca Lorentini, director of operations di Sacmi Beverage 41


Foto da Pixabay

SERVIZI FINANZIARI EXECUTIVE ANALYSIS | Networking

DATA-DRIVEN BANKING, UN VIAGGIO ALLE PRIME TAPPE Banche e istituzioni finanziarie stanno imparando a far leva sui dati per migliorare la relazione con il cliente e, soprattutto, per razionalizzare i propri processi interni.

A

nche nel mondo finanziario, e particolarmente in quello bancario, il ruolo dei dati sta diventando centrale nella definizione dei processi decisionali e delle strategie di approccio al mercato. Viene da pensare, in prima battuta, ai cambiamenti nel comportamento dei clienti indotti dalla pandemia: dalle visite in filiale, in molti hanno spostato le proprie abitudini sulle interazioni digitali. Il presidio sul customer journey rappresenta certamente una delle sfide più importanti per chi opera nei servizi finanziari. Ma la possibilità di disporre di dati correttamente consolidati, organiz42 |

LUGLIO 2022

zati e accessibili dalle funzioni di business è un’esigenza rilevante anche per affrontare temi come la compliance normativa, la multicanalità, la prevenzione dalle frodi e persino la sostenibilità ambientale. Banche e altre realtà del mondo finanziario dispongono oggi di una vasta quantità di dati interni ed esterni, da quelli di tipo transazionale a quelli demografici, dalle indicazioni comportamentali a quanto reperibile sui social media. L’affidabilità di quanto è disponibile resta un tema aperto, a cui si aggiunge una certa carenza di competenze nell’elaborazione e analisi dei dati. Alla base, dovrebbe-

ro esserci una data strategy costruita su una piattaforma unica, il presidio costante di un team guidato dai chief data officer (Cdo) e neutrale rispetto a IT e business, e infine processi di gestione e accesso ai dati ben strutturati. Su questi temi The Innovation Group ha realizzato una ricerca qualitativa costruita su una quindicina di banche e società di servizi finanziari fra i più importanti in Italia, concentrandosi sulle figure dei Cdo e dei responsabili delle data architecture. Dati al servizio dell’innovazione

Volendo riassumere l’attuale stato dell’utilizzo dei dati a supporto dei processi più innovativi in corso, si possono delineare tre ambiti principali. Il primo riguarda il time-to-market, non tanto inteso come capacità di rilascio rapido e puntuale di nuovi prodotti o servizi in linea con le


aspettative del mercato, quanto come velocità di risposta alle richieste provenienti prima di tutto dall’interno degli stessi istituti finanziari e bancari, e secondariamente dalla clientela che si presenta davanti a uno sportello o a un computer con un problema specifico da risolvere nell’immediato. Sostanzialmente con parità di peso, c’è poi il tema del supporto all’allineamento normativo, che tocca numerosi aspetti operativi delle banche: dall’antiriciclaggio alla privacy, dalla direttiva Psd2 alla governance, molti sono i fronti di attenzione in cui dati supportano il lavoro dei responsabili preposti. Uno dei contesti più caldi è certamente quello della gestione del rischio, un ambito in cui diversi istituti si sono attrezzati per poter contenere le necessità di accantonamento, sfruttando soprattutto fonti esterne per ricavarne modelli comportamentali applicabili alle richieste di credito. Le considerazioni appena fatte ci portano verso il terzo grande filone di sviluppo perseguito negli ultimi anni. Stiamo parlando della definizione di una vera e propria data strategy, quasi sempre associata all’implementazione di una piattaforma a supporto della gestione dei flussi e non semplicemente con funzione di repository più o meno strutturato. Il ruolo del chief data officer

I ruoli aziendali che ruotano intorno ai dati si sono definiti in modo più chiaro negli ultimi anni, proprio in relazione all’istituzione del Cdo, in precedenza non presente (e ancora non lo è ovunque, per ragioni specifiche di ciascuna società). A questa tipologia di manager spetta la responsabilità di definire le modalità di utilizzo e la governance sui dati, ormai in molti casi divenuta centralizzata. Il suo obiettivo primario è ricavare un valore correttamente percepito e sfruttato in azienda. L’ownership dei dati, tuttavia, è molto spesso lasciata alle funzioni di business che li generano. Le strutture

che presiedono si occupano di “fornire” dati consistenti e affidabili a chi deve farne uso. Anche l’accesso è un compito che spetta ai responsabili dei dati, che sono chiamati a definire regole e privilegi. Il ruolo del Cdo è sicuramente distinto rispetto al dipartimento IT, che di fatto opera come fornitore primario dei dati e mette a disposizione la tecnologia necessaria per raccoglierli, archiviarli e consentirne l’accesso. In qualche caso, sono presenti anche figure di chief digital officer separate per ruolo e competenze, incaricate di estrarre valore dai dati e individuare nuove frontiere di utilizzo o casi d’uso che possano essere messi in produzione. In altri istituti le due funzioni sono compattate nella stessa persona. Curare il customer journey

In termini pratici, ci sono diversi ambiti in cui l’uso dei dati dovrebbe già supportare oggi gli sviluppi per banche e società di servizi finanziari. Quello che appare più naturale riguarda l’evoluzione delle modalità di relazione/interazione con la clientela, in linea generale finalizzata alla creazione di nuovi servizi. Come abbiamo visto, questo compito spetta, laddove presenti, alle figure di chief digital officer, ma più in generale deriva da un lavoro di stretta collaborazione fra Cdo o ruoli assimilabili e team di marketing, commerciali e quant’altro. Il percorso è certamente avviato e in diverse realtà i dati stanno già supportando evoluzioni interessanti. Tuttavia, non si può fare a meno di registrare una certa latitanza della capacità di offrire una vista unificata, “a 360 gradi”, sulla clientela. Se i limiti legati alle normative sulla privacy impediscono eccessive personalizzazioni, tuttavia in presenza degli adeguati consensi e di strumenti di analisi e visualizzazione questa dovrebbe essere la base da cui partire per studiare evoluzioni dell’offerta, soprattutto in direzione dei servizi digitali.

Sicuramente già radicato e metabolizzato è il percorso verso la multicanalità nel mondo bancario, tant’è, come noto, che alcuni istituti hanno creato entità specifiche dedicate al supporto delle evoluzioni verso il digitale e alla relativa proposta commerciale. Tuttavia, se l’offerta si è arricchita per seguire il progresso del mercato (e soprattutto dei consumatori), la situazione è ancora in divenire per quanto riguarda l’istituzione di un presidio strutturato del journey del cliente. Un cambiamento sostenibile

Si sta assistendo a qualche sviluppo interessante, in compenso, sul fronte della sostenibilità, argomento prioritario ormai anche in ambito finanziario. Il tema Esg è entrato nelle banche in tempi piuttosto recenti e ha portato alla creazione di unità dedicate, impegnate a studiare la realtà operativa e le opportunità da cogliere (anche quelle collegate al Pnrr). Soprattutto nei grandi istituti sono stati già messi a punto piani strutturati e l’utilizzo dei dati interni è già finalizzato al raggiungimento di obiettivi su questo fronte. Nel campo della gestione dei dati o dell’impiego di strumenti di advanced analytics, infine, si pone il problema di come srfuttare le opportunità offerte dal cloud. La responsabilità decisionale su questo tema è tipicamente lasciata all’IT, nell’ambito di una strategia di migrazione più complessiva, a cui il mondo dei dati non può che allinearsi. La percezione dei vantaggi in termini di scalabilità e possibilità di gestire efficacemente grandi quantità di dati esiste, ma l’evoluzione delle banche verso il cloud sta avvenendo con molta cautela e nella necessità di trovare il giusto equilibrio con una componente legacy ancora preponderante. Anche fra i Cdo o responsabili della data governance, tuttavia, permane qualche remora sull’effettiva allocazione dei dati e sulla sicurezza del cloud. Roberto Bonino 43


SERVIZI FINANZIARI EXECUTIVE ANALYSIS | Networking

VELOCITÀ E CONSISTENZA, DUE ESIGENZE PRIMARIE La velocità di risposta alle richieste di finanziamento è un elemento cruciale per noi, ma allo stesso tempo dobbiamo evitare di esporci a rischi di insolvenza. Per questo, poter lavorare con dati correttamente validati e strumenti analitici efficaci fa parte delle componenti strategiche e, non a caso, stiamo cercando di internalizzare il più possibile le competenze su questo fronte. Sergio Rossi, chief digital transformation officer di Agos Ducato I processi che hanno maggior interesse a poter disporre di dati innovativi e in tempo reale sono quelli di tipo commerciale, sia per poter realizzare campagne mirate sia per poter sfruttare analisi e valorizzazioni derivanti dall’uso di strumenti di advanced analytics e machine learning. Si tratta per noi di un processo in divenire, ma l’obiettivo è individuare il journey del cliente all’interno dei nostri canali e definire il suo ecosistema. Andrea Bandera, responsabile ufficio gestione e protezione dei dati di Banca Popolare di Sondrio Da oltre due anni utilizziamo un’infrastruttura tecnologica completamente sviluppata in cloud per supportare la raccolta e la gestione dei dati. Ora siamo pronti a lanciare nuovi prodotti che si affiancano a quelli “core” per le Pmi e sono rivolti a un nuovo target di clienti privati, a cui offriremo servizi a valore aggiunto completamente integrati. Davide Rossi, chief digital officer di Banca Progetto 44 |

LUGLIO 2022

Abbiamo inserito il pilastro dei dati all’interno del nostro piano strategico di gruppo e lo decliniamo sui tre assi portanti della trasformazione, ovvero le persone, i processi e le tecnologie. Sulla parte di business si tratta di un tema fondamentale, come lo è la capacità delle persone di utilizzare correttamente e confrontare le informazioni, ma altrettanto sfidante è saper rappresentare i dati per conoscere i nostri clienti e migliorare la loro esperienza. Angelo Maria Milano, chief data officer di Banca Sella Al nostro interno c’è una distinzione piuttosto chiara fra data owner, data manager e utenti responsabili. I primi appartengono al mondo del business, i secondi all’IT, mentre gli ultimi sono figure bancarie che si occupano delle applicazioni. Tutto viene presidiato da un governo che all’accessibilità associa adeguate misure di protezione. Claudio Mariani, head of enterprise architecture di Banco Bpm Il nostro attuale piano progettuale ha messo al centro la necessità di spingere sulla digitalizzazione ed evolvere verso l’idea di banca data-driven. Il progetto, strutturato su un arco di tre anni, poggia sui pilastri della definizione di una data strategy, la governance e la rivoluzione dell’intelligenza artificiale. Questo riflette la crescita del nostro gruppo, fatta anche di acquisizioni, come quella recente di Carige. Giuseppe Maifredi, chief data officer di Bper

La raccolta delle informazioni avviene secondo una logica multicanale, grazie alla differenziazione dei rapporti con il cliente, attraverso call center, canali digitali e filiali. Da questo deriva un patrimonio informativo che noi elaboriamo per creare dati strutturati partendo da fonti disomogenee. Il contributo dei nostri data heroes (esperti nell’analisi dei dati) si spinge alla generazione di insight utili per creare nuovi prodotti, sviluppare azioni in direzione, per esempio, della prevenzione dalle frodi, o migliorare processi al fine di generare servizi di qualità per i nostri clienti. Stefano Zoni, chief data & analytics officer di Credem L’ambito principale di utilizzo dei dati concerne per noi l’offerta verso i clienti, nell'ottica del servizio e del time-tomarket. Queste sfide non riguardano solo la gestione immagazzinamento dei dati, ma più complessivamente il sistema informativo, poiché tutto l’apparato applicativo deve arrivare a un execution prossima al tempo reale, specialmente in ambiti come l’anticipazione dei bisogni della clientela o la gestione del credito. Alessandro Allini, responsabile data management di Crédit Agricole Italia Nella nostra organizzazione coesistono funzioni che producono dati e altre che ne fruiscono, supportate dall’IT che mette a disposizione le soluzioni tecnologiche per facilitare l’estrazione di valore dalle informazioni. Il chief data officer assicura che il modello operativo


di data governance evolva verso la datadriven organisation, dove esistono ruoli identificati che sono garanti della qualità, della disponibilità e della gestione del ciclo di vita delle informazioni. In totale sinergia, il chief digital officer estrae valore e mette a terra idee per lo sviluppo di nuovi servizi alla clientela, utilizzando le tecniche di intelligenza artificiale. Chiara Pellistri, chief data officer & chief information security officer di Deutsche Bank Il tema dei dati ha per noi una rilevanza fondamentale in almeno tre ambiti. Il primo riguarda la raccolta delle informazioni necessarie per proporre al cliente il prodotto migliore nel luogo e nel momento in cui si trova. Il secondo riguarda la prevenzione dalle frodi, un bisogno sempre più pressante e impegnativo. Il terzo copre l’assistenza ai clienti, con l’obiettivo di ottimizzare il

lavoro degli operatori senza intaccare la customer experience. Andrea Coppini, responsabile divisione digital innovation & multichannel di Iccrea Banca Il miglioramento delle relazioni con la clientela fa leva sulla conoscenza, per cui stiamo lavorando sulla creazione di una vista unificata “a 360 gradi”, che sia ricca, aggiornata e coerente su tutti i nostri canali, affinché poi le interazioni siano governabili in modo semplice. A monte, la collaborazione fra chi gestisce e chi possiede i dati passa per un processo di democratizzazione della fruizione e per la conseguente creazione di valore. Davide Corda, group senior director data strategy & transformation di Intesa Sanpaolo Fare una reportistica al top management sui dati di business divisionali,

UNA DATA STRATEGY AL SERVIZIO DI TUTTI Per quanto la maggior parte delle organizzazioni sia ben consapevole delle opportunità offerte dai dati, esiste un divario piuttosto importante tra le aspirazioni aziendali di operare e prendere decisioni a partire proprio dalle informazioni a disposizione, e la reale capacità di estrarre valore dai dati e trasformali in un asset strategico a favore del business. Banche e istituzioni finanziarie non fanno eccezione, e stanno iniziando a far leva su dati necessariamente consistenti, credibili, condivisi fra le diverse aree e accessibili in ottica di decision-making non solo per presidiare il customer journey, ma anche per razionalizzare i processi interni. Ma da dove si parte per gettare basi

solide per estrarre valore dai dati e impostare una data strategy vincente? In primo luogo, è utile identificare ruoli e regole alle quali le persone possono fare riferimento: gli owner del dato, chi lo amministra e chi lo analizza. Questa fase vede il coinvolgimento di molti attori e implica la rivisitazione di processi aziendali che corrono paralleli a quelli legati alla data strategy. È vitale che i dati siano fruibili da tutte le persone all’interno dell’organizzazione, e che tutti siano in grado di lavorare con i dati in maniera efficace ed efficiente. La tecnologia è in grado di semplificare e supportare sia le persone sia i flussi tra di esse, rendendo gestibile e amministrabile la governance dell’in-

rispettando doverosi requisiti di qualità e tempestività, rappresenta il nostro primo focus. Ma altrettanto importante è far fronte a una wave normativa sempre più incalzante, che comporta una costante riconciliazione con il mondo delle segnalazioni di vigilanza e con l’informativa finanziaria. Alessandro Bulfone, group chief data officer di Mediobanca La collaborazione tra i Cio e i Cdo, senza dimenticare i direttori marketing, si è fatta nel corso del tempo sempre più importante. Ai primi compete la decisione sulle tecnologie e il framework abilitante la strategia di business, mentre i secondi si occupano di come integrare le informazioni e del modello dei dati. L’interazione fra le due funzioni resta un fattore chiave di accelerazione. Roberto Monachino, executive data leader nel banking & former chief data officer di Unicredit

tero sistema su cui si basa la strategia del dato. La velocità con la quale i dati vengono creati e gestiti è un fattore cruciale. Basti pensare all’importanza di possedere dati aggiornati in reaI time quando si tratta di prendere decisioni di business. Ad oggi c’è una consapevolezza diversa sull’importanza dei dati e ci sono diverse realtà che stanno portando avanti evoluzioni interessanti, ma c’è ancora tanto da fare all’interno delle aziende nella gestione dei dati, nell’utilizzo di strumenti di advanced analytics e nella divulgazione dell’alfabetizzazione sui dati tra dipendenti. Eppure il futuro è dietro l’angolo, e non bisogna farsi trovare impreparati. Stefano Nestani, country leader di Qlik Italia

45


ECCELLENZE.IT | L’Erbolario Sit voluptate

TRADIZIONE E TRASFORMAZIONE VANNO A BRACCETTO L’azienda lodigiana ha trasformato il proprio modo di lavorare grazie al supporto di Insight, autore del progetto, e al cloud di Microsoft Azure.

C

on i suoi packaging ben riconoscibili, i metodi di lavorazione tradizionali e la qualità delle materie prime usate, L’Erbolario è un punto di riferimento per chi ama la cosmesi e la cura del corpo. Nato a Lodi nel 1978 da una piccola azienda artigiana, il marchio oggi ha conservato nei propri prodotti e metodi una sua artigianalità, nonostante i grandi volumi distribuiti in una rete composta da 190 negozi diretti e cinquemila punti vendita affiliati in tutta Italia, senza contare i molti clienti internazionali e il sito di e-commerce. Un’organizzazione di questo tipo negli ultimi anni ha obbligato L’Erbolario a cogliere nuove sfide tecnologiche. In particolare, con il primo lockdown del 2020 la quotidianità dell’azienda è stata rapidamente stravolta: l’impossibilità di recarsi in ufficio impattava non solo sulle attività di produzione, ma anche sulla

gestione dei dati. Permettere al personale di collegarsi da casa era in quel momento una necessità contingente, da cui però è nata una trasformazione più ampia verso un modo di lavorare più flessibile, moderno e collaborativo, non meno sicuro. L’azienda lodigiana, dunque, ha voluto creare una infrastruttura cloud al passo con i tempi e per far ciò si è rivolta al suo partner tecnologico di fiducia. “Insight era il nostro fornitore software di riferimento”, racconta Fabrizio Dal Passo, responsabile sistemi e sicurezza IT di L’Erbolario. “Qualche anno fa però abbiamo capito di aver bisogno di un servizio di consulenza più stretto, più approfondito e che richiedesse una conoscenza particolare della nostra realtà. Insight è stata capace di aiutarci, conoscerci e fornire quelle soluzioni che sarebbero state strategicamente importanti, soprattutto per quanto riguarda il lavoro remoto, la sicurezza in quell’ambito e la proceduLA SOLUZIONE L'Erbolario ha adottato il cloud di Microsoft Azure e le applicazioni di Office 365 (inclusa Teams), in abbinamento alle tecnologie di Active Directory Azure App Proxy e autenticazione multi-fattore per l’accesso remoto sicuro. L’uso di Azure Functions e le attività di SQL Consolidation hanno permesso di svolgere nel cloud alcune attività di data processing.

46 |

LUGLIO 2022

ralizzazione delle attività svolte”. Insight ha dunque creato e configurato un ambiente IT nel cloud di Microsoft e un tenant Office 365 per L’Erbolario, ma ha anche aiutato l’azienda a progettare un percorso di trasformazione digitale. Grazie a desktop remoto, Active Directory in cloud e autenticazione multi-fattore sono state create le condizioni per uno smart working produttivo, efficace e anche sicuro. Il reparto IT, peraltro, ha potuto ottenere maggiori possibilità di controllo e maggiore visibilità su dati e applicazioni. “A valle del progetto, abbiamo ottenuto grandi cambiamenti in azienda”, assicura Dal Passo. “Abbiamo iniziato a lavorare in remoto, cosa che prima spaventava l’azienda e che invece adesso viene vista come un’ottima opportunità di lavoro. Abbiamo migliorato la sicurezza e permesso ai colleghi di interagire molto meglio con i propri uffici grazie alle tecnologie di Teams. Insight in questo ci è sempre stata a fianco, permettendoci un’ottima governance di tutti i sistemi introdotti”. Inoltre l’attività di scaffolding sull’infrastruttura di Azure ha permesso di implementare le Virtual Network che sono alla base anche di diversi progetti futuri riguardanti per esempio Azure Functions e Power BI. “Il fatto che questa partnership abbia portato a conoscerci profondamente, porta Insight a proporre progetti che siano compatibili con le nostre esigenze e noi a seguirli in totale fiducia”, sottolinea Dal Passo.


ECCELLENZE.IT | Consiglio Nazionale delle Ricerche

SICUREZZA, PERNO DELLA RICERCA SCIENTIFICA L’Istituto di Metodologie per l’Analisi Ambientale, parte del Crn, ha bisogno di potenza di calcolo, connettività veloce e cybersicurezza. Obiettivi raggiunti anche grazie a Palo Alto Networks.

I

l Consiglio Nazionale delle Ricerche (Cnr) è il più grande ente pubblico di ricerca italiano e oggi conta su uno staff formato da oltre 8.500 persone, per il 63% ricercatori. La struttura opera nell'ambito di una rete che include oltre 100 istituti di ricerca e 224 laboratori distaccati. Uno di questi è l'Istituto di Metodologie per l’Analisi Ambientale (Imaa), che si avvale nel proprio lavoro di tecnologie di osservazione della Terra da satellite, da aereo e dal suolo, finalizzate allo studio dei cambiamenti che avvengono nei processi ambientali e geofisici. La tecnologia è alla base di quasi tutti gli aspetti delle attività del Cnr-Imaa ed è pertanto necessario che il data center dell'istituto disponga di un'infrastruttura per la sicurezza di rete ad alta velocità, scalabile e flessibile, con configurazione high availability. La partecipazione al programma di ricerca paneuropeo Actris, che studia le condizioni atmosferiche nei componenti climatici temporanei, riflette questa esigenza. Il data center dell’istituto, infatti, si occupa della raccolta, dell’analisi, dell'accesso e del provisioning dei dati di rilevamento remoto dell'aerosol per Actris provenienti da una trentina di siti in tutto il Continente. Le informazioni ottenute sono rese disponibili attraverso vari portali di ricerca. I dati vengono forniti in near real time a Cams, il servizio di monitoraggio atmosferico di Copernicus. “Actris è solo uno dei numerosi servizi di ricerca esposti su Internet”, spiega Ermann Ripepi, head of infrastructure and networks di Cnr-Imaa.

“La mia missione è proteggere l’infrastruttura del data center da attacchi esterni e interni. La nostra rete è basata su una Evpn-Vxlan Ip Fabric e tutti i servizi sono eseguiti in un ambiente Vmware virtualizzato. Ecco perché dobbiamo proteggere sia il traffico nord-sud che quello est-ovest tra le varie zone di sicurezza”. In termini di infrastruttura tecnologica, l’istituto gestisce più di 2 petabyte di storage e 2.000 computing core interconnessi grazie a una rete resiliente ad alta velocità, scalabile e a bassa latenza (2x100 Gbps per ogni collegamento). Per contrastare efficacemente gli attacchi informatici diretti al data center, è stato pertanto necessario stabilire vari requisiti che hanno improntato la scelta della nuova piattaforma per la sicurezza della rete e tra questi si possono citare la prevenzione del furto di credenziali, la definizione di policy dinamiche LA SOLUZIONE Cnr-Imaa utilizza quasi per intero la suite Palo Alto Networks di servizi di sicurezza distribuiti tramite cloud (Cloud-Delivered Security Services) e si avvale di GlobalProtect come gateway Von per la protezione dell'accesso remoto. Viene utilizzato anche AutoFocus come servizio di threat intelligence basato sul cloud. La standardizzazione della piattaforma connessa nel data center avvicina l’istituto a una strategia Zero Trust.

per carichi di lavoro virtuali altrettanto dinamici e l’utilizzo dell’automazione integrare la sicurezza e prevenire minacce in rapida evoluzione. Il Cnr-Imaa ora dispone di una soluzione Palo Alto Networks completa basata su due Ml-Powered Ngfw in un cluster ad alta disponibilità (HA) con doppio uplink 40 Gbps per ogni dispositivo. “I nostri firewall sono configurati in modalità attiva/passiva per garantire l’alta disponibilità”, descrive Ripepi. “Nell’improbabile eventualità di guasto di uno dei dispositivi attivi o durante le operazioni di manutenzione, il traffico si sposta automaticamente sul dispositivo passivo, garantendo la continuità delle attività”. Il Livello 7 e la visibilità delle applicazioni consentono inoltre a Ripepi di identificare e filtrare policy, servizi e applicazioni.

47


ECCELLENZE.IT | Atlantia Sit voluptate

IN VIAGGIO CON IL CLOUD VERSO UN FUTURO PIÙ GREEN La holding attiva nella gestione di reti autostradali e aeroporti ha ottenuto maggiore agilità grazie all’offerta Rise with Sap in combinazione a servizi di Aws.

L

e sue radici affondano negli anni Cinquanta, e da allora attraverso acquisizioni e rebranding Atlantia è arrivata fino a un presente fatto di 21mila dipendenti, quasi diecimila chilometri di autostrade a pedaggio e cinque scali aeroportuali gestiti, in Italia e all’estero. Anche dopo la cessione di Autostrade per l’Italia, Atlantia continua a essere un colosso delle infrastrutture di trasporto presente in undici Paesi. Ed è anche un’azienda che ha cercato di trasformare i propri processi e attività attraverso la tecnologia, come dimostra il recente progetto di migrazione in cloud, teso a ottenere maggiore scalabilità e agilità e a semplificare la gestione dell’ambiente IT. La scelta è ricaduta su Rise with Sap, l’offerta di Sap che racchiude soluzioni tecnologiche (per esempio Erp, database, analytics) con servizi di supporto, benchmark e pratiche di settore. L’obiettivo è quello di facilitare la migrazione in cloud con un progetto completo, calato nell’ambito di riferimento e scalabile in qualsiasi momento. Per la propria migrazione in cloud, Atlantia ha adottato questa offerta in combinazione con risor-

se di Amazon Web Services (Aws), dal momento che già in precedenza si appoggiava a questo fornitore. “Rise with Sap risponde perfettamente alle esigenze di Atlantia”, spiega il chief information officer della società per azioni, Angelo Spalluto, “perché ci consente di non doverci focalizzare sull’infrastruttura ma di occuparci di piccole modifiche a livello applicativo. Inoltre, la combinazione con Aws si è dimostrata da subito un fattore vincente, che non ha creato alcun problema a livello infrastrutturale, permettendoci di adottare un ambiente completamente in cloud, demandando all’esterno tutto l’aspetto di gestione e manutenzione. Grazie al supporto di Sap e Aws siamo riusciti ad andare live in tempi molto più brevi rispetto a quelli preventivati, con un vantaggio non trascurabile in termini di time-to-market ed economici”. Dal go live della nuova infrastruttura, Atlantia ha potuto beneficiare da subito di nuovi processi di business, adattandoli alle esigenze di tutte le società controllate, a quelle dei propri fornitori e degli enti pubblici con cui si interfaccia. “Il miglioramento dal punto di vista dello snellimento dei processi aziendali è stato LA SOLUZIONE Atlantia ha realizzato la propria migrazione tecnologica in cloud attraverso l’offerta Rise with Sap e appoggiandosi a risorse infrastrutturali di Amazon Web Services (Aws), già suo fornitore di riferimento.

48 |

LUGLIO 2022

notevole”, aggiunge Spalluto. “Abbiamo rivisto e ottimizzato il modo in cui lavoriamo tutti i giorni e soprattutto destinato più tempo alla gestione della componente applicativa che richiede maggiore attenzione e sforzo da parte del nostro team IT”. Accanto ai vantaggi di efficienza e quotidiana gestione, va citata la spinta verso obiettivi di sostenibilità. “Atlantia ha sviluppato la sua infrastruttura IT su Aws considerando la disponibilità dei data center della nostra Regione Aws Europe (collocata a Milano) in Italia e la strategia comune di sostenibilità nelle operazioni”, afferma Carlo Giorgi, managing director di Amazon Web Services Italy. “Le aziende in Europa possono ridurre il consumo di energia di quasi l’80% migrando i loro carichi di lavoro di calcolo dai data center on-premise ad Aws. Le aziende, inoltre, potrebbero potenzialmente ridurre ulteriormente le emissioni di carbonio derivanti da un carico di lavoro medio fino al 96%, una volta che Aws raggiungerà il suo obiettivo di essere alimentata al 100% da energia rinnovabile”. Un traguardo che la multinazionale punta a raggiungere entro il 2025. “Con Aws condividiamo l'impegno verso l’ambiente”, sottolinea Spalluto. “Per questo siamo entrati a far parte del Climate Pledge, impegnandoci a raggiungere zero emissioni nette di CO2 entro il 2040, con dieci anni di anticipo rispetto agli obiettivi fissati dall’Accordo di Parigi”. Nel 2021 l’azienda ha ridotto del 14% le proprie emissioni di CO2 dirette e, sul totale dell’energia utilizzata, è arrivata a una quota del 32% di rinnovabili.


ECCELLENZE.IT | Vivisol

IL MONDO DELLA SANITÀ S’INTRECCIA CON IL DIGITALE

N

el complesso mondo della sanità, le tecnologie mediche e biotecnologiche sempre più si intrecciano con quelle digitali. Ne è esempio Gruppo Sol, storica realtà italiana nata nel 1927, oggi multinazionale, che produce ossigeno medicinale e altri gas tecnici, servizi e impianti. La sua controllata Vivisol, fondata nel 1986, eroga prestazioni sanitarie (assistenza domiciliare e telemedicina) e terapie ad alta complessità tecnologica (ossigenoterapia, ventiloterapia, aerosolterapia, nutrizione artificiale) a più di mezzo miliardo di pazienti nel mondo. L’azienda può contare su una squadra di duemila addetti, fra tecnici specializzati e operatori sanitari, divisi tra Europa, Turchia, Brasile e Cina. Per rispondere al meglio ai propri clienti e partner, Vivisol ha voluto sviluppare una piattaforma digitale che comprendesse i siti istituzionali della società ma anche una serie di portali self-service rivolti a pazienti, medici e personale del sistema sanitario. La scelta è approdata sulla Digital Experience Platform (Dxp) di Liferay, una piattaforma basata su tecnologia open-source con cui è possibile realizzare siti Web o altri prodotti rivolti a clienti, fornitori, partner o dipendenti. Per la realizzazione del progetto è stata coinvolta Open Reply, società del gruppo Reply specializzata (come il nome suggerisce) in consulenza e creazione di soluzioni basate su open-source. “Abbiamo scelto Liferay come tecnologia”, racconta Giulio Fumagalli Romario, presidente di Vivisol, “perché sapevamo bene che le potenzialità della Dxp, unite all’e-

sperienza di Open Reply, avrebbero potuto aiutarci ad accelerare il nostro progetto di trasformazione digitale, sviluppando una piattaforma in grado di rispondere alle necessità di comunicazione e trasparenza di Vivisol nei confronti di tutti i portatori di interesse interni ed esterni all’azienda”. La prima fase del progetto si è focalizzata sulla realizzazione e sull’avvio di alcuni siti Web di carattere informativo, cioè il sito corporate e quelli delle società Vivisol presenti sul territorio italiano e all’estero. Inoltre è stato rilasciato sul Web il portale attraverso cui i pazienti che usano tecnologie di Vivisol potranno accedere per monitorare i parametri della propria terapia, seguire lo stato delle attività e interagire direttamente con il centro clinico remoto Vivisol (tramite il team di supporto pazienti di riferimento). Grazie alla piattaforma, ospitata nativamente su Liferay Dxp Cloud, gli utenti possono in autonomia controllare le terapie e i servizi fruiti, ma anche prenotare prestazioni LA SOLUZIONE Liferay Dxp (Digital Experience Platform) è una piattaforma open-source che permette di creare esperienze personalizzate per clienti, fornitori, partner e dipendenti aziendali. È utilizzabile per realizzare siti di e-commerce B2B, portali cliente, Intranet, piattaforme di integrazione per applicativi e ambienti diversi.

Foto di Darko Stojanovic da Pixabay

I portali Web realizzati con Liferay e Reply hanno messo a disposizione dei pazienti diversi servizi self-service di monitoraggio delle terapie, di prenotazione e di acquisto.

e acquistare prodotti. “Per Open Reply, aver preso parte alla prima fase di questo progetto di Digital Transformation al fianco di Vivisol è motivo di grande orgoglio”, commenta Nicola Scarmozzino, partner di Open Reply. “Abbiamo contribuito a dotare il sito della country Italia di un’area riservata, migliorata sia nelle funzionalità sia nella user experience, con un portale che consente a pazienti, medici e istituzioni di avere accesso a tutte le informazioni sulla propria terapia e di gestire i propri servizi. Questo traguardo è il primo di una serie di passi che nei prossimi mesi porteranno Vivisol a migliorare sempre più l’esperienza digitale dei propri clienti, sia in Italia sia in altri Paesi, grazie al supporto del nostro team e all’efficace collaborazione con Liferay”. 49


APPUNTAMENTI 2022

IFA 2022

Quando: 2-6 settembre Dove: Berlino Perché partecipare: la grande fiera berlinese della tecnologia torna in presenza, dopo l’edizione “ibrida” del 2020 e la sospensione del 2021. Si punta a replicare i numeri del 2019 (oltre 238mila visitatori, 1.930 aziende partner).

BANKING SUMMIT 2022 THE INNOVATION GROUP

Quando: 23 settembre Dove: Grand Hotel Dino, Baveno (VCO), e online su https://www.theinnovationgroup.it/events/banking-summit-2022/?lang=it Perché partecipare: giunto alla 12esima edizione, il summit quest’anno affronta i temi dell’Open Banking, dell’omnicanalità, della cybersicurezza e della trasformazione data-driven.

BI-MU SMAU MILANO

Quando: 11-12 ottobre Dove: Fiera Milano City Perché partecipare: lo storico appuntamento con l’innovazione sviluppata dalle aziende (e startup) e per le aziende è non solo una fiera, ma un contenitore di momenti di networking, sessioni di formazione e live show.

SAVE

Quando: 26-27 ottobre Dove: Palaexpo, Verona Perché partecipare: la fiera dedicata alle tecnologie software e hardware per l’industria 4.0 nella precedente edizione ha attratto oltre 4.000 partecipanti.

50 |

LUGLIO 2022

Quando: 12-15 ottobre Dove: EU-Centro Esposizioni Ucimu, Milano Perché partecipare: la manifestazione biennale propone cinque aree espositive dedicate ad altrettanti temi, tra cui robotica e automazione, manifattura additiva e altre tecnologie digitali per l’industria.


The Innovation Group

Workshop 2022 W

Innovating business and organizations through ICT

LE NUOVE FRONTIERE DEI MERCATI FINANZIARI DIGITALI DECENTRALIZZATI: HIC SUNT LEONES?

LLEADERS BANKING DAY 2022

UNLOCKING VALUE & VALUES FOR A PURPOSE-DRIVEN BANKING

BANKING BANKING SUMMIT 2022

UNLOCKING VALUE & VALUES A FOR A PURPOSE DRIVEN BANKING. LA TRASFORMAZIONE DIGITALE METTE AL CENTRO IL CLIENTE, LA PERSONA E LA SOCIETA’

B a v e n o

|

2 2 -

G r a n d

2 3

H o t e l

s e t t e m b r e D i n o

leaders banking day

22.09

23.09

h. 10.30-13.00

h. 9.15-17.00

22.09

h. 14.30-18.30

workshop esclusivo

banking summit

INFO

MAIL

www.theinnovationgroup.it

segreteria.generale@theinnovationgroup.it

#TIGBANKING


Tutta la tecnologia che conosciamo

E QUELLA CHE IMMAGINIAMO PER IL FUTURO

DIGITAL POWERED ENTERPRISE MOBILE WEB SOCIAL MEDIA SMART CITY CLOUD SOFTWARE info@posytron.com • posytron.com

INTERNET OF THINGS


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.