30 minute read
EXECUTIVE ANALYSIS
VIAGGIO NEL MONDO IBRIDO DELLE AZIENDE
Quasi tutte le imprese italiane hanno spostato in cloud servizi o applicazioni. Sicurezza dei dati, pressione verso l’innovazione e modalità di convivenza con componenti legacy sono aspetti da considerare.
Da alcuni anni ci sono macro tendenze che stanno guidando l’evoluzione delle infrastrutture tecnologiche delle aziende. Una di esse è la modernizzazione, riferita ad aspetti che spaziano dai processi alle applicazioni, dalla razionalizzazione dei data center a quella delle risorse. La recente indagine “The Digital Business Transformation Survey 2021”, realizzata da The Innovation Group (Tig), mostra come il cloud computing, soprattutto negli aspetti più legati alla migrazione di workload o componenti infrastrutturali, sia uno dei pilastri per l’innovazione delle aziende italiane: attira oltre il 60% degli investimenti definiti per il 2020 o programmati per il 2021 superiori al 60%. I responsabili della tecnologia in azienda, in modo particolare, hanno indicato nel 48% dei casi la strategia multicloud come iniziativa prioritaria per l’anno in corso. Le organizzazioni stanno comunque facendo evolvere gli ambienti IT on-premise in direzione dell’agilità e del controllo dei costi. Non a caso, la survey di The Innovation Group evidenzia che ancora oggi permane un 25% di realtà totalmente legate ad architetture on-premise, mentre fra tre anni il dato è previsto scendere a zero, a vantaggio degli ambienti ibridi con presenza di più vendor o provider (79%).
Il cambiamento va veloce
Una trasformazione digitale acceleratasi notevolmente nel corso dell’ultimo anno e la modernizzazione dell’IT avviatasi da tempo sono fattori strategici di spinta per un’adozione più convinta di infrastrutture ibride, in un contesto nel quale la compresenza di risorse fisiche e virtuali, on-premise e cloud, va bilanciata con una riduzione della complessità di gestione. Allo stesso modo, i workload devono potersi muovere verso l’ambiente più utile alle esigenze del business, il personale IT deve diventare più trasversale e meno specializzato, gli obiettivi di governance e compliance devono accompagnarsi con quelli di sicurezza e protezione dei dati. Da queste basi ha preso le mosse un’indagine qualitativa che Technopolis ha realizzato analizzando esperienze e riflessioni di oltre quindici aziende di dimensioni grandi e medio-grandi, appartenenti a diversi settori merceologici e in particolare al manifatturiero, all’energy e ai servizi. L’iniziativa ha voluto comprendere quale sia oggi lo stato dell'arte nel processo di costruzione di infrastrutture ibride, quali processi siano già migrati in cloud, quali problematiche vadano ancora risolte, come si stia strutturando il percorso verso l'innovazione dal punto di vista delle tecnologie abilitanti. Il panorama complessivo appare piuttosto omogeneo in termini di storia ed evoluzione delle scelte tecnologiche di fondo. In tutti i casi, siamo di fronte a infrastrutture ibride, con un percorso evolutivo in corso, che però solo in pochi casi sfocerà a breve in
Photo by Joakim Honkasalo on Unsplash
una totale adesione alla logica full-cloud. Più frequente è il caso in cui alcuni carichi di lavoro sono tuttora gestiti internamente, per ragioni talvolta collegate alla loro criticità per il business e talaltra alla complessità di una possibile traslazione. Ad accomunare le esperienze esaminate è un percorso iniziato più o meno ovunque con la trasposizione verso l’esterno di strumenti e applicazioni “commoditizzate”, dalla posta elettronica alla produttività individuale. Lo scenario appare comunque in rapida evoluzione. Il ritmo dei cambiamenti di mercato sta agendo da fattore di spinta primario verso una maggiore adozione del cloud, in qualche situazione minoritaria anche forzando resistenze più radicate. Laddove l’IT è riuscita a ritagliarsi un ruolo riconosciuto di abilitatore a supporto del business, il passaggio appare più compiuto e metabolizzato, mentre in altri casi stanno giocando un peso rilevante fattori come gli adeguamenti normativi, il mutamento dello scenario competitivo o anche la repentina ascesa dello smart working e della collaboration per gli effetti del covid-19 sulle abitudini lavorative.
Fra scelte consolidate e ostacoli
All’interno di uno scenario infrastrutturale per molti aspetti in divenire, alcuni elementi accomunano le diverse realtà esaminate dalla ricerca. Innanzitutto, parliamo di ambienti nella quasi totalità già abbondantemente virtualizzati. I processi hanno riguardato nel tempo le principali componenti fisiche (server, desktop, storage) con l’intento di ridurre il footprint del data center interno e sfruttare alcuni aspetti della scelta, come la flessibilità delle configurazioni e il bilanciamento dei carichi. Un altro elemento condiviso da quasi tutti riguarda l’affidabilità dell’infrastruttura IT: in maniera del tutto omogenea, il campione selezionato ha indicato di non aver subìto disservizi o perdite di dati collegabili a configurazioni o malfunzionamenti degli apparati installati. Molto si deve alla ridondanza delle componenti essenziali, presenti in tutti i contesti dove la risorse interne rivestono ancora un ruolo importante, così come all’adozione di corrette strategie di backup o altre forme di salvaguardia. Laddove l’affidamento al cloud è già preponderante, emerge la convinzione che il livello di maturità e le capacità di investimento degli hyperscaler siano tali da minimizzare i rischi di gravi disservizi e ancor più di problematiche tipicamente legate alla sicurezza. Anche se qualcuno ha lasciato trapelare che comunque occorrano un presidio di monitoraggio non irrilevante e competenze interne ancora da consolidare.
La spinta dell’innovazione
Se la presenza di processi nati e cresciuti in ambienti tradizionali appare uno dei limiti fondamentali verso un passaggio più rapido e compiuto a un’infrastruttura software-defined, molti processi innovativi stanno già seguendo un percorso di sviluppo cloud-nativo. Al di là dell’appoggio a risorse esterne utilizzabili in modo flessibile per testare nuove applicazioni prima del rilascio in produzione, ci sono diversi ambiti nei quali l’intero processo di creazione e realizzazione si appoggia a infrastrutture in cloud. A seconda delle aziende e del loro contesto di business, si spazia dagli analytics all’Internet of Things (IoT), dal billing ad alcuni aspetti gestionali, dai digital twin agli sviluppi no-code. Un elemento che ancora frena sviluppi più compiuti è quello delle competenze. Traspare la consapevolezza che sia ben diverso gestire un'infrastruttura totalmente on-premise rispetto a una ibrida con componenti su cloud pubblico. La maggior parte delle aziende ha indicato la necessità di dover aumentare le risorse e le competenze su questo fronte, ma la difficoltà di reperimento sul mercato e la situazione congiunturale stanno un po' ritardando i tempi di intervento. Senza dubbio, il 2020 ha modificato le priorità per quasi tutte le aziende. Per certi versi, i processi di digitalizzazione sono stati velocizzati per far fronte alla remotizzazione non solo dei rapporti di lavoro dipendente, ma anche delle relazioni con clienti e fornitori. Per contro, diversi progetti innovativi in aree di ricerca o di ottimizzazione sono stati posticipati. L’anno in corso dovrebbe procedere lungo solchi già tracciati. Le roadmap di medio termine improntate a una progressiva migrazione in cloud di processi e workload strategici proseguiranno nel rispetto dei tempi e delle procedure già delineate.
Roberto Bonino
Photo by Jonas Schindler on Unsplash
PERCORSI DIFFERENZIATI
Fin qui abbiamo scelto di procedere in modo graduale e mirato, portando in cloud processi e applicazioni arrivate alla conclusione del proprio ciclo di vita. Ci convince l’idea di poter disporre di un data center elastico, in logica ibrida, con una migrazione controllata che ci consenta di utilizzare sempre gli stessi strumenti di gestione e di non appesantire di colpo la complessità. Riccardo Morandotti, IT manager di Butangas
L’adozione di soluzioni SaaS rispecchia nel modo migliore la nostra volontà di tenere sotto stretto controllo le spese operative, oltre a integrare aspetti come aggiornamenti, compliance e sicurezza, di cui preferiamo, ove possibile, che sia il vendor a occuparsi. Alcuni sviluppi legati all’IoT stanno nascendo già in modalità cloud-native. Diego Lunetta, corporate Ict & cyber security manager di Diasorin
La maggior esposizione e l’integrazione con il resto del panorama tecnologico aziendale sono elementi da valutare con attenzione, soprattutto nell’ottica della disponibilità continua delle applicazioni. Peraltro verso la scalabilità e l’efficienza infrastrutturale sono certamente punti a favore e per una realtà come la nostra, presente in diversi Paesi e in continua crescita, rappresentano leve fondamentali. Alessandro Linguanti, IT director di E.ON Energia
I nostri sviluppi futuri in direzione del cloud sono definiti in una roadmap piuttosto sfidante per i prossimi tre-cinque anni. L’evoluzione riguarderà tanto la componente infrastrutturale quanto quella applicativa. Su quest’ultimo fronte, la soluzione Crm sta diventando un pilastro fondamentale soprattutto per le vendite e le direzioni commerciali, il marketing e il servizio clienti. Roberta Regis, Cio di Edenred
Negli ultimi due anni abbiamo intrapreso un importante percorso di trasformazione, dettato dalla volontà di razionalizzare l’infrastruttura e abbracciare una logica ibrida. Siamo produttori di energia e vogliamo mantenere un controllo stretto su ciò che più direttamente è collegato al nostro core business, esponendo all’esterno processi non strategici. Claudio Bielli, head of technology transformation and operations di Falck Renewables
Siamo un'azienda manifatturiera capital intensive, che opera nel campo siderurgico ed è caratterizzata da processi stanziali. Talune componenti industriali restano all'interno dei nostri data center, mentre diverse altre applicazioni sono state già migrate in cloud. Rientrano qui anche componenti strategiche, come l’Erp, basato però su infrastruttura privata, a garanzia di una maggior sicurezza. Francesco Besacchi, Cio di Feralpi Siderurgica
Già a partire dal 2012 l’azienda si è posta l’obiettivo di una maggior standardizzazione dei sistemi, sia in campo gestionale sia in quello dell’analisi e manipolazione dei dati. Il percorso intrapreso ci ha portato oggi a essere una realtà multicloud, in un contesto ibrido, pur mantenendo all’interno il governo sui processi e sui costi. Omar Moser, group Cio di Trafilerie Gnutti Carlo
Integra Document Management è una società che si occupa di business automation e dematerializzazione di documenti cartacei per grandi istituti finanziari, Sgr e realtà del mondo assicurativo. Si tratta di un ambiente che riserva un'attenzione molto spiccata verso la sicurezza e la privacy. Per questo la transizione al cloud sta avvenendo in modo molto graduale, ciononostante ci stiamo attrezzando per essere pronti a saper gestire le mutazioni che inevitabilmente sono destinate ad avvenire. Luca A. Giusti, Ciso & head of IT Infrastructure di Integra Document Management
Nel corso del 2021 si completerà un processo di migrazione infrastrutturale che ci porterà, di fatto, a disporre di un software-defined data center. La flessibilità è la ragione essenziale di questo mutamento, che ci consentirà di poter calibrare l'utilizzo delle risorse secondo una logica più controllabile ed efficiente. L’esperienza positiva già realizzata con il passaggio del networking verso la logica Sd-Wan ha rafforzato la nostra convinzione. Fabio Rangaioli, It director di Lavazza
La visione dell’IT che abbiamo in Liquigas si basa su quattro elementi, ovvero le persone, l'innovazione, l'esperienza dell'utente e la creazione di valore. Anche le scelte infrastrutturali partono da qui e, nel momento in cui ci si sposta al di fuori del data center, ci sono elementi importanti da affrontare: in particolare, l'integrazione da una logica stand-alone a sistemi che devono dialogare, ma anche come governare e orchestrare questo panorama di architetture. Francesco Derossi, Cio di Liquigas
In passato avevamo avuto qualche remora sull’affidabilità delle infrastrutture cloud, ma abbiamo constatato che negli ultimi tre anni il mercato degli hyperscaler è diventato molto più maturo. Le nostre scelte si basano sugli use case, che valutiamo volta per
volta, per capire dove e se sia conveniente migrare. Per migrare con successo verso il cloud pubblico è necessaria una reingegnerizzazione delle applicazioni esistenti o della loro architettura per sfruttare appieno le possibilità intrinseche del cloud. Altrimenti l’iniziale vantaggio del rightsizing può disperdersi a medio termine, in considerazione di una crescita naturale delle esigenze applicative. Robert Mueller, global head of IT platforms di Nestlé
L’80% della nostra infrastruttura è ormai migrato in cloud, soprattutto per scelte di pragmatismo ma anche per un’alta disponibilità “H24”, divenuta assai più rilevante nel tempo per un’azienda di servizi come la nostra. Nel restante 20% rientrano processi che richiedono maggior attenzione, ma valuteremo come spostarli nel medio termine. Michele Solari, responsabile ufficio Ict di Openjobmetis
La componente di produzione è per noi strategica e il gruppo è cresciuto notevolmente negli ultimi anni, soprattutto grazie ad acquisizioni. Disponiamo di un’architettura di base stabile e lavoriamo in un mercato che non presenta esasperati livelli di dinamicità. Per questo insieme di fattori, preferiamo mantenere un presidio diretto sul cuore delle nostre attività, affidando all’esterno solo processi non centrali. Danilo Duina, responsabile sistemi informativi di Ori Martin
Siamo un’azienda che si occupa di distribuzione di parti di ricambio nel settore automobilistico wholesale aftermarket (cioè post vendita) e l’IT deve supportare il core business. Non ci interessa, pertanto, appesantire la struttura interna per attività a basso valore aggiunto, ma tenere il passo con le evoluzioni tecnologiche utili per soddisfare le effettive esigenze dell’azienda. Per questo, vogliamo mantenere all’interno il governo della complessità e affidarci a partner esterni per specifiche applicazioni, processi e attività tecniche. Fulvio Colnaghi, vice president IT e Cio di Rhiag
Seguiamo una strategia di cloud pubblico nei casi in cui è complesso adottare soluzioni digitali on-premise. Per esempio, la realizzazione di soluzioni basate su intelligenza artificiale o elementi infrastrutturali specifici (architetture serveless). Il tentativo di costruire in casa simili scenari architetturali richiederebbe di sostenere costi esorbitanti e mettere in campo competenze delle quali, invece, non disponiamo. Un mix di PaaS e SaaS rappresenta oggi la configurazione migliore per le nostre esigenze. Biagio Di Micco, group Cio di Rina
Da oltre un anno siamo partiti con una roadmap che ci porterà, nell’arco di un altro paio d’anni, ad adottare un vero e proprio software-defined data center. Il punto di partenza è la migrazione sul cloud di tutto quanto possibile e l'altro elemento portante riguarda l'implementazione di soluzioni iperconvergenti, necessarie per perseguire obiettivi di semplificazione nella gestione. L’innovazione è al centro di sviluppi che passano, ad esempio, per l’adozione di tecnologie blockchain nella tutela delle opere sottoposte a diritto d’autore. Michele Panigada, Cio di Siae
IN CAMMINO VERSO IL MULTICLOUD
Oggi il cloud computing è centrale nello sviluppo delle aziende, con previsioni d'investimento molto positive. In particolare, focus per il 2021 si delinea essere il multicloud. Oggi, oltre 15 milioni di carichi di lavoro enterprise vengono eseguiti su Vmware nel cloud e più di 4.300 partner offrono servizi cloud basati su Vmware, inclusi tutti i principali fornitori di cloud pubblici. Soprattutto nell’incerto mondo di oggi, le imprese cercano di aumentare l'agilità e l'efficienza per rimanere competitive e il cloud è la strategia migliore per ottenere sicurezza e operations coerenti ed efficienti. In questo cambiamento, che l’emergenza sanitaria ha accelerato, c’è un passaggio fondamentale: il riconoscimento dell’IT come leva di business. L’uso di servizi cloud nelle aziende italiane è in continua crescita grazie a vantaggi come la razionalizzazione dei costi, la scalabilità delle risorse informatiche, la business continuity e l’abilitazione allo smart working. Tuttavia, questo cambio di paradigma può nascondere insidie nella scelta delle tecnologie, delle corrette architetture e dell’ottimizzazione dei costi, se non ci si affida a un partner specializzato. Per garantire una serena ed efficiente migrazione, Var Group si pone al fianco delle aziende con un approccio consulenziale per il supporto nelle attività progettuali e di gestione “day by day” dei workload e delle infrastrutture Ict. Per rispondere con puntualità alle esigenze aziendali, Var Group ha sviluppato negli anni una partnership sempre più stretta con Vmware, tanto da raggiungere lo status di “Vmware Cloud Verified”. Le soluzioni non si limitano all’ambito private cloud, ma comprendono l’estensione di infrastrutture e servizi tra ambienti diversi: dall’ on-premise ai data center Var Group, fino ai cloud pubblici di Aws e Microsoft Azure. Luca Zerminiani, direttore cloud solutions engineering Semea di Vmware, e Marco Grassi, data center & cloud operations director di Var Group
DATA CENTER, PILASTRO DELLE STRATEGIE AZIENDALI
La scelta tra on-premise, cloud, colocation, hosting o soluzioni ibride è fondamentale per trovare il giusto compromesso fra costi e garanzie di resilienza.
Idata center non conoscono crisi. Nel 2021 il settore delle infrastrutture digitali e dei servizi collegati crescerà di dimensioni, attraendo sempre maggiori investimenti. Lo sviluppo di reti Internet e delle facility di data center è oggi guidato da un’elevata domanda di servizi cloud, hosting e colocation. È evidente che nei prossimi anni il ruolo delle tecnologie informatiche sarà sempre più rilevante per lo sviluppo dell’economia globale. In aggiunta, il mondo IT sarà al centro delle politiche ambientali dei governi, con obiettivi di riduzione di emissioni ed efficienza energetica, per rispondere alle sfide del cambiamento climatico che caratterizzeranno il terzo millennio. La recente esperienza della pandemia ha portato in primo piano i temi della resilienza e della gestione del rischio. Quello che è successo nell’ultimo anno ha spinto molte aziende ad accelerare la trasformazione pianificata per le proprie infrastrutture IT, ad esempio migrando prima del previsto le server room interne e spostando buona parte della capacità elaborativa e di storage in sale macchine esterne. Diverse nuove sfide tecnologiche (come la disponibilità di IoT, Big Data, edge computing e intelligenza artificiale, insieme ai modelli di business che si svilupperanno intorno a queste soluzioni) rafforzeranno il ruolo dell’IT e dei data center nella nostra economia.
I bisogni delle aziende italiane
Una recente ricerca condotta da The Innovation Group ha indagato le ragioni che spingono le aziende medio-grandi italiane a revisionare le proprie infrastrutture. I bisogni del business sono oggi molteplici: ai primi posti figurano la necessità di una Information Technology più agile, flessibile e dinamica, in grado di rispondere al meglio alle richieste di nuovi sviluppi dell’impresa per mantenerla competitiva e innovativa sul mercato. La resilienza è capacità di adattamento, come hanno dimostrato i fatti dello scorso anno: dalla pandemia sono emerse le aziende in grado di abilitare il maggior numero di processi da remoto (sia per il personale interno, sia per clienti e partner), spingendo sulla digitalizzazione come strumento di competitività e con-
Photo by Paul Hanaoka on Unsplash
tinuità del business. Il ridisegno dei data center, delle singole soluzioni che vi risiedono e dell’architettura complessiva, è oggi ideato sulla base di un generale movimento verso una IT ibrida. Quello che si osserva è che in futuro le infrastrutture saranno molto più distribuite rispetto al passato: tutti gli IT manager italiani intervistati sono convinti di questa tendenza. Le conseguenze sulle strategie sono però diverse se si considera il breve oppure il lungo termine. Una pianificazione a breve termine deve solitamente tener conto di alcuni freni che ancora vincolano gli ambienti attuali: ad esempio, un controllo dei processi che fa propendere per l’uso del data center interno, almeno fino a quando nuove richieste (dipendenti da modifiche a livello di norme o indirizzi del business) determineranno la scelta di facility esterne, caratterizzate da più elevata efficienza, affidabilità, certificazioni e sostenibilità. Oppure, un contratto di outsourcing può far diluire su più anni un percorso di trasformazione deciso in precedenza. Nel frattempo, ricerche di efficienza portano all’utilizzo del cloud nello sviluppo di applicazioni, che nascono quindi in questo ambiente (sono, cioè, cloud-native) e vi rimangono, anche se nel frattempo aspetti come la compliance, la protezione dei dati, la domanda di maggiore visibilità e controllo farebbero propendere per una ri-locazione più vicina (ad esempio, in un futuro “cloud nazionale”). Per il lungo termine, quello che accomuna i diversi punti di vista è l’idea che serva un ridisegno complessivo delle infrastrutture, in modo da poter un domani – sulla base di valutazioni collegate ad aspetti emergenti, come gestione del rischio, latenza, time-to-market e sviluppo rapido di nuovi servizi – stabilire anche puntualmente dove far risiedere i diversi carichi di lavoro IT. Bisognerà avere disposizione le diverse alternative (data center interno, colocation presso terzi, cloud privato, cloud pubblico) o comunque poter contare sulla configurazione benefici/vincoli ideale che ognuna di esse offre.
Vantaggi e svantaggi
Negli ultimi anni, in concomitanza con un impiego sempre più ampio del cloud, le aziende italiane hanno vissuto un progressivo “svuotamento” dei propri data center. A oggi la situazione è in linea di massima quella di un 50% di sistemi/IT workload mantenuti onpremise, e per il resto, un mix di colocation, hosting e cloud. La volontà di esternalizzare ogni aspetto dell’IT considerato “commodity” accomuna oggi la maggioranza delle imprese. In passato questa esigenza, unita alla difficoltà di dotarsi di competenze tecniche interne, ha portato molte aziende italiane ad affidare la gestione dei propri server, storage, infrastrutture fisiche e virtuali a società partner, specializzate nei servizi IT. Oggi quello che si nota, parlando con gli IT manager, è una generale preferenza per il cloud, rispetto al precedente outsourcing infrastrutturale: la nuvola, infatti ha abilitato un “IT-as-a-service” che offre livelli di semplicità, flessibilità e riduzione dei costi di vari ordini di grandezza superiori rispetto al passato. Il cloud, in confronto all’outsourcing, ha anche un altro vantaggio: permette di riportare dentro le aziende la gestione dell’IT, che può ora essere svolta internamente con un numero limitato di risorse. Non è detto invece che il cloud sia sempre sinonimo di risparmio, anzi: in alcuni casi il livello di spesa può aumentare di molto. In aggiunta, il cloud presenta alcuni problemi che le aziende oggi vagliano con attenzione, prima di spostarvi dati e applicazioni critiche per il business: domanda di compliance, business continuity, e accountability frenano la migrazione. Le industrie, ad esempio, possono escludere di posizionare in cloud pubblico le applicazioni della produzione: il timore è che criticità legate ai servizi in cloud o alla connettività abbiano effetti sulla continuità delle operazioni. I vantaggi non giustificano in nessun modo i rischi di un eventuale downtime e dell’arresto di linee produttive, che hanno gravi conseguenze economiche.
A ciascuno la sua soluzione
Una strada intermedia tra l’avere i server in casa e l’essere completamente in cloud è quella della colocation o dell’hosting in un datacenter esterno. Nel primo caso i servizi di gestione rimangono interni all’azienda, nel secondo caso sono affidati all’esterno. Chi intravede difficoltà nel passare completamente in cloud, trova nella colocation di macchine dedicate presso un data center provider un compromesso vincente. L’evoluzione, in ultima analisi, porta a situazioni ibride: una compresenza di più possibilità, bilanciata
Photo by Tan Kaninthanond on Unsplash
Photo by Krzysztof Kowalik on Unsplash
INFRASTRUTTURA IN OUTSOURCING: QUANDO CONVIENE?
Perché scegliere spostare le proprie risorse IT in un data center esterno, anziché tenerle on-premise? Entrambe le situazioni presentano vantaggi e svantaggi, da valutare caso per caso. I costi. Rispetto a un adeguamento a nuove norme (sostenibilità ambientale, risparmio energetico, compliance a norme o standard) del vecchio datacenter on-prem, e al mantenimento di staff interno, la scelta della colocation in una struttura esterna risulta più conveniente. Inoltre outsourcing, colocation e cloud permettono di passare da un modello Capex a un modello Opex. D’altra parte, sfruttare un data center esistente in azienda fino al suo “fine vita” è sicuramente una scelta cost-effective ed evita di dover sostenere costi di migrazione. La sicurezza. I fornitori di servizi di cloud e colocation spesso possono garantire un livello di affidabilità, di ridondanza e business continuity superiore a quello realizzabile in house. Ma è anche vero che in uno scenario on-premise l’azienda ha la completa responsabilità su applicazioni e infrastrutture, e questo le permette di conoscere ed eventualmente aggiustare il profilo di rischio di ogni singolo IT workload. Il controllo e la visibilità sui livelli di sicurezza possono essere maggiori. La governance. Gli ambienti mantenuti on-prem possono risultare più facilmente controllabili da un punto di vista delle evoluzioni e della rispondenza a requisiti di compliance. Sta di fatto che i provider di data center non gestiscono le applicazioni e l’infrastruttura IT: di questi aspetti deve occuparsi il cliente. Il provider di colocation può però facilitare il lavoro di gestione, occupandosi di manutenzione, aggiornamenti hardware, pronto intervento. L’agilità. Le aziende che utilizzano un data center esterno possono aver accesso a risorse (calcolo e memoria, ma anche applicazioni e servizi) attivabili in tempi rapidi, a seconda delle necessità. Inoltre possono disporre di competenze aggiuntive, fornite da provider specializzati esterni. La sostenibilità ambientale. I grandi operatori di data center sono impegnati nel percorso di riduzione dei consumi e delle emissioni di gas serra, come previsto dagli obiettivi del Green Deal europeo. In questo percorso sta crescendo l’impiego di fonti rinnovabili e di sistemi di raffreddamento e di consumo energetico più efficienti.
però da un disegno complessivo semplificato, per non complicare in modo eccessivo la governance. In un modello ibrido, che in prospettiva appare quello di un mix di risorse on-premise, in cloud privato e cloud pubblico, gli ambienti applicativi trovano la migliore collocazione sulla base del singolo business case. Soluzioni “customer facing”, soggette a frequenti riscritture e a domanda di elevata scalabilità, saranno quindi posizionate in cloud pubblico; applicazioni del business saranno centralizzate e poi erogate, scegliendo per il cloud privato il data center esterno con caratteristiche ideali di ridondanza, supporto, certificazioni ed ecosostenibilità; ambienti legacy o quelli più vicini alla fabbrica rimarranno on-premise o evolveranno più lentamente.
Elena Vaciago
TANTI MODI PER USARE IL CLOUD
L’evoluzione delle nostre infrastrutture è legata a un insieme di necessità, il cambio architetturale, la flessibilità, l’uso delle risorse IT: se alcune cose non forniscono valore aggiunto, è meglio cambiare. Non utilizzare più i data center locali può far ridurre i costi, ma il costo del cloud non è poi così inferiore. Il tema è che bisogna spostare le risorse da attività a minore valore aggiunto verso altre più importanti. Alberto Iacop, Cio di Abb
Il nostro obiettivo è di trasformarci in una tech company, abbracciando i più moderni trend tecnologici: l’hyper automation, il machine learning, il cloud computing, la robotic process automation. Tutti i sistemi sono oggi ripensati puntando ad avere una piattaforma Arcese innovativa, flessibile ai nuovi servizi e all’esigenza dei clienti. Il cloud pubblico è una componente che ci permette una gestione migliore, una maggiore velocità per i nostri progetti. Roberto Mondonico, group Cio di Arcese Trasporti
Oggi si ragiona sulla possibilità di andare di più in cloud, e questo vale soprattutto per le applicazioni del mondo digitale o retail, per tutto quello che è B2C. Meno, invece, per la parte di produzione: una fabbrica automatizzata richiede tempi di latenza e performance, e con il cloud non si hanno garanzia di continuità. Se da un punto di vista tecnologico tutto potrebbe andare in cloud, in realtà le scelte dipendono dalle applicazioni. Roberto Villa, Cio di Artsana
Dove avevamo delle commodity (il mainframe) le abbiamo esternalizzate. La server farm è anch’essa una commodity, ma in costante evoluzione: abilita la digitalizzazione e il passaggio al cloud, e per questo abbiamo preferito una cogestione. Con riferimento al cloud, si sceglie sulla base dei servizi che si possono ottenere, tenendo conto dei vincoli e della exit strategy. La visione a tendere è comunque quella di semplificare e omogeneizzare il più possibile. Milo Gusmeroli, Cio di Banca Popolare di Sondrio
Photo by Joshua Sortino on Unsplash
Siamo oggi di fronte a una virata significativa verso il cloud. Le banche cominciano a rendersi conto dei suoi vantaggi, non solo economici, e arriva anche un aiuto dal punto di vista della compliance e dei regolatori. Oggi l’IT è necessaria, ma non è più strategico averla in casa. Il tema è piuttosto mantenere il governo: gestire un provider cloud richiede un impegno, che non verrà meno nel caso delle banche. Alberto Fiorino, responsabile area organizzazione e sistemi di Banco di Desio e della Brianza
Le evoluzioni dei data center sono guidate da diversi driver: la sicurezza, che nell’anno dello smart working è diventata prioritaria; la business continuity, anche se su questo fronte nel settore bancario avevamo già fatto molto in passato; la riduzione dei costi delle infrastrutture, con la migrazione dal mainframe alle piattaforme cloud; e infine la sostenibilità ambientale. Francesco Piovani, direttore innovazione e sviluppo offerta di Cedacri
Il nostro data center primario rimane, perché sia i nostri laboratori di ricerca sia la produzione hanno sistemi con richieste elevate dal punto di vista della latenza. Il movimento verso il cloud risponde all’esigenza di centralizzare: il trend è quello di un sistema ibrido, con un public cloud che si collegherà con il private cloud e so-
luzioni che scambieranno informazioni tra l’on-premise e il cloud in modo trasparente per gli utenti. Arrigo Guzzon, global Ict architect di Chiesi Farmaceutici
Oggi osserviamo che i clienti stanno maturando una maggiore consapevolezza nell’utilizzo del cloud, comprendendone i pregi e superando le preoccupazioni relative alla compliance. Al contempo, le infrastrutture on-premise stanno diventando obsolescenti e con prestazioni insufficienti e non conviene investire per sostituirle. Per questo le nostre soluzioni possono sfruttare infrastrutture ibride con parti mantenute on-premise e altre su provider esterni: le applicazioni sono molto più distribuite rispetto al passato. Alberto Pietrogrande, Cto di Corvallis
Da un lato l’infrastruttura IT si può considerare una commodity, con vantaggi come elevata standardizzazione, servizi Ict molto affidabili e velocemente scalabili. Il limite di questo approccio è che l’esternalizzazione di un servizio che diventa una commodity non consente all’IT di proporsi come vantaggio competitivo. Poiché oggi vince chi è più veloce a raccogliere ed elaborare le informazioni, bisogna affiancare strutture più agili disegnate sulle specifiche necessità. Andrea R. Beccari, head of Exscalate platform di Dompé Farmaceutici
Oggi si va in cloud in modo organizzato, sapendo come andarci, come gestirlo bene, ed esistono sul mercato strumenti per fare analisi e ottenere efficienza che prima non avevamo, molto evoluti e precisi. Anche il tema del lock-in, che prima poteva essere un problema, oggi invece può essere evitato gestendo il dato in cloud indipendentemente dal provider e potendo spostarlo in autonomia. Andrea Trivelli, business development manager di Gruppo Dgs Oggi, considerando la trasformazione del business verso le energie rinnovabili, le sfide sono quelle dell’IoT, dell’intelligenza artificiale, del 5G e della manutenzione predittiva. Dal punto di vista delle infrastrutture abilitanti, il tema della connettività in campo è prioritario tanto quanto il passaggio all’hybrid cloud. Da qui la strada verso la definizione di commodity per alcune infrastrutture, da cui ci aspettiamo un costo che vada a scendere. Giovanni Martinengo, head of information & communication technology di Erg Il nostro obiettivo è quello di staccarci dagli ambienti legacy e andare verso infrastrutture aperte e moderne. Il motivo, oltre a quello di dare un servizio migliore, è di abbandonare ambienti legacy che, pur essendo resilienti, per essere mantenuti richiedono competenze sempre più difficili da reperire. La direzione dev’essere tesa verso standard di mercato, verso risparmi da reinvestire in sviluppi a valore.
Giovanni Damiani,
direttore generale, Consorzio Operativo di Gruppo Montepaschi
BOOM DEI DATI E SOSTENIBILITÀ TRAINANO LA DOMANDA
La crisi pandemica scoppiata nel 2020 ha modificato in modo indelebile molti settori economici, così come le nostre vite. Una forte accelerazione si è avuta nell’utilizzo di tecnologie digitali, sia nella vita di tutti i giorni sia nelle strategie aziendali in diversi settori. Questo ha portato a un aumento del traffico Internet e della produzione mondiale di dati, che raggiungerà nel 2021 un volume di 20 zettabyte. I trend che sottendono a questa crescita sono da ricercare, in primis, nell’uso dei servizi di fornitori di cloud pubblico hyperscaler e nella crescita della domanda in settori quali l’healthcare, la supply chain manifatturiera e la logistica, tutti messi a dura prova dalla pandemia. L’edge computing rappresenta il concretizzarsi di tecnologie come l’IoT (Internet of Things) e il 5G, data l’esigenza di vicinanza tra le infrastrutture tecnologiche e gli utilizzatori finali. Questo ha portato le aziende a concentrare i propri IT workload in hub tecnologici iperconnessi, per erogare facilmente servizi interni e quelli rivolti ai clienti. I data center di colocation che rispettano elevati standard di certificazione (ISO, rating del data center) riescono a garantire ai clienti affidabilità, presidio costante e l’adattabilità richiesta dal business. Recenti studi hanno evidenziato che il settore dei data center utilizza 200 terawattora di energia ogni anno, ovvero una quantità corrispondente solo allo 0,8% dell’energia consumata su scala globale. Ma la tendenza è all’aumento e l’impatto dei data center sarà sempre maggiore, se si pensa all’intero ciclo di vita per la costruzione, il mantenimento e la dismissione delle facility e dei sistemi hardware. Il settore indirizza quindi la propria strategia verso sistemi di condizionamento ed energetici sempre più efficienti, verso l’ingegnerizzazione dei processi di design e verso la costruzione di edifici che sfruttano al massimo le risorse in un’ottica di economia circolare. Davide Suppia, country manager di Data4 Italia
La nostra scelta è stata di nascere nel public cloud. Gestire l’infrastruttura non è il nostro core business. La velocità d’implementazione del cloud è fondamentale con gli obiettivi che abbiamo: l’agilità, la possibilità di innovare, il fatto che il cloud metta a disposizione non solo risorse computazionali, ma, soprattutto, un marketplace di innovazone, con tecnologie pronte per l’intelligenza artificiale, i Big Data analytics, il banking”. Filipe Teixeira, Cio di illimity
Per verificare se il cloud fornisca vantaggi assenti nell’on-premise, si tratta di fare un’attenta valutazione di un progetto di migrazione, considerando tutti i punti di vista. I costi vanno analizzati bene e così i vantaggi offerti dal cloud in termini di affidabilità, come anche i nuovi requisiti derivanti dal business. In futuro, la soluzione sarà probabilmente quella del cloud ibrido, con vari servizi scelti dai diversi provider”. Augusto Lambertino, group IT director di Impresa Pizzarotti & C.
I requisiti da soddisfare hanno fatto sì che la nostra infrastruttura fosse altamente scalabile e ridondata. Avendo requisiti da banca sistemica e stringendo poi l’accordo con Google e Tim, abbiamo avuto l’esigenza di far introdurre meccanismi che non erano nativamente presenti nella soluzione di Google Cloud. I partner ci sono venuti incontro con un piano di adeguamento delle loro capacità. Claudio Balbo, senior director, head of IT architecture di Intesa Sanpaolo
Nel nostro caso gli aspetti collegati alla marginalità sono importanti: le motivazioni che stanno guidando l’evoluzione delle nostre infrastrutture, oggi orientata al public cloud (valutando con molta attenzione il provider), sono la riduzione dei costi, la maggiore flessibilità e agilità dell’IT, le più elevate prestazioni e la scalabilità per esigenze future o nuovi progetti. Gianfranco Bello, head of IT di LaFeltrinelli Internet Bookshop
Le performance della latenza sono fondamentali per pilotare un impianto, la sicurezza lo è ancora di più. I trend degli oggetti connessi, dell’edge, del cloud e del 5G, in futuro, ci permetteranno di pilotare gli impianti da remoto senza spostare tante persone, minimizzando i costi. Ci sarà quindi inevitabilmente una mescolanza di Information Technology e Operational Technology, e molti aspetti stanno già oggi passando dal dominio IT a quello OT”. Michele Mariella, head of information & communication technology di Maire Tecnimont
Durante la recente esperienza della pandemia di covid-19 abbiamo scoperto, in una logica di business continuity e di virtualizzazione dell’impresa, che certe attività si possono fare facilmente anche senza la presenza fisica delle persone. Ad esempio, gestire i test di collaudo in fabbrica da parte dei clienti senza esserci fisicamente (a tendere potremmo immaginare anche una gestione dell’intera fabbrica da parte di un plant manager remotizzato). Oggi gli investimenti in infrastrutture devono crescere per permettere il più possibile la virtualizzazione delle attività. Stefano Brandinali, chief digital officer di Prysmian
Stiamo vivendo un momento storico che di fatto è uno tsunami. Oggi anche aziende tradizionalmente più piccole, e abituate a gestire le infrastrutture hardware quasi fossero la propria cassaforte, si sono rese conto di quanto sia diventato necessario appoggiarsi su infrastrutture condivise in data center specializzati. In futuro una buona percentuale di aziende guarderà con più fiducia rispetto al passato all’esternalizzazione. Tiziano Viviani, head of infrastructure di Register
La strada tracciata è quella verso la semplificazione, la standardizzazione e il time-to-market, e verso il SaaS (Software as a Service), quando possibile. Va bene quindi puntare allo IaaS (Infrastructure as a Service) con il PaaS (Platform as a Service) per rispondere a esigenze puntuali, tipiche del nostro business, in tutti i casi in cui non siano disponibili soluzioni SaaS adeguate. In tal modo, comunque, si semplifica una parte di operazioni che finora, per così dire, legava le mani all’IT. Fabrizio Locchetta, chief information officer di Siram Veolia
L’inserimento di infrastrutture iperconvergenti, quindi con consumi e densità più elevati del normale, per ammodernare i nostri data center, risponde a diversi obiettivi: riduzione dell’impatto ambientale (in vista dell'obiettivo aziendale di essere carbon neutral entro il 2027), maggiore efficienza rispetto ai sistemi legacy (anche per una generale riduzione dei consumi energetici), semplificazione e automatizzazione dell’attività operativa. Benefici che si traducono in una maggiore robustezza dei servizi erogati. Diego Dematté, head of IT infrastructure & service du STMicroelectronics
L’esperienza della pandemia di covid-19 non ha avuto tanto impatto sulle infrastrutture quanto piuttosto a livello di network. Oggi osserviamo che si investe di più nelle tecnologie di rete. Sulle infrastrutture, avendo centralizzato tutto in cloud, i nostri costi vanno a diminuire. La rete invece, oltre a vedere un aumento del traffico, richiede un upgrade degli apparati a livello di Lan. Angelo Ruggiero, Cio di Unilever