10 minute read

INFRASTRUTTURE

Next Article
ECCELLENZE

ECCELLENZE

Photo by Carlos Muza on Unsplash

COMPLESSITÀ IN AUMENTO, L’EDGE 2.0 È LA SOLUZIONE

Di application economy, cioè di un’economia il cui valore ruota intorno alle applicazioni, si parla ormai da anni. L’espressione non è forse abusata come quella di data economy, o come la metafora dei dati assimilati al nuovo petrolio, ma d’altro canto le applicazioni (ancor più dei dati in sé) da anni stanno al centro delle nostre vite di consumatori e specularmente rappresentano le fondamenta del business per aziende di ogni settore. Dal punto di vista tecnologico questo mondo è in continua evoluzione, come testimonia l’avvento del cloud. Altro motore di trasformazione è l’edge computing, cioè lo spostamento delle attività di raccolta ed elaborazione dei dati alla “periferia” delle reti, all’interno di ogni genere di oggetti connessi. F5 Networks, società specializzata in application delivery, sta scommettendo sull’edge e in particolare su un modello che chiama “edge 2.0”. Ce lo raccontano Maurizio Desiderio, country manager di F5 Italia, e Raffaele d’Albenzio, manager system engineer.

Le applicazioni sono ancora al centro della vostra offerta?

Maurizio Desiderio: Quattro o cinque anni fa abbiamo vissuto un cambiamento importante con con il nuovo Ceo, che già all’epoca aveva delineato una strategia a medio-lungo termine per consentire a F5 di continuare a esser leader del mercato. Cinque anni fa storicamente la maggior parte dei nostri clienti erogavano, a loro volta, ai loro clienti dei servizi sempre più centrati sulle applicazioni. L’applicazione era allora ed è ancora oggi al centro della nostra vocazione. Questo non è cambiato, ma il cloud ha introdotto alcune trasformazioni importanti.

In che senso?

M. D. Innanzitutto per noi vendor: se in precedenza ci si confrontava con concorrenti vicini (che per noi significava italiani o al massimo francesi), con il cloud il mercato è diventato globale.

F5 risponde alla sfida della difficile gestione di ambienti IT eterogenei con una nuova tecnologia. Ne parliamo con Maurizio Desiderio, country manager per l’Italia, e Raffaele d’Albenzio, manager system engineer.

Intanto la gestione dell’applicazione aumentava in complessità laddove il cliente usasse più di un cloud, più di una piattaforma. In una fase successiva si è affermata un’offerta “as a service” e le aziende hanno adottato sempre di più un approccio multicloud. L’obiettivo del cloud dovrebbe essere quello di semplificare l'operatività e aumentare la velocità dei rilasci, ma questo approccio in realtà era sfociato in una complessità infrastrutturale che incrementava anche la complessità di gestione delle applicazioni.

Come avete reagito?

M. D. Da quattro anni a questa parte F5 ha investito oltre 2,5 miliardi di dollari in tecnologie che completassero la sua offerta. Per esempio l’acquisizione di Nginx, nel 2019, ci ha permesso di semplificare il deployment delle applicazioni cloud native. Poi con Shape Security, acquisita l’anno scorso, abbiamo potenziato la sicurezza. In tutto questo abbiamo continuato a mettere al centro del nostro obiettivo l’applicazione, cioè il creare una piattaforma che potesse automatizzare qualsiasi tipo di gestione, che fosse indipendente dall’infrastruttura cloud sottostante e in terzo luogo che potesse consentire una gestione delle policy di sicurezza coerente, a prescindere dal luogo su cui materialmente si trova l’applicazione. Ultimo aspetto da non sottovalutare è la visibilità sul comportamento dell’applicazione, utile per prevenire situazioni spiacevoli. Volterra è l’elemento che ci mancava e che ora ci permette di dare automazione, visibilità e consistenza dal punto di vista della gestione delle applicazione. Ci tengo a sottolineare che F5 non è un’azienda che acquisisce tecnologie e smantella tutto il resto: crediamo che le tecnologie abbiano valore se c’è anche un know-how che permette di capirle.

Qual è il vantaggio di Volterra?

Raffaele d’Albenzio: Come evidenziato da uno studio di F5, tre aziende su quattro stanno realizzando o hanno in progetto il deployment di applicazioni edge. Il valore di Volterra è che permette di trattare allo stesso modo l’edge, il cloud edge, il customer edge. Un ambito in cui il ruolo di Volterra può essere importante è quello del multi-access edge computing, che a volte viene associato con il 5G ma di cui possono beneficiare anche le connessioni a banda larga su rete fissa. Nel breve-medio termine i casi d’uso più promettenti sono nell’ambito B2B, e all’estero già esistono esempi interessanti di applicazioni edge gestite con Volterra. Come quello di un service provider giapponese che ha offerto a una società di automotive di incorporare la soluzione di Volterra dentro alle colonnine di ricarica dei taxi elettrici. Nel medio lungo-termine, credo, potremo estenderci anche all’ambito B2C. Un caso d’uso specifico dell’edge 2.0 è poi quello del content delivery, di cui oggi molto si parla in ambito IT.

Come proporrete sul mercato questa tecnologia?

M. D. Abbiamo avviato il percorso di integrazione tecnologica e stiamo cominciando a rivolgerci soprattutto alle aziende abbastanza strutturate, che abbiano già abbracciato una strategia basata su multicloud e che possano velocemente beneficiare di questo tipo di piattaforma. Un settore strategico è quello delle telco, per cui questa soluzione risolverebbe moltissime problematiche. Tutti gli operatori telefonici italiani hanno una infrastruttura F5 e con tutti abbiamo intrapreso discorsi e iniziative per proporre la tecnologia di Volterra. R. D. A. Anche all’estero, e in particolare in Asia, lavoriamo con operatori telco molto importanti e stiamo osservando casi d’uso in ambito B2B. Un nostro cliente in Giappone è Rakuten, forse attualmente uno degli operatori più innovativi al mondo, che ha avuto il vantaggio di partire dal green field.

Alla luce della pandemia, le esigenze dei vostri clienti sono cambiate?

M. D. La pandemia non ha fatto altro che accelerare e aumentare la consapevolezza su un processo di digitalizzazione che era già in corso. Il concetto dell’adaptive application, che cresce in funzione delle esigenze del cliente, è diventato ancor più importante. Le aziende hanno capito di dover cambiare approccio per non restare indietro. D’altra parte sono emersi problemi per quelle avevano progettato un'infrastruttura insufficiente a reggere il cambiamento verificatosi. Oggi questo è un problema trasversale, non legato a un particolare settore aziendale. Ma in generale sono molto soddisfatto di come il mercato italiano sta reagendo.

Valentina Bernocco

MULTICLOUD, UNA SCELTA ORMAI OBBLIGATA

L’epoca in cui le aziende pianificavano migrazioni su larga scala e verso un unico provider è terminata: parola di Vmware.

Sembra di parlare di un’altra epoca storica e invece solo pochi anni fa i progetti cloud, soprattutto quelli basati su cloud pubblico, erano realizzati scegliendo un singolo provider di riferimento. Oggi non è più così. Se ne parla da tempo e la conferma arriva dalle considerazioni di Joe Baguley, chief technology officer Emea di Vmware, fatte durante la partecipazione a un recente panel internazionale.“Molti Cio sono caduti nella trappola di realizzare migrazioni di lungo impegno su larga scala, affidandosi a un unico interlocutore”, ha commentato il manager, “salvo poi verificare che i carichi di lavoro spostati non funzionano o sopravvivono nel nuovo ambiente. Si tratta di scelte molto costose, a conti fatti, sbagliate e oggi del tutto superate”. Se in passato c’erano ragioni anche sostanziali per andare in questa direzione, oggi molti executive C-Level stanno rivedendo pesantemente le loro decisioni. Secondo Baguley, molto si deve a una certa abitudine storica consolidatasi allorquando le aziende si sono trovare a dover ripensare alla propria infrastruttura IT. “Un tempo tutti sono partiti con i mainframe”, ha spiegato il Cto, “poi si è passati ai sistemi distribuiti. In seguito sono arrivate le macchine performanti con processori x86 e, infine, quasi tutto è stato virtualizzato. Il cloud si presentava come la nuova piattaforma dove spostare le applicazioni, ma oggi possiamo dire che affidarsi a un singolo interlocutore è un vicolo cieco”. Sulla stessa linea si è posta Louise Öström, global lead dell’Accenture Vmware Business Group, che ha confermato con la propria esperienza come gli early adopter del cloud mono-fornitore stiano iniziando a riportare qualche workload all’interno o a spostarlo su altri ambienti: “Diverse aziende hanno scelto un provider di cloud pubblico e poi hanno più o meno svuotato i propri data center, aspettandosi che tutto funzionasse altrettanto bene e in modo sicuro nel nuovo ambiente. I fornitori scelti sono rapidi nel supporto alla migrazione, ma poi presentano un conto economico spesso salato. Inoltre qualcuno ha iniziato a chiedersi: dove sono i miei dati? Ho il controllo e posso estrarli quando voglio?”. Proprio sul tema dei dati è intervenuto Salvatore Cassara, Cio del gruppo Sgb-Smit, multinazionale tedesca del manifatturiero che produce trasformatori di potenza. “Su questo si fonda il valore di un’azienda”, ha detto Cassara. “Bisogna sapere di che cosa si disponga e che cosa si intenda farci. Andare in cloud può essere un’importante opportunità, ma occorre anche sapere sempre dove sono i dati e chi ne è responsabile”. Cassara ha sottolineato anche come talvolta ciò che rallenta l’innovazione delle aziende sia una IT ancora legata a una visione tradizionale, timorosa di perdere il controllo sull’ambiente da sempre presidiato. “Ci sono voluti tre anni di lavoro all’interno dello staff per far capire che il cloud era una leva per accrescere le competenze e non per eliminare posti di lavoro”, ha aggiunto Cassara.

Roberto Bonino

PER LA "NUVOLA" I TEMPI SONO MATURI

L'adozione del cloud procede con maggior convinzione e consapevolezza rispetto al passato. Ne parliamo con Andrea Trivelli, head of business development del Gruppo Dgs.

L’evoluzione verso il cloud è un trend che non si ferma, nemmeno in Italia. Quali fattori accelerano questo processo? Come si sono mosse le aziende e perché in certi casi hanno fatto marcia indietro? Abbiamo parlato di questi temi con Andrea Trivelli, head of business development di

Gruppo Dgs.

Come stanno cambiando le in sfrastrutture IT delle aziende italiane? I trend che osserviamo sono legati a molti fattori: da un lato, un tema molto pratico è quello del rinnovo dell’infrastruttura di hosting, che porta a valutare se mantenere le applicazioni on-premise o cominciare a usare soluzioni cloudnative, accelerando quindi il passaggio a nuovi modelli di business. Poi c’è il tema delle applicazioni legacy, che hanno problemi di scalabilità, costi e limitazioni di servizio: portarle in cloud è

Andrea Trivelli fondamentale per supportare la crescita e la trasformazione del business, e per renderle più performanti e aperte a un uso dall’esterno. In molti casi la scelta è tra fare una totale riscrittura, per passare da architetture “monolitiche” a quella basate su microservizi, oppure rehosting basati su lift&shift per poi farle evolvere lentamente verso architetture più moderne.

Quanto è veloce la migrazione?

I clienti tendono sempre di più ad abbandonare il data center tradizionale onpremise, che oggi rappresenta una quota dell’80% abbondante ma già tra un anno potrebbe scendere del 10% o più, perché i vari modelli di cloud (private, hybrid e public) rispondono alle varie esigenze, tecniche e non, delle applicazioni, accelerando sempre di più la transizione. Il fatto, però, che ci siano sul mercato contratti pluriennali di outsourcing è motivo di rallentamento: i contratti devono arrivare al loro termine prima di essere smontati e abilitare il cambiamento.

Altra tendenza è quella dello sbarco in Italia dei public cloud provider...

Azure ha programmato il suo arrivo, Google ha stretto l’accordo con Tim e Intesa Sanpaolo, grandi player italiani puntano al cloud nazionale, e inoltre abbiamo il progetto del cloud europeo, Gaia-X. Del resto, il “Cloud Act” passato negli Stati Uniti sotto Trump nel 2018 obbligava i provider americani a dare evidenza di tutti i dati dei loro utenti, anche quelli europei, in aperta violazione del Gdpr. Anche da qui l’esigenza di un cloud europeo, e i fornitori globali hanno capito l’importanza di essere locali e indipendenti.

Sull’adozione del cloud ci sono state anche aziende che hanno fatto retromarcia. Perché è successo?

Abbiamo osservato che soprattutto all’inizio, quando si era meno maturi su questi temi, in molti sono partiti con grandi migrazioni verso il cloud senza calcolarne bene tutte le conseguenze, trovandosi a cose fatte con sistemi che collassavano o non funzionavano e quindi con la necessità di tornare indietro. È quello che è successo anche con le applicazioni cloud-native: in molti sono partiti con lo sviluppo a microservizi e con l’utilizzo di DevOps in modo massivo, senza pensare che con le app a regime, usate da numeri importanti di utenti, sarebbe servita un’infrastruttura di base ben orchestrata, automatizzata, scalabile all’occorrenza. Non erano state pensate bene le fondamenta, e i costi di esercizio invece di diminuire aumentavano, perché si era portati a usare il cloud come si faceva con gli ambienti tradizionali. Ad esempio, le macchine e gli altri servizi erano lasciati accesi anche quando non servivano più. L’esperienza però paga sempre: oggi si va in cloud in modo organizzato, consapevole, sapendo come andarci, come gestirlo bene. Esistono sul mercato strumenti per fare analisi e ottenere efficienza che prima non avevamo, molto evoluti e precisi. Anche il tema del lock-in, che in passato poteva essere un problema, oggi invece può essere evitato gestendo il dato in cloud indipendentemente dal provider, potendo spostarlo in autonomia.

Elena Vaciago

This article is from: