47 minute read
IN EVIDENZA
l’analisi
RESILIENZA DEL DIGITALE: UN OSSIMORO?
In realtà quando parliamo di resilienza del digitale non parliamo di un ossimoro, ma di un profondo cambio di paradigma: perché la crisi pandemica ha evidenziato, a fianco dell’immagine di una tecnologia digitale frenetica, transitoria, a rapida obsolescenza, fonte di continua innovazione, una notevole capacità di permettere al sistema una grande resistenza all’impatto di eventi imprevedibili, o addirittura impensabili. Il digitale ha quindi rivelato una doppia dimensione di resilienza: una dimensione interna, perché ha evitato il collasso della nostra economia e della nostra società di fronte alla “crisi unica” determinata dall’emergenza pandemica; e una dimensione esterna, perché fondamentale fattore di flessibilità che consentirà alle imprese, alla PA e alla società civile di reagire a futuri shock esterni, agendo anzi da essenziale driver dello sviluppo futuro. Ci troviamo di fronte diversi temi, da noi sviluppati nel “Rapporto Annuale” che abbiamo presentato nel corso del “Digital Italy Summit” del 18-20 ottobre scorsi. Come assecondare una trasformazione digitale che sia insieme profondamente innovativa, sostenibile e resistente alle improvvise emergenze? Come, in particolare, il Pnrr potrà abilitare politiche digitali a sostegno di questa trasformazione? E in che modo, in conclusione, potremo cogliere questa opportunità unica per costruire un Paese non semplicemente “modernizzato” ma moderno, efficiente, innovativo e resiliente? Dopo una “crisi unica” stiamo assistendo a una “ripresa speciale”, che è tale perché è arrivata prima delle attese ed è globalmente robusta e diffusa, anche se con diverse intensità. È speciale perché caratterizzata da un rimbalzo nel 2021 del 5,7%, superiore alla media dell’Eurozona, e da una crescita oltre il potenziale anche nel 2022 (4%) e nel 2023 (2,3%), sostenuta anche dai trasferimenti europei connessi al piano Next Generation EU. Ed essa ha riguarda non solo industria e costruzioni, ma anche i servizi. In sintesi, il sentiment è molto positivo, i dati attuali sono molto buoni e a livello internazionale c’è una gigantesca attenzione sul nostro Paese. Dall’altra parte, la ripresa è speciale perché sta provocando una inflazione non da domanda (i salari non crescono e i consumi recuperano limitatamente) ma da costi. Sono fortemente saliti i costi dell’energia e dei metalli industriali. Vi è una clamorosa carenza di materie prime, che spesso si pagano cash, per cui le nostre imprese hanno bisogno di una adeguato sostegno bancario. Si verificano serie strozzature nelle catene globali del valore. Le imprese industriali segnalano così la volontà di trasferire i maggiori costi di produzione ai consumatori finali, mentre pressioni al rialzo potrebbero venire anche dai servizi per effetto delle riaperture nei settori soggetti a restrizioni. E quindi la ripresa potrebbe portare in seno anche fattori strutturali che ne potrebbero limitare l’impeto, almeno nel medio periodo. Rimane comunque il fatto che i grandi investimenti previsti dal Pnrr in infrastrutture e in rigenerazione urbana sono grandi acceleratori di sviluppo dei territori e in prospettiva di posti di lavoro.
Roberto Masiero
L’andamento del mercato digitale
La caratteristica del digitale non soltanto come fattore di efficienza e di innovatività ma anche di resilienza di fronte agli shock esterni era stata colta rapidamente dalle imprese, facendo sì che già nel corso del 2020 il mercato digitale in Italia non registrasse alcuna significativa flessione ( -0,1% a fronte di un calo del PIL pari all’8,9%). Mentre negli ultimi anni l’investimento in tecnologie digitali aveva tradizionalmente un carattere ciclico (sovraperformando l’indice del PIL quando questo aumentava e sottoperformandolo quando il PIL fletteva), nel corso del 2020 esso ha assunto decisamente un ruolo anticiclico, di stabilizzazione e sostegno dell’economia e delle imprese, molte delle quali solo grazie a ciò hanno evitato il collasso. Ciò è stato dovuto soprattutto alle piattaforme digitali, alla diffusione delle tecnologie e delle architetture di collaboration e del cloud, e al fatto che le reti hanno sostenuto i picchi di traffico. Non possiamo ignorare, tuttavia, che l’impatto delle
tecnologie digitali nella fase dell’emergenza è stato assai disuguale a seconda del livello di preparazione delle organizzazioni: mentre alcune, particolarmente nel terziario avanzato, erano già pronte e sono riuscite a passare allo smart working in una notte, molte altre hanno dovuto rivoluzionare rapidamente i loro sistemi operativi e introdurre, spesso in modo traumatico, modi di lavorare completamente diversi. Il trauma peggiore è stato probabilmente quello subito dalla Pubblica Amministrazione, dove (a fianco di una minoranza di situazioni in cui erano già presenti forme di lavoro agile) in molti casi ci si è trovati di fronte a seri problemi di infrastrutture e mancanza di adeguate competenze. Nel corso di questi primi dieci mesi del 2021 l’investimento in digitale si sta ampiamente dispiegando, perché molti cambiamenti introdotti dal lockdown stanno diventando strutturali, anche grazie alle profonde trasformazioni dell’organizzazione delle imprese, del lavoro e delle vite private. Si sta infatti affermando con forza il tema del lavoro ibrido: molte imprese non torneranno indietro: il tema non è smart working o lavoro in ufficio, ma quale mix dei due. Il “ritorno al lavoro” diventa una ulteriore sfida di grande complessità. Pure nel settore privato tuttavia non tutti hanno capito che l’innovazione digitale deve procedere di pari passo col ripensamento profondo dei processi di business, e in molte situazioni si rischia di voler tornare a modelli organizzativi novecenteschi. Assistiamo quindi a due modi diversi per interpretare la trasformazione digitale: una differenza che è all’origine dell’attuale tendenza alla fuga del personale dalle aziende tradizionali verso quelle che adottano diffusamente lo smart working. Infine, anche per la Pubblica Amministrazione il tema del ritorno al lavoro richiede una visione resiliente e inclusiva, che in prospettiva sia in grado di integrare al meglio il lavoro da remoto e in presenza. Per quanto riguarda quindi il 2021, partendo da una base molto più alta e potendo contare solo in maniera molto limitata sugli impatti del Pnrr sugli investimenti del settore, possiamo prevedere che il tasso di crescita del mercato digitale non si allineerà a quello del PIL, ma raggiungerà comunque un ottimo livello, secondo le nostre previsioni in una forchetta compresa tra il 4,3% e il 5%.
Molto più che una singola “missione”
Il Pnrr, presentato dal Governo alla Commissione Europea lo scorso 30 aprile, costituisce la base dei lavori e delle politiche di investimento italiane per i prossimi cinque anni. Come noto, i progetti di investimenti sono raggruppati in sei “missioni”, la prima delle quali è focalizzata sui temi della digitalizzazione e dell’innovazione della PA, del sistema produttivo e del turismo. Tuttavia la presenza degli investimenti in digitale è pervasiva all’interno delle disposizioni del Piano, e va ben oltre la “Mission 1”, per proiettarsi diffusamente nelle altre missioni. Ad esempio, Il tema dell’interoperabilità viene ripreso in molti altri contesti e progetti, in quanto rappresenta uno degli elementi cardine per integrare (in maniera sia orizzontale sia verticale) i sistemi e l’organizzazione della PA sia centrale sia locale. E si potrebbero fare altri esempi. Sulla base delle informazioni disponibili all’interno del Piano, si può realisticamente valutare che il potenziale (diretto e indiretto) della componente digitale sia stimabile in circa 60-62 miliardi di euro nell’arco dei cinque anni considerati. Si tratta di un impatto potenziale notevole sulla crescita del mercato digitale italiano. Il Pnrr è dunque un ottimo piano, un’occasione irripetibile per favorire la crescita e ovviare ad alcuni problemi strutturali del nostro Paese.
Roberto Masiero, presidente di The Innovation Group
NOTEBOOK E TABLET, CONTINUA LA SCALATA IN EUROPA
È ancora forte la domanda di tecnologie a supporto del telelavoro. I dati di Canalys e di Context prefigurano le tendenze future, dopo gli scossoni del 2020.
Le vendite di notebook e tablet continuano a crescere in Europa a discapito dei computer desktop fissi, dando conferma di come il modello del lavoro ibrido stia prendendo piede nelle aziende. Secondo i monitoraggi effettuati da Context sulle principali catene di distribuzione tecnologiche dell’Europa occidentale, i livelli di vendita di Pc portatili e tablet nell’estate 2021 hanno superato quelli dell’estate 2019 (il più vicino termine di paragone “neutro”, scevro dagli effetti dei lockdown dell’anno seguente). Il metodo di analisi di Context si basa sulla definizione di punteggi di performance in relazione all’indice 100, che fa riferimento ai livelli di vendita medi del 2019. Ebbene, i Pc portatili si rivelano la categoria più performante, con un indice di circa 120 fra la 25esima e la 36esima settimana del 2021, mentre i tablet sono intorno a un punteggio di 105. Ben lontani stanno i Pc desktop, con un punteggio di 75. Va detto, comunque, che rispetto alle dinamiche del 2020 i computer da scrivania hanno recuperato un po’ del terreno perso, con un incremento di vendite del 10% nel mese di agosto, anno su anno. Per i notebook si è registrato invece un calo del 2%, per i tablet una flessione del 17%. Potremmo forse dire che il confronto con il 2020 fa emergere le dinamiche delle prime ondate di pandemia e dei successivi assestamenti, mentre ragionando su tempi più dilatati si può intravedere la vera tendenza. Nel frattempo i retailer sono ancora alle prese con alcune incognite che determinano difficoltà e ritardi di approvvigionamento. D’altra parte, nei pronostici di protagonisti del settore come Intel e Ibm, la ormai famigerata crisi dei semiconduttori è destinata a protrarsi ancora fino al 2022, e inciderà dunque sulle tempistiche e sui costi di produzione di numerosi mercati tecnologici (nonché del settore automobilistico). Altra interessante dinamica riguarda le tipologie di prodotto in ascesa: aumentano, nelle catene dei distributori, le vendite di computer con specifiche tecniche più elevate. Sul totale delle vendite a valore dei Pc professionali, il protocollo di connettività Wi-Fi 6, il più recente e veloce, a maggio del 2020 rappresentava appena il 16%; a settembre del 2021 la quota era salita al 70%. Nell’ambito del Pc consumer l’adozione del Wi-Fi 6 è stata più lenta, ma è comunque cresciuta nell’ultimo anno fino a raggiungere il 57% di quota a valore. I monitoraggi di Context trovano rispecchiamento nei più ampi dati di Canalys, che considerano tutti i canali di vendita degli Oem. La somma di Pc desktop, workstation e notebook ha segnato nel secondo trimestre del 2021 in Europa Occidentale un incremento del 3% anno su anno: parrebbe modesta, ma non lo è tenendo conto che il secondo trimestre del 2020 era stato un periodo di eccezionale e improvvisa crescita della domanda, trainata dai ben noti lockdown. “La domanda è ancora forte”, ha commentato Trang Pham, research analyst di Canalys. “L’Europa Occidentale si è ritrovata in una nuova normalità post Covid, un mondo sottoposto a rapida digitalizzazione, come mostrano i solidi numeri delle consegne. Se i problemi di approvvigionamento fossero stati risolti, avremmo osservato una crescita ancora maggiore”. Per numero di dispositivi commercializzati al primo posto c’è Lenovo, con 4,1 milioni di unità sui 15 milioni totali del trimestre, e una quota mercato del 27% a volume. Seguono Hp (24% di market share), Dell, Acer ed Apple. Nello stesso periodo le vendite di tablet in Europa Occidentale sono cresciute del 18% anno su anno, con 7,9 milioni di unità commercializzate nel trimestre. “I tablet”, ha aggiunto Pham, “non sono più soltanto dispositivi per l'intrattenimento ma sono emersi in quanto alternativa più economica ai Pc per il lavoro e la didattica a distanza”.
Valentina Bernocco
ISTAT RILANCIA SULLA VIRTUALIZZAZIONE DEI DATI
L’istituto ha modernizzato i processi statistici e standardizzato oltre duecento fonti di dati grazie a una nuova architettura di riferimento.
Istat è il principale produttore di statistica ufficiale a supporto dei cittadini e dei decisori pubblici italiani. Tradizionalmente, l’istituto si trova a dover gestire più di duecento fonti amministrative, oltre ai dati provenienti dalle sue indagini e censimenti. Inoltre svolge la funzione di orientare dal punto di vista metodologico e qualitativo tutti i produttori di statistica ufficiale e pubblica. L’utilizzo di nuove fonti Ucome Web, social media e i cosiddetti Big Data) ha reso evidente la necessità di sistematizzare questa importante mole di informazioni. Per questo, Istat ha fatto partire già nel 2016 un programma che offrisse un linguaggio comune ai diversi dipartimenti, per evitare incomprensioni nell’analisi e favorire nuove modalità di integrazione dei dati. Inoltre, è stato necessario riaggregare le informazioni per tematiche, associando i dati a fonti esterne per migliorare l’integrazione e l’estrazione di nuovi insight. L’aggiornamento dei processi di produzione dell’informazione statistica si è così inserito nel più ampio progetto di ridefinizione del framework tecnologico e organizzativo, esito del processo di modernizzazione della statistica ufficiale avviato a livello europeo da tutti gli istituti. Il percorso intrapreso da Istat ha quindi costituito un ulteriore passo verso lo sviluppo di un Register-based Analytics Framework (Raf), orientato a valorizzare il contenuto informativo per poi metterlo a disposizione della collettività. Il rinnovamento dell’architettura di riferimento nell’intero ciclo di vita dei dati (raccolta, validazione, manipolazione e diffusione) si è concretizzato in un framework composto da uno “strato” di virtualizzazione dei dati, introdotto per creare un unico punto di accesso alle informazioni e per risolvere alcuni limiti esistenti. “In questo modo”, ha spiegato Massimo Fedeli, Cio di Istat, “siamo riusciti a superare le rigidità nella diffusione e nel trattamento dei dati, concentrando inoltre tutte le azioni di data governance e monitoraggio della qualità dei dati nell’unico punto d’accesso disponibile. Dopo aver impostato l’infrastruttura, il primo servizio è risultato operativo in un solo mese”. In questa fase, l’istituto si è avvalso della collaborazione di Denodo, riuscendo in modo particolare a disaccoppiare utenti e applicazioni da attività come la migrazione e il consolidamento dei dati, integrando allo stesso tempo la semantica e la governance necessarie nei moderni ambienti di dati. Questi elementi consentono di agire sul significato dei dati evitando costose operazioni di copia o spostamento. Il percorso di rinnovamento tecnologico ha permesso di implementare diversi casi d’uso, tra cui la rilevazione dei prezzi al consumo, determinante per la misura dell’andamento dell’inflazione in Italia attraverso i diversi indici. Si tratta di un’attività tradizionalmente effettuata da operatori che visitavano i punti fisici della grande distribuzione per rilevare i prezzi dei prodotti. Oggi, invece, i dati vengono inviati direttamente all’istituto dai sistemi presenti nei distributori, migliorando la tempestività e la qualità dei dati a disposizione: “Il progetto ci ha permesso di investire sulle competenze, erogando percorsi di formazione grazie ai quali molte risorse interne sono diventate autonome rispetto all’utilizzo delle nuove piattaforme e all’elaborazione dei dati”, ha concluso Fedeli.
Roberto Bonino
l’intervista UN PUNTO DI VISTA INDIPENDENTE SULLA TRASFORMAZIONE
Il Ceo di Tibco, Dan Streetman, spiega quali strumenti consentono alle aziende di trarre valore dai dati e velocizzare i processi decisionali.
Nel mercato dei software per l’integrazione, l’analisi e la gestione dei dati sono rimasti pochi vendor specializzati indipendenti, in uno scenario che è cambiato dapprima con l’ingresso (a suon di acquisizioni) di molti big player e poi con la seconda ondata di new entry nate e cresciute con il cloud, come Aws, Google e Salesforce. Uno di essi è Tibco. Fino a qualche tempo fa non era troppo semplice orientarsi nel portfolio della multinazionale californiana ed è per questo che, da alcuni anni, lo stesso vendor si è preoccupato di razionalizzare l’offerta seguendo le tre direzioni denominate Connect, Unify e Predict. Questa traccia è stata utilizzata anche per presentare le ultime novità nel corso dell’annuale evento “TibcoNow”. Dal punto di vista dei prodotti, uno dei principali aggiornamenti riguarda Mashery, soluzione di gestione delle Api (le interfacce di programmazione applicativa) che ha modificato il suo nome in Cloud Api Management, a sottolineare la progressiva convergenza verso la piattaforma unificata Tibco Cloud. Rilevante, nel futuro dell’azienda, è anche la possibile acquisizione di Blue Prism, attraverso il fondo Vista Equity Partners. L’operazione aprirebbe un nuovo fronte per Tibco, in particolare in direzione del mercato dello sviluppo rapido del software. Per fare il punto sulle strategie della società e sull’evoluzione delle soluzioni di data management & integration, Technopolis ha intervistato il Ceo di Tibco, Dan Streetman.
Dan Streetman
Nel mercato in cui operate siete fra i pochi specialisti indipendenti rimasti. Qual è oggi il vostro posizionamento? Noi lavoriamo nell’area delle soluzioni unificate, per portare i dati ai clienti nel momento per loro più opportuno. La presenza di silos o di un unico cloud provider non aiuta a raggiungere questo genere di obiettivo. Ci occupiamo di connettere e movimentare i dati nel modo più rapido possibile, a prescindere da piattaforme o applicazioni. Diverse della realtà citate sono per noi dei partner e la nostra eccellenza riguarda la capacità di far sfruttare dai clienti, nel modo migliore, le piattaforme a cui si appoggiano.
Tra le vostre acquisizioni di rilievo, negli anni, troviamo Jaspersoft e Information Builders, specialisti nella Business Intelligence e nel reporting. Non sono concetti oggi un po’ superati? Sono d’accordo. Infatti stiamo puntando sulla Hyperconverged Analytics, in cui visualizzazioni, data science e funzionalità di streaming si fondono in un’esperienza senza soluzione di continuità per offrire insight aziendali coinvolgenti, smart e in tempo reale, semplici da fruire e su misura. Business Intelligence e reporting sono ormai solo elementi di una visione molto più ampia, mentre il vero obiettivo è rendere disponibile ciò che serve nel momento più opportuno.
Quali saranno, nel vostro ambito, gli effetti di lungo termine della pandemia? L’accelerazione della trasformazione digitale è un fatto acclarato. I dati oggi hanno bisogno di essere connessi fra loro il più rapidamente possibile. Abbiamo aiutato molti clienti a reagire nel modo in cui gestire i dati, per esempio, delle supply chain o della customer demand. Ormai i cambiamenti vanno recepiti e rielaborati in tempi molto rapidi e la pandemia non ha fatto altro che enfatizzare questo fenomeno.
Come il Ceo di Tibco vede l'Italia dal suo punto di osservazione? Gli italiani hanno la prerogativa di voler costruire soluzioni creative e l’innovazione va in questa direzione. Abbiamo constatato questi elementi nei rapporti con clienti come Autostrade per l’Italia e Brembo. Un altro esempio è Invitalia, che con noi lavora sul process mining. Abbiamo esperienze molto interessanti fatte in Italia, la quali ci possono servire anche per far capire ad altri potenziali clienti quello che siamo in grado di fare.
Roberto Bonino
MULTICLOUD, EDGE, KUBERNETES: GLI ASSI DEL FUTURO
Vmware punta su tre scommesse tecnologiche, strategiche nello scenario di lavoro ibrido che si sta affermando.
Che piaccia o no, è il cloud a fungere da infrastruttura portante per le strategie di sviluppo delle aziende. Raffaele Gigantino, country manager di Vmware Italia, pone la questione in modo piuttosto diretto: “La pandemia ha portato all’accelerazione delle strategie di trasformazione digitale delle aziende e il cloud ha avuto un ruolo fondamentale in questa fase. Le applicazioni devono essere fruite da una workforce sempre più distribuita e un’azienda media oggi gestisce 500 applicazioni. In Italia oltre il 40% dei nuovi progetti parte in cloud e la maggior parte delle realtà utilizza tre o più fornitori, almeno per quanto fruito in modalità Software-as-a-service. Questo non aiuta a eliminare i silos e gli sviluppatori finiscono all’interno di qualcuno di essi. Quando però occorre implementare le applicazioni, sorgono ancora forti problemi di gestione e di governance”. La riflessione introduce uno dei temi portanti dell’evento “Vmworld 2021”. La nuova offerta di servizi Cross-Cloud nasce con l’intento di lasciare ai clienti la scelta delle prestazioni specifiche per le piattaforme utilizzate, che si tratti di Aws, Google Cloud, Microsoft Azure oppure Oracle. Vmware intende occuparsi delle componenti necessarie per costruire applicazioni cloud-native, modernizzare il patrimonio esistente e assicurare che l’infrastruttura sia interconnessa. Di fatto, nella proposta vengono integrate componenti d’offerta già esistenti, come Vmware Cloud, vRealize, Nsx, Carbon Black e Workspace One, ma anche una piattaforma Tanzu molto rinnovata e l’aggiunta della componente di edge computing. Tanzu è la piattaforma proprietaria di Vmware per Kubernetes, popolare sistema open-source per l’orchestrazione dei container (ambienti software che permettono di isolare ed eseguire applicazioni). Su di essa l’azienda ha concentrato ultimamente molte attenzioni, al fine di integrare meglio la piattaforma all’interno dell’offerta di virtualizzazione esistente, in particolare in Vmware Cloud. Lo stesso Ceo della società, Raghu Raghuram, nel suo keynote ha specificato di voler presentare “il contrario di un portafoglio monolitico. Vogliamo apportare valore a tutte le tipologie di aziende, da quelle impegnate nella modernizzazione delle proprie applicazioni alle giovani realtà cloud-native”. Tanzu viene indirizzata alle attività di sviluppo e implementazione di applicazioni online, così come all’edge computing. Lungo la linea già tracciata di recente con la Tanzu Application Platform (già visibile la seconda beta release), sono
Raghu Raghuram ora arrivate la versione Advanced di Service Mesh (il modulo che indirizza la logica di rete fra applicazioni in formato container) e la declinazione open source di Kubernetes Grid. Quest’ultima possiede una Community Edition disponibile gratuitamente, che contiene numerosi tool open source preinstallati: “È rivolta a studenti, appassionati e utenti e permette di installare e configurare soluzioni in pochi minuti su un dispositivo locale o sul cloud preferito: non è un trial, ma un prodotto vero e proprio, libero e senza limiti di utilizzo”, ha sottolineato Rodolfo Rotondo, business solution strategist director di Vmware Emea. Nel filone dell’integrazione si colloca anche l’annuncio del progetto Arctic, nuova architettura per il software di virtualizzazione vSphere: si punta a fare del cosiddetto “ibrido” il modello operativo per definizione, integrando nativamente la connettività al cloud e permettendo così ai clienti usare servizi cloud per tutti i carichi di lavoro funzionanti su vSphere, compresi quelli on-site. In parallelo, Vmware ha lanciato anche la nuova iniziativa Sovereign Cloud per aiutare i clienti a lavorare con fornitori “trusted”, allineati alle esigenze normative locali in materia di dati. Hanno già aderito al progetto provider come OvhCloud, Telefonica, Swisscom, Ionos, Datacom, Telmex, UkCloud e l’italiana Noovle (Gruppo Tim). A proposito di Italia, nel nostro Paese tra i clienti più prestigiosi spicca Pirelli, che sulla piattaforma di Vmware ha costruito un pezzo importante della propria strategia di trasformazione digitale. “Siamo oggi in grado di stimare la domanda di pneumatici che arriva dai produttori di auto, anche sul medio termine”, ha illustrato Pierpaolo Tamma, Cio della società. “Questo ci consente di pianificare la supply chain, con evidenti risultati di ottimizzazione dei processi, velocizzazione del time-to-market e pianificazione dei costi”. R.B.
INFRASTRUCTURE-AS-A-CODE, NUOVO PASSO IN AVANTI
Prosegue per Pure Storage il percorso verso un’offerta sempre più software-defined, tesa a semplificare la gestione dell’archiviazione dati all’interno di ambienti IT "ibridi".
Infrastructure-as-a-code, database as-a-service con provisioning end-toend in ambienti Kubernetes (motore per l'orchestrazione dei container): gli ultimi sviluppi di Pure Storage rafforzano il percorso verso un’offerta sempre più software-defined, volta a semplificare la gestione dell’archiviazione dei dati nei cosiddetti ambienti “ibridi”, che mescolano risorse onpremise e cloud. D’altra parte, questa evoluzione corrisponde alle mutate esigenze delle aziende di tutto il mondo: molte hanno ormai spostato su diversi cloud pubblici (o privati in qualche caso) e spesso di vari fornitori buona parte dei propri workload, mantenendone alcuni on-premise, per motivi che spaziano dalla security alla compliance, dai costi alle latenze. Questo passaggio, abbinato all’emergere di tecnologie come container, intelligenza artificiale, Kubernetes e data analytics, ha fatto crescere la domanda di capacità “simil-cloud” all’interno dei data center, capacità che includono la possibilità di utilizzare risorse on-demand e modelli flessibili di consumo. Negli ultimi anni i grandi operatori nati nell’hardware hanno, così, dovuto riconvertire la propria natura verso la fornitura di software e servizi. Pure Storage non fa eccezione, almeno da quando (circa tre anni fa) ha iniziato a introdurre, accanto alla tradizionale offerta di sistemi di archiviazione all-flash, il consumo flessibile per lo storage a blocchi, i servizi Evergreen Storage e la proposta a sottoscrizione Pure-asa-Service. Il nuovo salto in avanti si chiama infrastructure-as-a-code e si concretizza con la nuova offerta Pure Fusion: “Vogliamo eliminare la complessità delle implementazioni e delle configurazioni dello storage flash nelle aziende che lavorano in differenti ambienti cloud o ibridi”, illustra Umberto Galtarossa, partner technical manager di Pure Storage. “Non occorre più essere specialisti per gestire le nostre soluzioni e ora diventa ancor più semplice avere il controllo sull’infrastruttura, automatizzando il bilanciamento e la mobilità dei workload”. L’idea alla base di Pure Fusion è di creare regole Yaml, capaci di implementare, fare provisioning, integrare classi di servizi di archiviazione, definire priorità e così via. Per questo, è stato compiuto un certo sforzo verso l’automazione e l’integrazione di Api a complemento dell’intelligenza artificiale già compresa nel portale Pure-1. La soluzione però non funziona in ambienti storage misti, ma solo con i prodotti del vendor. Portworx Data Services, invece, è una novità dedicata soprattutto agli sviluppatori DevOps, ai quali viene offerta una soluzione di tipo databaseas-a-service per implementare con un solo click servizi in ambienti Kuber-
Uberto Galtarossa
netes. “La soluzione genera template per automatizzare diverse operazioni di gestione dello storage dei container, dal provisioning end-to-end al backup, dal disaster recovery alla sicurezza”, descrive Galtarossa. All’avvio della soluzione, i modelli disponibili supportano database come MongoDb, MySql, Spark e Kafka, ma è già prevista l’estensione ad altri ambienti Sql e NoSql (Datastax, Elatsicsearch, Cassandra, Reddis, Couchbase, Sql server e altri). Il servizio è attualmente in fase di test con i clienti prima del previsto lancio commerciale a livello globale. Pure Storage, infine, ha anche colto l'occasione per aggiornare il suo portale Pure-1, rafforzando la sicurezza (in particolare la protezione contro i ransomware) e migliorando la manutenzione degli array di storage. R.B.
LA STAMPA SPOSA LE ESIGENZE DEL LAVORO IBRIDO
L’offerta di dispositivi multifunzione Brother coniuga produttività, sicurezza e risparmi per i contesti home office e per la “nuova normalità” delle aziende.
Nella “nuova normalità” del mondo del lavoro c’è ancora molto bisogno della stampa, ma anche di digitalizzazione. L’esperienza della pandemia ha trasformato molte cose ma non ha intaccato il valore del printing, come confermato da un sondaggio realizzato nel 2020 da Idc: per il 69% delle aziende il volume totale di pagine stampate non subirà delle riduzioni. Stampa e dematerializzazione sono le due anime di un’attività strategica come la gestione dell’informazione, che significa poter creare, condividere e archiviare documenti in varie forme e secondo tempistiche differenti. Per un utente potrebbe essere necessario, per esempio, ricevere un documento via email e poi stamparlo, o viceversa digitalizzare dei contenuti cartacei per esigenze di archiviazione a tempo indeterminato. Questo era vero già in passato, ma lo è ancor di più oggi in tempi di lavoro “ibrido”, in uno scenario di assestamento post-pandemia in cui si mescolano (anche all’interno della stessa azienda) la presenza in ufficio e lo smart working. Peraltro lo spostamento delle attività lavorative nei contesti domestici ha creato non solo nuove esigenze di gestione documentale ma anche ulteriori problematiche di sicurezza, dovute all’uso di dispositivi personali e reti poco sicure. Come gestire tutte queste nuove complessità? La strategia di Brother è quella di destinare la stampante più adatta a ogni contesto, bilanciando le esigenze di costi, prestazioni e sicurezza. Per l’home office è ricca l’offerta di stampanti classiche e dispositivi multifunzione che racchiudono in un formato compatto elevate prestazioni, numerose opzioni di connettività (rete mobile, Wi-Fi, Bluetooth, Ethernet) e semplicità d’uso. I toner ad altissima capacità e l’alta risoluzione anche in modalità fronte/retro permettono di ridurre i consumi di energia e materiali, limitando così sia i costi sia l’impatto ambientale della stampa. Utilissima, per chi lavora da casa, è la funzione che permette di connettere uno smartphone alla stampante in poche mosse, attraverso un’app o tramite cloud. In caso di problemi tecnici, poi, è a disposizione un servizio di assistenza da remoto che garantisce affidabilità e qualità per ogni esigenza. Per le aziende che hanno riprogettato (o vogliono riprogettare) i propri spazi e i flussi del personale applicando le misure di sicurezza anti covid, la risposta ideale è invece il Balanced Deployment, una strategia che prevede l’impiego di più stampanti A4 anziché di una sola macchina A3, come tipicamente è avvenuto finora. Potendo collocare un maggior numero di stampanti vicino alle postazioni di lavoro, si limitano i tragitti degli utenti che devono ritirare, acquisire o fotocopiare un documento. Tramite questo approccio si evita il problema delle code (che tipicamente si formano quando troppe persone devono usare la stessa stampante A3) ma anche quello dei documenti che vengono “abbandonati” per dimenticanza e possono finire nelle mani sbagliate. Che si tratti di uffici o di contesti home office, c’è poi un altro aspetto a cui Brother presta particolare attenzione: la sicurezza. Buona parte dei modelli in gamma non necessita di dischi fissi per l’esecuzione delle operazioni di stampa e questo evita il rischio di violazioni di documenti memorizzati su hard disk interni alle stampanti. Le macchine laser di fascia alta proteggono i dati con crittografia TLS/SSL, è inoltre presente una funzione di filtro degli indirizzi IP in ingresso e di blocco dei protocolli selezionati. Con i Managed Print Services di Brother, inoltre, è possibile usare il software di gestione delle stampe che includono il pull printing, una funzione che archivia il lavoro di stampa e lo rilascia solo in presenza dell’utente autorizzato a ritirarlo.
l’intervista I CAMBIAMENTI E LE SORPRESE DEL POST-PANDEMIA
La crisi sanitaria si è tradotta in un cambio di tendenza negli investimenti tecnologici delle aziende, con qualche risvolto positivo. Il punto di vista di Dell Technologies.
Se guardiamo alla reazione delle aziende e al ruolo della tecnologia, un evento tragico e catastrofico come la pandemia di covid-19 ha avuto anche effetti insperati, quasi sorprendenti. Iperconvergenza e modello “as a service” fanno da traino all’innovazione, come ci ha raccontato Aongus Hegarty, presidente international markets di Dell Technologies, per scattare una fotografia del mercato Ict post-pandemia.
Quali sono i trend prevalenti in Europa e in particolare in Italia? L’Italia ha un trend molto simile agli altri Paesi: il focus è sulle aree chiave della workforce transformation, e ovviamente durante la pandemia è cresciuta la domanda di notebook e di soluzioni complete di collaboration. La difficoltà, in questo ambito, è saper abbinare le diverse personas, cioè i profili utente, con le diverse soluzioni. Più in generale, abbiamo verificato che nell’hybrid working le soluzioni devono essere flessibili e sicure, da ufficio o da remoto. Le aziende di tutto il mondo devono avere la possibilità di essere flessibili e di continuare ad attrarre le persone; questa rimane un’area molto importante. Il secondo grande trend è la modernizzazione delle infrastrutture, che devono essere efficienti dal punto di vista dei costi e resilienti. Come ad esempio il multicloud flessibile e il cloud ibrido. La terza esigenza è relativa alla cybersecurity: gli attacchi informatici sono aumentati, con un impatto significativo sul business. L’accelerazione della trasformazione digitale ha scoperto delle vulnerabilità dovute al dilagare dell’online, delle applicazioni, dell’accesso ai dati da remoto. Il 50% di questi episodi sono stati diretti alle Pmi, e anche i Governi sono stati sotto attacco. Per questo motivo il mercato della cybersecurity ha mosso miliardi di dollari. Tutto questo dinamismo libera molto potenziale, in Italia e nel mondo.
Photo by Simon Abrams on Unsplash
Aongus Hegarty
Come vi posizionate nel mercato postpandemia? Dell Technologies ha mostrato ottime performance nel primo trimestre del proprio anno fiscale, totalizzando 24,5 miliardi di dollari di fatturato con una crescita del 12%. Sono cresciute molto le infrastrutture, i device, i Pc e in generale tutte le categorie. Per quanto riguarda le prospettive, noto che il 5G sta prendendo molto spazio in Italia e l’edge computing è molto vicino a queste infrastrutture. Secondo i dati a nostra disposizione, il 75% delle aziende
si aspetta più tecnologia sull’edge e i destini sono legati proprio a quelli del 5G. Poi c’è tutto il business legato ai modelli “As a service”, che sta crescendo sempre di più. Noi abbiamo lanciato un modello “multi year journey as a service” anche per lo storage. Stiamo costruendo questa alternativa perché per i clienti significa avere a disposizione soluzioni più flessibili, con cui è più facile gestire i picchi. Più in generale, Dell Technologies ha investito 4,5 miliardi di dollari in ricerca e sviluppo quest’anno, proprio per sviluppare prodotti e soluzioni nei mercati in crescita.
A proposito di edge computing, che prospettive ci sono per il segmento, sul quale avevate puntato molto prima della pandemia? Non sarebbe esatto dire che l’edge abbia frenato. Ma le aziende hanno pensato come prima cosa a mettere le persone in condizioni di lavorare. C’è stata una pausa in generale, non solo per l’edge. Però, in una trasformazione che coinvolga anche la forza lavoro, pure le infrastrutture sono coinvolte. La riattivazione dei progetti accelererà nel corso dei prossimi mesi, gli analisti e il mercato sono concordi nel prevedere che gli investimenti in 5G ed edge computing ripartiranno. La pandemia sta ancora colpendo duro in alcune aree, mentre altri mercati guardano a una forte crescita.
E per le architetture iperconvergenti? Vediamo una continua crescita nell’iperconvergenza, soprattutto in abbinata al multicloud, con nuove possibilità di espansione e capacità sul mercato. Penso che i clienti chiedano sempre di più flessibilità nello spostare i workload, e queste infrastrutture sono molto adatte alle nuove esigenze. Noi con Vmware abbiamo un’alleanza strategica e grandi prospettive in tema di go-to-market, e continueremo a percorrere la nostra roadmap con loro. Continueremo a innovare.
Photo by Steve Halama on Unsplash
Quali sono i settori più promettenti per il post pandemia? Per prima cosa, dobbiamo dire che nessuno si aspettava una pandemia globale. E ovviamente non si poteva prevedere questo impatto. Io sono comunque sorpreso dalla resilienza delle aziende e dell’abilità dimostrata nell’implementare soluzioni tecnologiche. Noi, in particolare, prima della pandemia avevamo la maggior parte dei dipendenti che lavoravano già in modo flessibile. Ma dal punto di vista della tecnologia è sorprendente osservare quanta strada sia stata fatta. Le aziende hanno avuto pochi giorni per reagire e mettere in piedi il necessario per continuare a fare business. Per non parlare delle organizzazioni che operano nei settori dell’healthcare, dei servizi essenziali, dell’education. È stata una piacevole sorpresa. Anche la Pubblica Amministrazione è stata molto rapida a reagire: prima della pandemia non avevamo nemmeno i portatili, ora parlano di flessibilità, connettività.
Che cosa vi aspettate dal Pnrr? Ora la sfida è sfruttare la potenza del Pnrr, generando creatività e innovazione grazie all’opportuno utilizzo dei fondi. È una grande opportunità di portare un numero ancor maggiore di persone a godere dei vantaggi della tecnologia. In Italia ed Europa un euro su cinque sarà allocato per investimenti in digitale. Associato allo sforzo per la sostenibilità, questo rappresenta un’opportunità fantastica. I prossimi anni saranno molto intensi.
Emilio Mango
IL WELFARE AZIENDALE SI ARRICCHISCE CON LE POLIZZE BIOMETRICHE
Per migliorare il rating Esg e cogliere opportunità legate al Pnrr, le imprese possono considerare la protezione vita, infortuni e malattie per i propri dipendenti. Il punto di vista di elipsLife.
Il tema dell’assicurazione collettiva non è nuovo nel mondo del lavoro, ma in questi ultimi tempi sta assumendo un particolare rilievo con il crescere dell’attenzione delle aziende verso i criteri Esg, il rating che valuta gli aspetti Environmental, Social e Governance, sempre più presi in considerazione dal mercato e dagli investitori. Tra le variabili che afferiscono all’Esg, la esse di Social sta assumendo un peso crescente e sta portando le aziende ad attrezzarsi in modo da ottenere un rating appetibile, optando spesso verso soluzioni che prendano in considerazione la protezione dei propri dipendenti. Una protezione che ha forte attinenza con il welfare aziendale, un tema su cui l’Italia rimane ancora debole rispetto agli altri Paesi europei: nel caso di grandi organizzazioni, la protezione si limita ai soli vertici aziendali, mentre il resto della forza lavoro rimane protetto, quando lo è, solo da eventi di piccola portata (come i rimborsi per spese mediche) e poco più, senza quindi prendere in considerazione eventi luttuosi o menomanti. E il grado di sensibilità si abbassa ulteriormente tra le Pmi. Di eventi gravi, invece, l’elenco in cronaca è pressoché quotidiano e in continua crescita, con frequenti notizie sui media di infortuni o morti sul lavoro, senza tener conto del fenomeno (meno alla luce del giorno ma con numeri di gran lunga superiori) degli stessi effetti dovuti a malattie. Eventi,
Pierluigi Verderosa
questi, che nel nostro Paese sono poco protetti e rischiano di mettere in difficoltà economica le famiglie interessate. “Un’impresa che oggi voglia coglie-re le opportunità legate al Pnrr o che intenda essere riconosciuta sui crite-ri Esg dovrà considerare questo tema strettamente legato alla sostenibilità, chiedendosi se stia proteggendo le famiglie dei propri lavoratori da eventi che possono minarne l’equilibrio economico”, afferma Pierluigi Verderosa, Ceo e managing director di elipsLife, compagnia assicurativa italiana fondata nel 2018, che conta oggi oltre 100.000 soggetti assicurati, ed è parte di Suiss Re, la maggiore realtà di riassicura-zioni (ossia società che assicurano le assicurazioni) a livello globale. “In Italia”, prosegue Verderosa, “la previdenza prevista da Inail o Inps eroga, in caso di incidente, una copertura di circa 17.000 euro netti all’anno, una somma irrisoria per pensare a un futuro sostenibile per la famiglia di chi ha subito gravi eventi. Purtroppo, le aziende italiane sono culturalmente arretrate su come aumentare la protezione dei dipendenti di fronte a grandi eventi, con scarsa conoscenza dei benefici/ costi che possono derivare da assicurazioni collettive sui rischi biometrici, ossia vita, gravi infortuni e malattie”. Da qui la volontà di elipsLife di creare una rete di partner broker che sia in grado di proporsi in maniera consulenziale e proattiva nei confronti di aziende di piccole e medie dimensioni, puntando sulla formazione e sulla dotazione di tool informatici che li mettano in grado di calcolare i benefici a fronte degli investimenti. “Si tratta”, spiega il Ceo, “di un investimento che vogliamo fare sulla nostra rete di intermediazione, che tendiamo a raddoppiare entro il 2025, spostando l’obiettivo verso una proposizione a valore e non a volume, sollevando così i nostri partner dalle logiche meramente legate ai pacchetti e al fattore costo, sulle quali imperversa una battaglia sui margini, puntando a promuoverli a veri e propri consulenti sui piani assicurativi personalizzati destinati alle aziende. Una formazione che vogliamo trasferire anche sul fronte degli imprenditori, per fare in modo che riescano a valorizzare adeguatamente questa scelta nei confronti dei propri dipendenti”.
Loris Frezzato
l’intervista SCARICARE A TERRA LA POTENZA DEI DATI E VALORIZZARLI
Tra le principali sfide di trasformazione del settore bancario c’è la data monetization, come spiega Franco Saracco, sales executive director banking market di Gft Italia.
Che cos'è la “data monetization”? La data monetization è il processo attraverso il quale un’impresa decide di far fruttare la mole di dati che ha a disposizione (i dati dei propri clienti e quelli generati dalla relazione con essi, i dati dei propri partner commerciali e ancora, più in generale, tutti i dati provenienti dall’intero ecosistema all’interno del quale si sviluppa il business aziendale), rendendoli informazioni di valore e ricavandone guadagno in forma diretta e indiretta.
Qual è la difficoltà nel realizzarla? Fare data monetization implica avere il controllo sui dati. La sensazione è che le aziende e le persone lo abbiano ormai perso. Senza un controllo su di essi, come è possibile monetizzare i cosiddetti data rights? Sappiamo che le aziende che non hanno il controllo sui propri digital rights possono avere seri problemi. Si pensi alla violazione (i sempre più frequenti data breach, la manipolazione dei votanti, il timore della condivisione dei dati), alla mancanza di tracciatura (i proprietari dei dati non hanno né controllo né visibilità dei propri data rights), alla mancata mobilità dei dati (ovvero la mancanza di strumenti per il trasferimento dei data rights).
Quali soni i casi più delicati? Il problema si pone in almeno tre casistiche: le organizzazioni che devono gestire moli significative di dati interni, per cui spesso è difficile anche capire dove sono memorizzati e qual è la spesa per controllarli; le organizzazioni che necessitano di condividere le informazioni all’esterno, per cui spesso c’è un problema di sicurezza; e infine le attività B2C, che necessitano di tenere ben strette le informazioni dei consumatori e al tempo stesso rassicurarli sul loro utilizzo.
Franco Saracco
Che cosa ha fatto Gft per favorire la data monetization? Abbiamo partecipato allo sviluppo di una piattaforma specifica che consente di rispondere in maniera efficace a tali domande. La piattaforma in oggetto è quella di OneCreation, azienda partner di Gft, di cui un inciso che ci piace molto è “monetizzare attraverso il controllo”. Gft considera questo ambito come componente importante delle proprie strategie di sviluppo.
Che cosa consente di fare OneCreation? La piattaforma utilizza in modo interessante gli Smart Contracts per creare una DREAM Fabric (l’acronimo sta per Digital Rights Enfor-cement and Management) che, atomicamente e ininterrottamente, fa rispettare i data digital rights attraverso ecosistemi multipli. Gli Smart Contracts sono in pratica degli accordi digitali, basati su input e dati del mondo reale, che ven-gono automaticamente eseguiti e fatti rispettare. Sostanzialmente tutte le regole di consumo e pubblicazione dei dati sono orchestrate attraverso degli Smart Contract. I “contributori” dei dati definiscono le necessarie autorizzazioni per i loro data rights, così come specifiche regole di pricing. I dati vengono quindi automaticamente messi a disposizione e i digital rights fatti rispettare. La soluzione è stata realizzata su Aws ma è potenzialmente disponibile su ogni cloud.
In quali casi è particolarmente efficace? Per realtà di grandi dimensioni, con strutture dati complesse, che vogliono regolarizzare l’accesso al loro interno, la piattaforma si colloca tra i dati dell’organizzazione e i consumatori di essi, facendo rispettare e tracciando i digital rights in accordo con le policy stabilite. Per le aziende che vogliono condividere i propri dati all’esterno, la piattaforma assume le vesti di un digital rights marketplace, invitando i sottoscrittori ad accedere a un ambiente sicuro e degno di fiducia. Anche qui l’obiettivo è una piena tracciatura del dato, del suo ciclo di vita, di come viene usato e da chi. Infine, p er a ziende B 2C si può usare la componente mobile della piattaforma all’interno di applicazioni esistenti. Così i consumatori sono in grado di controllare e tracciare il ciclo di vita dei propri dati con la punta delle dita, mantenendo la fiducia nell’azienda grazie a una piena trasparenza.
l’opinione I DATI RALLENTANO LE BANCHE, MA SI PUÒ ACCELERARE
Per portare nel mercato innovazione, secondo il modello dell’Open Banking, bisogna superare gli attuali ostacoli dello sviluppo software.
Sessant’anni prima che Elon Musk lanciasse una Tesla Roadster nello spazio, Luna 1 fu la prima navicella spaziale a raggiungere la “velocità di fuga”. Fino ad allora, l’enorme quantità di carburante necessaria per staccarsi dall’attrazione gravitazionale terrestre era stata il più grande ostacolo ai viaggi nello spazio. I dati accumulati negli istituti bancari sono molto simili al carburante per missili. Le enormi quantità di dati sensibili relativi a clienti e transazioni sono essenziali per competere e innovare, ma appesantiscono le banche. Oggi i consumatori si aspettano maggiore comodità, scelta e flessibilità nei rapporti con gli istituti bancari. Nei primi sei mesi del 2020 il numero di utenti di app o prodotti abilitati per l’Open Banking nel Regno Unito è raddoppiato e nel febbraio 2021 era cresciuto fino a superare i tre milioni. Le banche devono inserire rapidamente delle Application Programming Interface (Api) “aperte” nei loro modelli di business e devono fornire software innovativo più rapidamente per massimizzare i vantaggi dell’Open Banking, ma stanno lottando per accelerare. Nel frattempo, un flusso costante di nuovi dati aggrava i rischi di privacy, produttività e latenza. Un cliente Delphix ha 30.000 applicazioni disperse in una vasta gamma multigenerazionale di app moderne, che coabitano con mainframe e clientserver. Questa è la misura e la complessità che le banche devono affrontare. Devono sfruttare tutti questi dati per competere nell’ecosistema dei servizi finanziari globali in rapida evoluzione. Nel frattempo tempo Amazon, Apple e Google hanno stabilito un nuovo ritmo d’innovazione e forniscono piattaforme tecnologiche per agili Fintech e startup. Uno studio di Pulse ha rilevato che ciò che impedisce alle banche di aprire i propri dati a terzi e soddisfare le nuove normative sono, innanzitutto, il tempo e gli sforzi necessari a preservare l’integrità dei dati. Dovrebbero essere messi a sicuro prima di andare “in produzione”, ma è difficile avere visibilità su dati dispersi in una vasta architettura multigenerazionale. La ricerca ha inoltre rilevato che il 29% degli sviluppatori e dei tester si affida ai team Ops per il provisioning e l’aggiornamento manuale degli ambienti di dati, operazione che richiede in media 4,5 giorni ma può estendersi fino a mesi. Per le banche, il risultato è un collo di bottiglia. Tutto ciò è aggravato dal fatto che il 42% dei team di sviluppo/test non ha altra scelta che utilizzare dati sintetici o sottoinsiemi per colmare le lacune nella disponibilità dei dati. Tali soluzioni alternative introducono pericoli nascosti, inclusi rischi per la qualità e la stabilità dovuti a dati obsoleti, e il potenziale di limitare severamente la copertura dei test. Le Api “aperte” accentuano l’esigenza di avere interoperabilità tra applicazioni composite e microservizi e passaggi di consegne tra fornitori di servizi, quindi questi rischi specifici sono particolarmente problematici. Per poter accelerare lo sviluppo e il test delle Api, una moderna data platform dovrebbe avere sette funzionalità fondamentali. La prima: saper importare dati da tutte le app, eseguendone la sincronizzazione e una registrazione granulare e continua delle modifiche ai dati. La seconda: rendere automatiche le operazioni complesse sui dati, relative a modifiche, aggiornamento, ripristino di versioni e condivisione delle copie. La terza: garantire la conformità dei dati, per rispettare le leggi sulla privacy e proteggere i dati finanziari. La quarta: rendere quasi istantanei i tempi di aggiornamento dei dati, per ridurre i costi di elaborazione e velocizzare i test. La quinta: garantire l’immutabilità dei dati, attraverso applicazioni sorgenti e ambienti di dati virtuali. La sesta: permettere di creare più versioni e copie indipendenti dei dati. La settima: usare lo spazio di archiviazione in modo efficiente. Abbinare la conformità dei dati con la delivery on-demand può consentire alle banche di essere all’avanguardia e di accelerare l’innovazione.
Ugo Polli, presales, customer success director Emea di Delphix
Ugo Polli
ORIENTARSI NELLA GIUNGLA DEL RETAIL CON LA VISIONE INTEGRATA
Secondo Minsait, le piattaforme di Unified Commerce possono aiutare i retalier a gestire la complessità crescente dell’intreccio “phygital” nei canali e nelle modalità d’interazione dei clienti.
Nell’ultimo anno e mezzo, i canali di comunicazione ed i touch-point utilizzati per collegare retailer e clienti sono cresciuti notevolmente. La sfida per le aziende è orientarsi e creare valore sfruttando al meglio tutti gli strumenti a propria disposizione, digitali e fisici: CRM, e-commerce, social commerce, punti vendita, processi di crosschannel, sistemi di gestione della catena di approvvigionamento e dell’inventario, applicazioni mobili, e chi più ne ha più ne metta. Progettare e realizzare una strategia phygital , che permetta di migliorare l’esperienza dei clienti, ha lo scopo di rendere l’esperienza del consumatore più semplice, senza frizioni, meno frammentata, e più coerente. Per questo motivo l’approccio omnichannel, già adottato da molti retailer, è necessario ma non più sufficiente per venire incontro alle nuove esigenze dei consumatori, più digitali e informati che mai. “Per farsi trovare pronti nell’attuale contesto ultra competitivo”, dice Alberto Bazzi, responsabile advanced technologies di Minsait in Italia, “è fondamentale concentrarsi su due fattori, il primo organizzativo e il secondo strutturale. Innanzitutto le aziende devono adottare al proprio interno un concetto di visione integrata del cliente, per collegare aree, sistemi e strategie al fine di avere dei clienti più soddisfatti. In secondo luogo è importante che i retailer si affidino alle tecnologie di ultima generazione per affrontare nella maniera più efficiente il problema dell’ipersegmentazione dei canali e creare un’esperienza utente coerente e uniforme attraverso i canali e i dispositivi”. Secondo dati forniti da Salesforce, il 76% dei clienti si aspetta interazioni coerenti tra i diversi reparti e il 54% ha la sensazione che le vendite, il marketing e il servizio non condividano informazioni tra di loro. Questa percezione non è molto distante dalla realtà, infatti vediamo che ancora molte aziende non hanno una visione integrata e a 360° dei propri clienti. “Le aziende che riusciranno a implementare al loro interno, attraverso un cambiamento culturale, un modello di visione integrata del cliente otterranno vantaggi indiscutibili”, prosegue Bazzi. “Agiranno in modo collaborativo creando strategie che coinvolgono tutti gli stakeholder, lavoreranno in modo agile sulla base dell’integrazione di processi e aree, su dati condivisi e coesivi, daranno la priorità all’organizzazione di team multidisciplinari al fine di migliorare la customer experience. Attraverso questi accorgimenti, i consumatori saranno più gratificati e fedeli, poiché riceveranno esperienze su misura più rilevanti ed empatiche”. Per orientarsi in questa giungla di canali e touch-point phygital, le aziende devono dotarsi di piattaforme che consentano la gestione unificata degli ambienti fisici e digitali, sfruttando tecnologie come il machine learning e l’intelligenza artificiale per ottenere, ad esempio, insight in tempo reale sull’ingaggio dei consumatori verso i prodotti esposti, sullo stato del magazzino e du altri dati fondamentali per venire incontro in modo personalizzato alle richieste dei clienti. Un esempio di soluzione “olistica” è BayRetail: un’app di Unified Com-
Alberto Bazzi
merce, nativa su Salesforce e sviluppata da BayBridge Digital, che riunisce al proprio interno sia le applicazioni back-end sia le esperienze front-end dei retailer, al fine di fornire una migliore e più attenta organizzazione insieme a un’accurata analisi dei dati. L’obiettivo finale di questa piattaforma è quella di ottimizzare il business per le aziende e rendere i clienti più soddisfatti della loro interazione con il brand. Questa soluzione software cloud & mobile first, portata in Italia in esclusiva da Minsait, aiuta le aziende a trasformare la propria customer experience sia online sia in-store attraverso diverse linee d’azione: l’aumento della conoscenza del cliente, la gestione unificata dei pagamenti e del processo di click-and-collect, l’accesso alle informazioni sulle giacenze e la gestione degli ordini multicanale, e non ultima la possibilità di realizzare politiche di upselling e crossselling per migliorare le vendite. “Combinando la visione olisitica con le più recenti soluzioni tecnologiche”, conclude Bazzi, “le aziende potranno conquistare la fiducia del cliente moderno attraverso una customer experience nuova, più attenta alle loro esigenze e senza frizioni. L’esperienza dei consumatori nei canali di vendita phygital sarà il fattore differenziante per il successo dei retailer, capaci di creare esperienze più soddisfacenti e di maggior valore”.
SALESFORCE METTE SLACK AL CENTRO DELLE RELAZIONI CON I CLIENTI
La piattaforma per la collaborazione, acquisita per 27,7 miliardi di dollari, sarà integrata trasversalmente a tutta l’offerta.
Lo scorso luglio Salesforce ha finalizzato l’acquisizione di Slack per 27,7 miliardi di dollari. L’ultima edizione dell’annuale evento “Dreamforce” è servita per concretizzare il significato di questa operazione e far capire come la piattaforma collaborativa sia di fatto il nuovo perno dell’intera offerta, essendo stata integrata in tutti i prodotti Salesforce (Crm, Commerce. Tableau, Mulesoft ed Experience, tra gli altri). Slack, dunque, funge da interfaccia centralizzata per rendere più fluide le interazioni con la clientela e fra i servizi, facilitando al contempo la collaborazione fra i team nell’universo lavorativo divenuto ormai ibrido. “In questa logica, anche la sede centrale delle aziende non è più situata in una posizione geografica, ma nel cloud. Tutte le relazioni possono così essere digitalizzate e liberate dai vincoli del lavoro a distanza”, ha preconizzato Noah Weiss, vicepresidente della linea Slack in Salesforce, durante il “Dreamforce 2021”. Per realizzare questa digitalizzazione a tutto tondo, i clienti che abbiano sottoscritto l’offerta di fascia alta di Slack (Enterprise Grid) ora hanno la possibilità, tramite la funzione Slack Connect, di invitare a integrarsi alla piattaforma qualsiasi utente, anche privo di abbonamento. Salesforce ha aggiunto la funzionalità Slack Clips, che consente di realizzare video-conversazioni anche in modo asincrono, senza la necessità di organizzarsi attraverso una piattaforma specializzata, come Zoom, Webex o Teams. La novità serve a semplificare la creazione e la condivisione di registrazioni audiovideo, con o senza cattura dello schermo, su tutti i canali di chat. “In questo modo, non sarà più necessario coordinare le agende per trovare un momento in cui tutti sono disponibili”, ha spiegato Weiss. “Basta registrare una clip e poi condividerla in un canale, consentendo ai colleghi di guardarla e rispondere quando vogliono. Inoltre, vengono automatizzati la trascrizione e l’indicizzazione del parlato, così come la sottotitolazione”. L’integrazione con altre componenti dell’offerta si concretizza innanzitutto con Commerce, per sincronizzare all’interno dello strumento qualunque modifica (lancio di una campagna, data di scadenza di una promozione, diminuzione o aumento degli indicatori di audience, vendite e così via), e allo stesso modo con Cms Experiences. Inoltre, la nuova componente Flow for Slack consente ad amministratori IT e sviluppatori di creare flussi di validazione end-to-end in modalità low-code (cioè senza la necessità di azioni di complessa programmazione), mentre App Builder for Slack permette di creare applicazioni che si sincronizzano con i dati di Salesforce. Al di fuori del mondo “Slack-centrico”, una novità è il servizio di streaming Salesforce+, che propone contenuti di formazione tramite il canale video, reportage, esperienze live, testimonianze di innovazione e altro. Il vendor, poi, ha annunciato di aver raggiunto le zero emissioni di CO2 e di utilizzare per le proprie operazioni il 100% di energie rinnovabili. R.B.
HP+, UNA SOLUZIONE SMART PER IL “NEW NORMAL”
In un periodo in cui l’elevata richiesta di stampa viene trainata da milioni di persone che lavorano e studiano da casa, la soluzione di HP modernizza l’esperienza d’uso e garantisce produttività e sostenibilità.
La crisi sanitaria del 2020-21 ha certamente trasformato le modalità di lavoro e di studio. Paradossalmente, nonostante la spinta alla digitalizzazione, molte attività richiedono ancora l’utilizzo di documenti stampati, spesso in ambiti lavorativi nel frattempo divenuti più remotizzati e destinati a restare tali, almeno in parte, anche in futuro. Per allineare al nuovo scenario anche le soluzioni di stampa, HP ha messo a punto HP+, soluzione che si propone di rendere più smart e flessibili i processi, in connessione diretta con il cloud. "HP+ rappresenta un passaggio fondamentale nell’esperienza del printing", ha dichiarato Rossella Campaniello, printing system business director di HP Italy. "Abbiamo riunito le nostre migliori innovazioni in ambito stampa in una soluzione smart dedicata ai professionisti e alle piccole imprese, che si compone di tre elementi chiave: un hardware leader di categoria rappresentato dalle nuove stampanti HP; HP Instant Ink, uno dei più diffusi servizi di approvvigionamento di materiali di consumo, che ora include il toner; e infine l'app di stampa fra le migliori del settore, ora nel cloud. Ciascuna delle componenti di HP+ è stata progettata per una migliore esperienza e per rispondere alle crescenti esigenze di chi si affida sempre di più alle proprie stampanti”. HP+ consente di lanciare stampe ovunque e da ogni luogo tramite l’applicazione HP Smart, senza la necessità di essere collegati alla stessa rete Wi-Fi della stampante. Grazie alla funzione Private Pick-Up è anche possibile programmare il processo e renderlo esecutivo, via Bluetooth, solo quando gli utenti interessati si trovino in prossimità del dispositivo di output. HP+ inoltre permette di rimanere connessi e in sicurezza grazie a nuove funzionalità per individuare e risolvere automaticamente problemi di connettività e rilevare e prevenire attacchi malware. La soluzione HP+ funziona solo con le nuove stampanti dell'azienda: dalla nuova serie HP LaserJet M200, vincitrice del premio Red Dot per il design, alle serie HP OfficeJet Pro 8000e e 9000e, DeskJet 2700e e 4100e e alle serie ENVY 6000e e 6400e. Altri dispositivi saranno aggiunti alla lista in futuro. Condizione indispensabile per accedere al servizio è disporre di un account HP, avere una connessione Internet e utilizzare cartucce originali HP. HP offre anche un secondo anno di garanzia commerciale sui dispositivi e sei mesi di abbonamento incluso ad HP Instant Ink, il servizio di approvvigionamento automatico dell’inchiostro e dei toner. Oltre alla richiesta di soluzioni basate sul cloud e di abbonamenti convenienti, gli utenti professionali hanno imparato a fare affidamento sulla “mobile-experience”. Con HP Smart App, che conta più di 48 milioni di utenti attivi mensili, si ha la possibilità di stampare e scansionare praticamente da qualsiasi luogo. Con HP+ si può usufruire delle funzioni HP Smart Advance, come la scansione avanzata, il fax mobile e le funzioni di produttività per 24 mesi, oltre ad accedere facilmente a Google Drive, Dropbox e altro ancora. A conferma dell’impegno di HP a favore dell’ambiente, le stampanti HP+ utilizzano cartucce e toner progettati secondo criteri di sostenibilità. Infine, HP promuove, ove disponibile, il riciclo closed-loop delle cartucce e inoltre converte sempre le cartucce d'inchiostro usate per crearne di nuove.