39 minute read

IN EVIDENZA

l’analisi

LAVORI IN CORSO PER IL METAVERSO

Possiamo scommettere che una delle parole chiave del 2022 sarà metaverso. Non soltanto perché questo termine l’ha usato recentemente Mark Zuckerberg per descrivere la propria idea del futuro dei social network (per poi annunciare, a fine ottobre, il cambio di ragione sociale della sua azienda da Facebook a Meta). Ma anche perché altri colossi tecnologici, come Microsoft e Nvidia, stanno lavorando per costruire un’offerta di software e servizi di realtà aumentata e virtuale. Dove sta la novità, se queste tecnologie sono disponibili sul mercato da anni? In effetti la novità è soprattutto concettuale, sebbene nella costruzione del metaverso siano fondamentali anche tecnologie come i processori grafici, i visori, la computer vision, i sistemi di comprensione del linguaggio naturale e in generale il machine learning. Le società digitali oggi spingono per allargare i confini della realtà aumentata e virtuale, per farla uscire dalla nicchia dei videogiocatori altospendenti e delle applicazioni verticali (ingegneria, edilizia, logistica, chirurgia e altri settori che impiegano gli smart glasses). Nelle intenzioni di Zuckerberg, il metaverso toccherà ogni prodotto realizzato dalla sua azienda, dunque non solo di Facebook, e potrà essere fruito attraverso telefoni e Pc ma anche occhiali di realtà aumentata e visori di realtà virtuale. Il Ceo si dice convinto che in futuro potremo “trasportarci istantaneamente, in forma di ologrammi” in ufficio, a un concerto o a casa dei nostri genitori. All’interno di questa dimensione sarà possibile fare di tutto, incontrarsi con gli amici o lavorare, studiare o giocare, fare acquisti o realizzare progetti creativi. Sarà un modo diverso di fare cose già note (come guardare la Tv online, videogiocare o trovarsi con i colleghi in videoconferenza) ma anche per vivere esperienze totalmente nuove. A tal fine non basterà aggiungere la terza dimensione, creando scenari immersivi fruibili con la vista e con l’udito: servirà anche il tatto. I laboratori di ricerca e sviluppo di Facebook stanno mettendo a punto un prototipo di guanto robotico con tecnologia aptica, che associato a visori potrà consentirci di “manipolare” il mondo digitale. Con elevato realismo potremo giocare una partita a scacchi con un avversario che sta dall’altra parte del mondo, o semplicemente scrivere su una tastiera virtuale sentendo il peso e il “click” di pulsanti immateriali. Per Meta, queste e altre possibilità aprono infiniti scenari di monetizzazione tramite pubblicità. Per Microsoft, invece, il metaverso sarà “una nuova versione o una nuova visione di Internet, nella quale le persone si trovano per comunicare, collaborare e condividere attraverso una presenza personale virtuale su qualsiasi dispositivo”, ha spiegato John Roach, Cto Digital Advisory Services dell’azienda di Redmond. Il primo passo sarà l’esordio di nuove funzionalità all’interno di Microsoft Teams: sarà possibile, per esempio, partecipare a una videoconferenza attraverso un avatar e si potranno creare degli spazi virtuali per gli incontri di lavoro. Microsoft è convinta che queste modalità possano servire a rendere più coinvolgente, empatica e produttiva la comunicazione. Altra declinazione del metaverso è quella di Nvidia, che sta portando nuove funzioni di realtà virtuale e simulazione in Omniverse, una piattaforma di digital twin per grafici, creativi, architetti, ingegneri, progettisti e sviluppatori software. Una delle nuove applicazioni introdotte permette di creare avatar tridimensionali interattivi, che oltre a muoversi nello spazio digitale possono anche vedere, ascoltare e parlare. Forse però non abbiamo ancora visto nulla e fra qualche mese o anno, quando anche Apple sarà scesa in campo con i suoi (chiacchierati e attesi) visori di realtà aumentata, le frontiere tecnologiche si sposteranno ancora. Le ultime indiscrezioni suggeriscono che arriveranno a fine 2022. Intanto resta un dubbio: abbiamo veramente bisogno del metaverso? Quanto è desiderabile rendere ancora più digitali le nostre vite, già provate dalle ripetute esperienze di isolamento dei lockdown? Forse la prospettiva di una dimensione digitale immersiva, parallela a quella tradizionale di Internet, è desiderabile se questo luogo sapremo frequentarlo a piccole dosi, per attività specifiche e circoscritte. Anche a costo di deludere Mark Zuckerberg.

Valentina Bernocco

IL CHIP CRUNCH CONDIZIONA ANCORA L’INDUSTRIA

Anche quest’anno lo squilibrio tra domanda e offerta di componenti ha rallentato i mercati tecnologici. Ma i produttori non restano a guardare.

Per l’ecosistema della supply chain di semiconduttori sta per chiudersi un altro anno di difficoltà. Impegnativo per i fornitori, che hanno faticato e ancora faticano a star dietro alla domanda di componenti; e soprattutto per le aziende che vendono prodotti finiti, costrette a rivedere la tabella di marcia dei nuovi lanci o a ridurre le quantità inizialmente previste. Il fenomeno della penuria di semiconduttori, già ribattezzato chip crunch, affligge in modo particolare il settore automobilistico ma i suoi effetti sono evidenti anche nei mercati dell’informatica e della telefonia mobile. Sull’andamento delle vendite di Pc (che nel terzo trimestre del 2021 calano dell’1,9% a volume, anno su anno, stando ai dati di Canalys) pesano anche altre dinamiche, come la parziale saturazione della domanda dopo la corsa agli acquisti del 2020. Riflessi evidenti del chip crunch si osservano soprattutto sulla telefonia mobile: certifica Gartner che il numero di smartphone messi in commercio nel terzo trimestre, 342 milioni, segna un calo del 6,8% anno su anno. “Nonostante una forte domanda da parte dei consumatori, le vendite sono calate per via dei ritardi nei lanci dei prodotti, di consegne rallentate e di un inventario insufficiente nel canale”, ha commentato Anshul Gupta, direttore della ricerca senior di Gartner. “Le difficoltà di fornitura hanno impattato sui ritmi di produzione degli smartphone basilari e utility più che sui modelli premium”. Nemmeno Apple è immune dal problema: durante una earnings call con gli analisti recentemente Tim Cook ha ammesso che la penuria di componenti “al momento sta condizionando sostanzialmente la maggior parte dei nostri prodotti”, con un impatto stimato di circa 6 miliardi di dollari sui ricavi trimestrali. Gli attori del mercato non se ne stanno certo con le mani in mano. Intel ha annunciato di voler spendere circa 80 miliardi di dollari nel corso di un decennio per realizzare in Europa nuovi impianti produttivi di chip, soprattutto destinati al mercato automobilistico. Altri due grandi proprietari di fonderie, cioè Tsmc (Taiwan Semiconductor Manufacturing Company) e Sony, hanno invece scelto di unire le forze e gli investimenti (7 miliardi di dollari) per realizzare in jointventure un nuovo impianto produttivo in Giappone. E Tsmc ha pianificato, da solo, un colossale investimento da 100 miliardi di dollari per potenziare la propria capacità produttiva da qui a tre anni. In base agli annunci fatti da Samsung, dalle sue fabbriche potrà uscire nel 2026 una quantità di componenti tripla rispetto alla capacità detenuta nel 2017. Rischieremo, dopo il chip crunch, un nuovo disequilibrio di segno opposto, dominato da un eccesso d’offerta? Difficile prevederlo, ma la continua e progressiva digitalizzazione di tutte le attività umane lascia facilmente immaginare che in futuro ci sarà sempre più bisogno di componenti elettronici. L’industria dei semiconduttori, scrive Idc, “continuerà a sforzarsi di trovare un nuovo equilibrio tra i diversi segmenti di mercato, mentre gli investimenti in capacità miglioreranno la resilienza del settore nel giro di qualche anno”. A fare da traino, nel futuro immediato, sarà una prolungata e solida crescita di domanda per componenti destinati a computer, server, automobili e piattaforme 5G. Anche i data center che erogano servizi cloud continueranno espandersi, contribuendo alla crescita del mercato. V.B.

Foto di Michael Schwarzenberger da Pixabay

RSA IN CERCA DI INNOVAZIONE, OLTRE L'EMERGENZA COVID

Uno studio realizzato da Ipsos e Ascom Ums evidenzia le carenze (anche tecnologiche) delle strutture di assistenza e cura agli anziani italiane. I fondi del Pnrr potrebbero rappresentare un punto di svolta.

Il covid-19, specie nella fase acuta della pandemia nel 2020, ha creato nelle Rsa difficoltà e pressioni fuori dalla norma. Ma ha anche scoperchiato carenze storiche ed elementi critici preesistenti, che limitano le potenzialità di trasformazione digitale delle strutture di assistenza e cura agli anziani. Oggi, però, i fondi del Pnrr (Piano Nazionale di Ripresa e Resilienza) potrebbero costituire la base per un’evoluzione che fa leva sul digitale. Da una ricerca realizzata da Ipsos con il supporto di Ascom Ums, specialista di soluzioni tecnologiche per il mondo sanitario, emerge un quadro variegato delle Rsa italiane, polarizzate fra grandi gruppi e piccole realtà e concentrate soprattutto al Nord. In assenza di un’anagrafe nazionale univoca su queste strutture, i ricercatori hanno realizzato una prima analisi desk per incrociare le fonti disponibili (Istat, ministero della Salute e Garante nazionale dei diritti delle persone private della libertà personale) e tracciare uno scenario di riferimento: ne è emerso che le strutture operanti in Italia sono circa 3.300, per un totale di circa 300mila posti letto. Il 54% degli ospiti ha un’età superiore a 65 anni e il 79% non è autosufficiente. Ipsos e Ascom Ums hanno poi analizzato un campione qualitativo di quattordici realtà, suddivise equamente tra soggetti di dimensione grande e piccola. I primi raccolgono dalle dieci alle 65 strutture, ciascuna della quali offre dai 30 ai 200 posti letto. Le seconde hanno numero e offerta di servizi più limitati (al massimo centri diurni e assistenza domiciliare). In uno scenario molto differenziato, è emerso che gli strumenti di comunicazione unificata e di analisi dei dati (chiamate di allarme, tempi di intervento) sono tra i più diffusi, mentre c’è forte carenza di soluzioni per la sicurezza del paziente e del personale, così come di sistemi di monitoraggio e integrazione della cartella clinica. “Abbiamo riscontrato la sostanziale assenza di soluzioni tecnologiche per il controllo delle funzioni vitali dei pazienti”, ha commentato Francesco Deventi, sales director di Ascom Ums. “Ciò deriva dal retaggio di un mandato considerato fondamentalmente assistenziale più che sanitario. Il covid-19, tuttavia, ha fatto crescere

Francesco Deventi il livello di attenzione, poiché i pazienti positivi necessitano di un monitoraggio costante dei parametri e al contempo è necessario un controllo più esteso per intercettare tempestivamente eventuali primi sintomi. L’integrazione con la cartella clinica elettronica solleverebbe gli operatori da parte del carico assistenziale”. Un’altra tecnologia di rilievo riguarda i sistemi di chiamata infermiere, resi obbligatori dalle norme di accreditamento. I grandi gruppi hanno messo in luce i vantaggi del software a livello gestionale, per monitorare la richiesta assistenziale dei vari nuclei, prevedere interventi mirati su ospiti con maggiore richiesta assistenziale e verificare l’operato in termini di tempi di intervento. Scarsamente presenti e ritenuti poco utili, invece, sono i sistemi di rilevazione dell’allontanamento dalla struttura.

Ostacoli e opportunità

Guardando avanti, anche nelle Rsa sarebbe auspicabile un processo di trasformazione digitale, che però oggi cozza contro diverse barriere, a partire dai costi e dalla necessità di rivedere i processi organizzativi. “La connessione a Internet è considerata il primo step del cambiamento”, ha osservato Deventi, “ma si tratta di un aspetto percepito come problematico per le caratteristiche strutturali o la localizzazione di alcune strutture,

Foto di JESHOOTS.COM di Unsplash

la frammentazione territoriale per i grandi gruppi e i tempi di intervento delle compagnie telefoniche”, Nel settore delle Rsa sono emerse, in ogni caso, alcune delle stesse dinamiche che hanno caratterizzato altri ambiti della società e realtà lavorative. Il covid-19 ha portato a un incremento nell’uso delle tecnologie da cui difficilmente si tornerà indietro. Anche qui si è stato sperimentato lo smart working per il personale amministrativo e le videochiamate (per lo più tramite tablet) hanno consentito una forma di contatto tra ospiti e familiari. Più raro l’effetto derivato da consulenze specialistiche e refertazioni offerte in remoto. Ora, nello scenario “next normal”, le Rsa si confrontano con necessità più stringenti. La carenza di personale soprattutto infermieristico richiede di poter ottimizzare i processi di assistenza e cura, mentre soprattutto per effetto della pandemia è cresciuta la consapevolezza di dover garantire un intervento tempestivo in caso di bisogno e di dover offrire modalità nuove di relazione tra l’ospite e i suoi familiari. L’aumento delle spese dovuto al covid-19 e le mancate entrate derivanti dal calo degli accessi costituiscono un deterrente sulla strada della trasformazione digitale, ma i fondi del Pnrr potrebbero rappresentare una leva positiva, anche perché le linee guida del piano nazionale suggeriscono un ridisegno organizzativo e strutturale delle Rsa, che dovranno avvalersi della tecnologia per essere accompagnate in questo percorso. “Ci sono diversi ambiti nei quali la tecnologia può sostenere un percorso di innovazione”, ha concluso Deventi. “Dalla telemedicina alla gestione remotizzata di servizi e chiamate, si aprono opportunità per raggiungere la resilienza che purtroppo è mancata dinanzi alla crisi pandemica”.

Roberto Bonino

TELEMEDICINA

PER UNA SANITÀ PIÙ EFFICACE

All’interno della “Missione 5” del Pnrr, dedicata a “Coesione e inclusione”, circa 300 milioni di euro sono destinati a finanziare la riconversione delle Rsa e delle case di riposo per gli anziani in gruppi di appartamenti autonomi, dotati delle attrezzature necessarie e dei servizi attualmente presenti nel contesto istituzionalizzato. La digitalizzazione dei servizi rientra tra gli obiettivi citati nel testo del Pnrr, dove in particolare si sottolinea: “Elementi di domotica, telemedicina e monitoraggio a distanza permetteranno di aumentare l’efficacia dell’intervento, affiancato da servizi di presa in carico e rafforzamento della domiciliarità, nell’ottica multidisciplinare, in particolare con riferimento all’integrazione sociosanitaria e di attenzione alle esigenze della singola persona”. La telemedicina, come esplicitato nel testo del Pnrr, può intervenire in qualsiasi fase del percorso di prevenzione e cura (attraverso servizi di tele-assistenza, tele-consulto, tele-monitoraggio e tele-refertazione) e rappresenta un “formidabile mezzo” per contribuire a ridurre gli attuali divari geografici e territoriali nei servizi sanitari e assistenziali e nella promozione dell'assistenza domiciliare.

l’intervista LENOVO SCENDE IN CAMPO A FIANCO DELL’INTER

I vincitori dell’ultimo scudetto della Serie A fanno leva su un’infrastruttura avanzata di server e storage per analizzare le prestazioni dei giocatori e per gestire un grande volume di dati multimediali.

Non c’è dubbio che dietro ai successi dell’Inter ci sia il lavoro dell’allenatore e dei giocatori schierati in campo, ma c’è anche l’apporto dello staff tecnico, che in parte fa leva sull’utilizzo della tecnologia. La società nerazzurra non solo veste maglie sponsorizzate Lenovo, bensì con il vendor ha avviato una collaborazione che l’ha portata ad adottare alcune delle sue soluzioni più avanzate per supportare il lavoro di tutte le squadre impegnate nei vari campionati (la Serie A maschile, quella femminile e le varie competizioni giovanili) e per gestire in modo innovativo il rapporto con la tifoseria. L’archiviazione e l’elaborazione dei dati sono il punto di partenza per creare esperienze di fidelizzazione in cui la componente emotiva è centrale. Per conoscere meglio che cosa si muova dietro le quinte tecnologiche di una società di calcio, abbiamo incontrato l’head of information system dei campioni d’Italia, Lorenzo Antognoli, e Alessandro De Bartolo, amministratore delegato & country manager Infrastructure Solutions Group di Lenovo Italia.

Che peculiarità ha l’IT in un contesto particolare come quello calcistico? Antognoli: La nostra attività si declina in tre ambiti distinti. Accanto a quello amministrativo, tipico di ogni azienda, lavoriamo a stretto contatto con gli staff tecnici per l’attività strettamente sportiva e ci occupiamo anche della produzione e distribuzione di contenuti multimediali indirizzati ai nostri fan. Per quanto riguarda il contesto strettamente calcistico, l’IT fornisce strumenti a quella che viene definita football analysis, ovvero un insieme di processi di analisi delle prestazioni individuali e collettive dei giocatori, che produce actionable insight di supporto soprattutto alla definizione dei programmi di allenamento e di preparazione alle partite. Diverse fonti contribuiscono alla generazione delle analisi, spaziando dalle registrazioni video ai dispositivi IoT utilizzati soprattutto negli allenamenti. Tutto confluisce in un repository, dove appositi algoritmi ci aiutano a mantenere la qualità dei dati e ad arricchirli fino a comporre insiemi di Kpi, che vengono messi a disposizione degli staff tecnici sotto forma di report, ma anche con formulazioni in linguaggio naturale. A questo si aggiunge il fatto che Inter possieda una media house, la cui funzione essenziale è amplificare quello che avviene sul campo di calcio ed estendere così oltre i 90 minuti l’esperienza del tifoso, soprattutto al di fuori dello stadio. La produzione media è estremamente ricca sia di immagini sia di video, per cui occorre un lavoro di analisi e arricchimento basato su metadati che rendano ogni singolo item facile da ricercare o raggruppare.

Che tipo di infrastruttura serve per poter gestire al meglio dati così eterogenei? De Bartolo: Dobbiamo necessariamente combinare alte capacità di calcolo e semplicità infrastrutturale, garantendo flessibilità tanto nella gestione quanto nell’evoluzione dell’infrastruttura. Per questo abbiamo implementato le soluzioni iperconvergenti ThinkAgile Hx, fra le più evolute della categoria. Per quanto riguarda la gestione dei dati, ci siamo orientati sui sistemi nel ThinkSystem Dm 7000 H, aperti al dialogo con componenti interne o esterne alla società, ma anche scalabili per sostenere il carico legato alla produzione media.

Antognoli: Per le nostre attività di marketing di contenuto, oggi disponiamo di oltre 50mila ore di videoclip e di oltre un milione di immagini che risiedono sulle tecnologie Lenovo. L’esigenza di capacità cresce al ritmo di circa 1,5 terabyte alla settimana e prevediamo di raggiungere rapidamente un volume totale superiore al petabyte (un milione di gigabyte, ndr). Sul lato della produzione media dobbiamo necessariamente rimanere on-premise, perché le dimensioni dei singoli file non si prestano a trasferimenti in maniera nativa verso il cloud, mentre i sistemi devono risiedere in prossimità del luogo di produzione dei contenuti.

Quali tecnologie vi aiutano a elaborare grandi quantità di dati? Antognoli: L’ingestione avviene da fonti eterogenee sia di tipo esterno sia interne, con granularità differenti. Questa massa confluisce verso lo storage, dove al momento è ospitato un data warehouse, ma in prospettiva pensiamo di evolvere verso un data lake. Qui, con il lavoro di un data scientist e il supporto del machine learning, i dati vengono arricchiti per dedurne dei Kpi, poi inseriti in sistemi di reportistica distribuiti sui tablet dello staff tecnico. Sul versante marketing, per la componente multimediale disponiamo di un sistema di media asset management, che raccoglie direttamente ciò che arriva dai dispositivi di cattura di immagini e video. L’interazione con l’intelligenza artificiale ci consente di realizzare un tagging automatico utile per far sì che ogni file sia facilmente ricercabile per situazioni di gioco, giocatore, elementi grafici di vario tipo.

Come si declina per l’Inter il concetto di customer experience? Antognoli: Noi lavoriamo per costruire un ecosistema digitale che esca dai canoni ordinari dei funnel di conversione. Da noi la componente emotiva è importante, per cui vogliamo creare le condizioni per erogare contenuti sempre più specifici e tailor-made in funzione dei segmenti di tifosi e appassionati, moltiplicando i touchpoint e caratterizzandone ognuno per esperienze verticali. Vogliamo offrire ai fan i contenuti che più stanno loro a cuore, sfruttando anche gli aspetti emotivi e capitalizzando sull’attualità e sull’urgenza di fruizione.

Qual è il ruolo del fornitore di infrastruttura e fino a che punto si estende anche alla consulenza sui progetti? De Bartolo: Questo secondo aspetto è certamente importante e caratterizzante per noi, ma soprattutto ci preoccupiamo di guardare al futuro, individuando come applicare le nuove tecnologie che sviluppiamo su clienti come Inter. Un esempio potrebbe essere quello delle modalità di applicazione dell’intelligenza artificiale o come migliorare l’utilizzo dell’edge computing. Poter lavorare nella logica dell’everything-you-need-as-a-service consente di essere meno vincolati alla pura scelta tecnologica, per ragionare invece congiuntamente sul raggiungimento degli obiettivi applicativi e di business.

Che cosa avete in programma per il futuro? Quali altre tecnologie intendete adottare? Antognoli: Sicuramente stiamo valutando l’ipotesi di utilizzare tecnologie edge per avvicinarci a un obiettivo di real time analytics nell'area sportiva, portando il più possibile la tecnologia in campo. Stiamo ragionando anche su una collaborazione sul fronte dell’intelligenza artificiale. Oggi siamo nelle condizioni in cui il machine learning ci aiuta a definire bene determinate situazioni e predirne altre, ma ci sono margini per poter acquisire conoscenze anche su aspetti fin qui meno considerati, per fornire informazioni più complete sulle dinamiche del campo.

Roberto Bonino

NELLA SICUREZZA, PREVENIRE È MEGLIO CHE CURARE

Nel 2021 Check Point ha assistito all’evoluzione quantitativa e qualitativa dei ransomware e del phishing.

Nel mondo i cyberattacchi sono cresciuti del 40% rispetto ai numeri del 2020. In Italia in media, negli ultimi sei mesi, un’azienda è stata colpita 964 volte a settimana: un dato ben più alto della media europea di 717 attacchi settimanali pro capite. Protagonista dell’anno è stato, ancora una volta, il ransomware: il numero di casi è più che raddoppiato rispetto ai livelli di inizio 2020. Sono alcune delle statistiche diffuse da Check Point Software Technologies, uno tra i più grandi operatori sul mercato della cybersicurezza, oggi presente nel mondo con oltre seimila dipendenti, una rete di oltre 6.200 partner distribuita in 88 Paesi e oltre 100mila clienti. “Il ransomware è il tipo di attacco che fa più clamore, e mai come quest’anno se ne è parlato”, ha commentato il country manager italiano della società, Marco Urcioli. “Ci sono però anche altre tipologie di malware: per esempio, l’Italia non brilla sui cryptomalware”. In media, sul totale degli attacchi settimanali rivolti verso un’azienda, in Italia i malware che estraggono criptovaluta hanno rappresentato il 4% nel 2021, dato superiore al 3,1% della media europea. Siamo sopra la media anche per quanto riguarda i programmi infostealer, che rubano credenziali, i malware bancari e le botnet (come mostrano i dati della tabella). In Italia 93% dei file malevoli inviati nel 2021 ha utilizzato come veicolo la posta elettronica, e anche questo dato è superiore di qualche punto percentuale alla media europea. Il 2021 è stato anche un anno di ascesa del phishing, attività veicolata soprattutto dalla posta elettronica e mirata al furto di informazioni monetizzabili e di credenziali. Nel terzo trimestre di quest’anno i nomi più abusati dai truffatori sono stati, nell’ordine, Microsoft, Amazon, Dhl, Bestbuy, Google, Whatsapp, Netflix, LinkedIn, PayPal e Facebook. “Per la prima volta, tre dei

Marco Urciuoli principali social network sono entrati nella classifica dei primi dieci marchi sfruttati dal phishing”, ha sottolineato Marco Fanuli, security engineer team leader, channel & territory di Check Point. “I siti Web linkati nei messaggi di phishing hanno un layout delle pagine praticamente identico a quelli dei siti orginari, quindi bisogna prestare attenzione alle piccolezze”. Di fronte ai vecchi e nuovi pericoli informatici, la strategia di Check Point è molto decisa: “Prevenire è meglio che curare, si diceva una volta”, ha spiegato Urcioli, “ed è un messaggio estremamente importante, che permea tutte le nostre soluzioni. Non significa che non si debba fare detection, ma fare prevenzione è più importante. Tutte le nostre soluzioni si preoccupano principalmente di fare prevenzione, cioè di tenere il malware al di fuori del perimetro da proteggere”. Il country manager ha ammesso che oggi parlare di perimetro è controverso, perché abbiamo assistito a un progressivo sgretolamento dei confini netti un tempo esistenti. Il cloud, la mobilità e la diffusione dello smart working hanno allargato i confini e allentato le separazioni fra “dentro” e “fuori”. Nella visione di Check Point, una strategia di protezione efficace deve quindi includere diversi elementi, tecnici e non tecnici: una prevenzione in tempo reale, la difesa di tutte le risorse aziendali (inclusi endpoint classici, dispositivi mobili, Internet of Things e ambienti cloud), l’agilità delle soluzioni (che devono agire in pochi click), il consolidamento e la visibilità, necessari per eliminare i “punti ciechi” della cybersicurezza. Non da ultimo, la formazione e l’educazione dei dipendenti affinché abbiano consapevolezza dei rischi. Ma anche i dirigenti aziendali e chi compie le scelte sugli acquisti tecnologici dovrebbero avere una adeguata consapevolezza. “Tra le aziende italiane gli investimenti in cybersicurezza stanno timidamente crescendo, ma ancora non abbastanza”, ha commentato Urcioli. V.B.

EMPLOYEE BENEFIT, UNA SCELTA DI VALORE PER LE AZIENDE

Per spiegare a imprenditori e dipendenti i reali vantaggi delle polizze vita è importante il ruolo degli intermediari, che possono diventare consulenti di fiducia.

C’è molta strada da compiere in Italia nell’ambito degli employee benefit, cioè i benefici e gli incentivi previsti dalle aziende per i propri dipendenti. Mentre sulle polizze sanitarie esiste un discreto grado di consapevolezza e di valore percepito, le polizze vita e infortuni non godono ancora della giusta considerazione né da parte di molti imprenditori né da parte degli stessi dipendenti. “Per farsi un’idea, basti pensare che il mercato delle sole polizze collettive di rimborso delle spese mediche in Italia nel 2020 valeva 2,2 miliardi di euro, mentre il valore delle polizze infortuni e delle polizze vita collettive, sommate tra loro, non arrivava Pierluigi Verderosa a due miliardi”, racconta Pierluigi Verderosa, Ceo e managing director di Elipslife, compagnia assicurativa fondata nel 2018 e che conta all’attivo oltre centomila soggetti assicurati. “Per di più”, prosegue Verderosa, “tali polizze nelle aziende italiane tendono a concentrarsi nella parte alta della piramide organizzativa, quindi sui dirigenti e sugli amministratori, lasciando scoperta la maggioranza dei dipendenti”. Lo scenario però sta cambiando, come confermato da Maurizio Primanni, Ceo di Excellence Consulting. “Finora il mercato dell’employee benefit in Italia si è sviluppato soprattutto sulle grandi aziende”, spiega Primanni, “ma i dati del Censis mostrano una crescita sulle aziende di fascia piccola e intermedia, cioè da dieci a cento dipendenti. In questa fascia attualmente il tasso di diffusione è del 20% ma a cinque anni si prevede di arrivare al 40%-50%”. Nel 2020 la pandemia di covid ha evidenziato a livello planetario la possibilità di eventi imprevisti e imprevedibili, che generano impatti drammatici sull’intera società ma anche sulle aziende. Inoltre si sta finalmente affermando una sensibilità ambientale che, associata agli incentivi economici per la transizione ecologica, potrà spingere le aziende a compiere investimenti sostenibili secondo i criteri Esg (Environmental, Social and corporate Governance). L’elemento ambientale è spesso quello sotto ai riflettori, ma la componente Social non va trascurata ed è chiaramente legata agli employee benefit, che possono garantire ai dipendenti una maggiore sicurezza economica e personale. C’è poi un terzo elemento da considerare: per attrarre e trattenere in azienda i migliori talenti, bisognerà smuovere leve differenti dalla semplice remunerazione, offrendo dei programmi di welfare completi. Dunque esiste in Italia un grande potenziale di crescita per gli employee benefit, considerando che il mercato oggi è stato saturato solo in piccola parte e considerando i cambiamenti normativi e culturali in corso. Sarà però importante, per rimuovere gli ostacoli rappresentati da una percezione distorta e poco informata, il ruolo degli intermediari: a loro spetta il compito di portare alle aziende (cioè agli imprenditori innanzitutto e in secondo luogo ai dipendenti) delle informazioni facilmente comprensibili, corrette e trasparenti. “L’intermediario e la compagnia”, aggiunge Verderosa, “non hanno finito il lavoro quando ha fatto sottoscrivere un contratto, ma possono anche aiutare l’impresa a spiegare ai dipendenti il valore di quella polizza”. Gli intermediari del mercato assicurativo, in altre parole, possono diventare per le imprese dei consulenti di fiducia. Questo è anche l’approccio scelto da Elipslife: la compagnia si è impegnata a raddoppiare, da qui al 2025, la propria rete di partner e a trasformarli in consulenti capaci di proporre alle aziende dei piani assicurativi personalizzati.

your insurance

UN VIRTUAL TWIN PER LIBERARE LA CREATIVITÀ

Il concetto di digital twin si evolve per favorire la collaborazione e le simulazioni. L'opinione di Guido Porro, direttore generale e vicepresidente Sud Europa di Dassault.

In un recente studio, Accenture ha esposto numeri impressionanti collegati al concetto di virtual twin: se industrie, governi e società implementassero questa logica nello sviluppo dei progetti, si otterrebbero benefici pari a un valore economico di 1.300 miliardi di dollari e si eviterebbe l’emissione di 7,5 miliardi di tonnellate di CO2 da qui al 2030. L’idea di virtual twin è stata sviluppata da Dassault Systemes ed è per questo che abbiamo chiesto a Guido Porro, direttore generale e vicepresidente Sud Europa dell’azienda, di spiegare meglio che cosa significa e quali vantaggi può comportare.

Come si è evoluto nel vostro contesto il concetto di virtual twin? Com’è noto, il digital twin nasce con l’idea di replicare un ambiente per ragioni soprattutto di sperimentazione e simulazione in contesti industriali e urbani. La nostra idea è di andare oltre questo e introdurre il tema fondamentale della collaborazione in un contesto virtualizzato. Chi adotta questa logica, e la piattaforma 3d Experience che la supporta, vuole far lavorare a stretto contatto tutte le figure che concorrono alla realizzazione di un prodotto o servizio, tramite un linguaggio comune comprensibile da tutti ma declinato nelle specificità di ogni ambito professionale. Per fare un esempio, uno stesso sviluppo di prodotto sarà visualizzato da uno specialista di fluidodinamica per la verifica della reazione a particolari condizioni di stress e dal controller dei costi nella scomposizione di tutte le voci che stanno concorrendo alla realizzazione. Allo

Guido Porro

stesso tempo, la collaborazione agisce sia in modo strutturato sia al suo opposto, seguendo in parallelo le logiche tipiche di un processo estremamente formalizzate derivanti dal Plm (Product Lifecycle Management, ndr) e quelle più casuali della conversazione alla macchinetta del caffè, che però aprono la via alla vera creatività.

Qual è l’anello di congiunzione fra questi due mondi? La chiave di volta è rappresentata dalla simulazione, che consente per esempio di capire come un prodotto potrà essere utilizzato, ricostruito, reingegnerizzato e magari anche riutilizzato in logica di circolarità. Dalla statica divisione dei prodotti passiamo a qualcosa di più dinamico, dove tutti lavorano sullo stesso manufatto. Fondamentale è pensare alla rivoluzione della prototipazione. Quella tradizionale, fisica, è costosa e non lascia troppo spazio agli errori, mentre in un contesto virtuale un progetto può essere modificato anche centinaia di volte nella stessa giornata e con velocità molto superiori. Sbagliare qui è possibile, quasi consigliabile per imparare e lasciare spazio alla creatività, superando la logica punitiva tipica della sperimentazione tradizionale.

Quali sono gli ambiti di applicazione più promettenti? Oltre al settore manifatturiero, soprattutto per prodotti di tipo complesso, possiamo pensare per esempio al farmaceutico, dove si può lavorare sulle molecole per l’ingegneria di nuovi materiali ma anche per la sperimentazione di nuovi vaccini, tant’è che il 60% di quelli anti covid in circolazione è stato sviluppato sulla nostra piattaforma. Dimensionalmente sul lato opposto si colloca l'applicazione nel contesto delle smart city, dove il virtual twin può essere utilizzato per progettare strade, reti fognarie, quartieri, edifici, servizi logistici, reti elettriche e di comunicazioni. Un caso concreto è rappresentato dalla città di Singapore.

E in Italia quali sono le prospettive? Noi abbiamo una tradizione molto significativa nell’ambito della gestione degli asset lineari, per cui ci sono ambiti di applicazione già avanzati, per esempio nel campo energy & material, in quello delle costruzioni e nell’architettura. Questa è una fase importante da sfruttare grazie alle opportunità fornite dal Pnrr. Elemento chiave è la possibilità di legare il controllo operativo alle grandi cabine di regia dei progetti, misurando costantemente gli stati di avanzamento, l’impatto sui Kpi e la declinazione di iniziative future secondo la logica del miglioramento continuo. R.B.

I DIPENDENTI PREFERISCONO IL LAVORO FLESSIBILE

Una ricerca condotta da Jabra a livello mondiale rivela che la possibilità di operare da remoto è più apprezzata di un aumento di stipendio.

Non è più il “vil denaro” la motivazione principale per lavorare. O quantomeno, questo è emerso dal “Jabra Hybrid Ways of Working 2021 Global Report”, ricerca condotta a livello mondiale su oltre cinquemila professionisti. Il lavoro flessibile è stato indicato dal 59% degli intervistati come il beneficio più ricercato, ancor prima dello stipendio. Non è un mistero che flessibilità e autonomia nella gestione della giornata lavorativa siano state due scoperte recenti, favorite dalla pandemia e dai conseguenti lockdown, ma che la dimensione del fenomeno fosse così importante forse non era così scontato. Il report di Jabra ha anche messo in luce che i tre quarti degli intervistati (73%) credono che in futuro avere uno spazio per l'ufficio sarà considerato un benefit per i dipendenti, piuttosto che una condizione obbligatoria per lavorare. I dipendenti sono maggiormente propensi a richiedere più giorni di presenza in ufficio (tre o più a settimana) soprattutto se la loro azienda non ha messo in atto le corrette pratiche per la transizione al lavoro da remoto durante la pandemia. Impiegati e manager hanno però visioni differenti. Tre dipendenti su quattro sono preoccupati per il lavoro ibrido, in gran parte a causa delle scarse pratiche di comunicazione sul tema, e solo il 20% pensa che l’azienda sia molto preparata per l’operatività da remoto. Più della metà (52%) ha anche ammesso che preferirebbe operare da casa ma teme la propria carriera ne possa risentire a lungo termine. C’è anche un chiaro divario tra la chi rappresenta il livello più elevato di responsabilità manageriale e gli altri dipendenti quando si tratta di preparazione al lavoro ibrido. I lavoratori sottoposti sono per l’11% più propensi, rispetto ai manager, ad affermare che le loro aziende non fossero per nulla preparate per il passaggio al modello ibrido. Solo il 53% dei dipendenti pensa che l’azienda oggi sia pronta, rispetto al 74% dei manager di più alto profilo. Inoltre la maggior parte, il 65%, vorrebbe avere la libertà di stabilire il proprio orario di lavoro (mentre solo il 35% è felice di mantenere il turno canonico). Il 61% dei dipendenti preferirebbe che il management permettesse loro di andare in ufficio quando necessario e di stare in telelavoro quando ne hanno bisogno. Guardando al futuro, il 75% dei professionisti vorrebbe poter essere attivo da qualsiasi luogo. Da tutto questo deriva che oggi, per le aziende, avere la giusta tecnologia è più importante di uffici in posizioni privilegiate quando si tratta di attrarre e trattenere i talenti. Più di otto intervistati su dieci (84%) pensano che la tecnologia possa aiutare tutti i dipendenti ad avere “uguale accesso alle opportunità sul lavoro", e l’80% preferirebbe lavorare per un ’azienda che investe in tecnologia per collegare meglio le risorse professionali in un futuro ibrido. Gli strumenti di collaborazione hanno bisogno di adattarsi per permettere alle persone di trasformare qualsiasi spazio in un ambiente professionale, mentre la tecnologia precedente progettata per il vecchio telelavoro non è più adatta allo scopo. Disponibili da qualche settimana in Italia, le cuffie Jabra Evolve2 75 tentano di rispondere proprio alle esigenze di flessibilità ed efficienza richieste da chi lavora e auspicabili ovviamente anche per le aziende. In questa versione l’ergonomia è stata migliorata grazie a padiglioni auricolari in similpelle e a un design a doppio cuscino per aumentare la ventilazione e ridurre la pressione sull’orecchio. La curvatura e l’imbottitura dell’archetto sono calibrate per garantire che la cuffia rimanga saldamente in posizione. La tecnologia a otto microfoni delle cuffie funziona con un algoritmo Jabra basato su triplo chipset, per distinguere la voce dal rumore circostante in modo ancora più cristallino. Ottimizzate per tutte le principali piattaforme di Unified Communications, le Evolve2 75 hanno anche capacità di cattura dei dati in modo che i reparti IT possano analizzare il funzionamento dei dispositivi per ottimizzarlo e operare una sorta di manutenzione preventiva.

HEALTHCARE: LA RISPOSTA AI REQUISITI DEI SISTEMI RIS/PACS

Un’efficiente gestione dei dati è essenziale per migliorare i servizi erogati dalle strutture sanitarie ai pazienti. Velocità e qualità dello storage fanno la differenza.

Alla luce di quanto accaduto, in modo particolare, in questi ultimi due anni, i progetti legati al mondo sanitario devono essere improntati all’innovazione, poiché impattano sulla vita quotidiana di tutti. I temi dell’affidabilità infrastrutturale e del livello di servizio applicativo appaiono particolarmente sentiti e critici per questa tipologia di soggetti. Non a caso, come riportato da alcuni siti governativi americani, le massime priorità IT in ambito medicale riguardano la qualità dei dati, la loro sicurezza, la garanzia di accesso e lo sfruttamento al fine di garantire il miglior servizio per il paziente. Anche Idc spiega come i connotati di efficienza, riduzione dei costi e sistemi di supporto alle decisioni siano diventati critici in ambito medicale. Fino a qualche anno fa la componente storage, in particolar modo in ambito Ris/Pacs (ovvero dei sistemi informativi radiologici e della gestione di immagini diagnostiche) era vista come un “male necessario” e votata esclusivamente all’archiviazione. Tuttavia, nel corso degli anni i requisiti infrastrutturali dei software più diffusi sono aumentati significativamente in ogni progressiva release e sono state aggiunte soprattutto caratteristiche di indicizzazione massiva e data analytics. A questo si aggiunga anche la superiore qualità delle immagini e dei dati storicizzati, che ormai devono essere accessibili velocemente e in qualsiasi momento. Per questo motivo, l’occupazione media di un sistema di gestione immagini medicali si misura in centinaia di terabyte di spazio e questo richiede oggi l’impiego di sistemi storage full flash, poiché più l’infrastruttura è veloce e più celermente i dati possono essere archiviati e richiamati in caso di analisi della cartella clinica del paziente. Finora ciò che ha bloccato l’introduzione di componenti tecnologicamente avanzate è stato soprattutto l’elevato costo per terabyte. Oggi però Pure Storage, grazie alla piattaforma Umberto Galtarossa FlashArray//C, permette di abbattere drasticamente questo valore, offrendo agli ambienti Ris/ Pacs una soluzione basata su tecnologia Flash

Nvme. Questo permette al personale medico di avere accesso ai dati in millesimi di secondo e agli specialisti IT di consolidare centinaia di TB in poche unità rack, con un consumo di energia inferiore a 2 kilowattora.

Un altro problema che impatta sulla struttura IT è relativo alla gestione dei refresh infrastrutturali. È infatti impensabile gestire complesse migrazioni di dati ogni quattro o cinque anni solo per aggiornare la tecnologia, perché ciò comporta downtime e tempi misurabili in settimane o mesi da dedicare a queste operazioni. Pure Storage risolve il problema grazie alla tecnologia infrastrutturale e al programma Evergreen. In pratica, ora è possibile sostituire le componenti hardware senza creare disservizio, trasformando lo storage esistente in una soluzione di nuova generazione, ma evitando all’IT complesse migrazioni e garantendo al personale medico la disponibilità del servizio. L’infrastruttura in ambito medicale è a diretto supporto dell’ospedale e dei pazienti, per cui necessita del massimo livello di servizio e di sicurezza. Le richieste di performance applicative si fanno più pressanti e i dati crescono a doppia cifra anno su anno. Pure Storage possiede la risposta per offrire massima velocità applicativa, grazie alla tecnologia flash

Nvme, evitando complesse migrazioni dati e abbattendo i costi di gestione e di alimentazione/raffreddamento all’interno del data center.

Umberto Galtarossa, partner technical manager di Pure Storage Italy

OMNICANALITÀ E PERSONALIZZAZIONE ORIENTANO IL RETAIL

Gli analytics, l’intelligenza artificiale, l’automazione, ma anche l’attenzione alle relazioni: così si trasforma il settore del commercio in Italia.

Nel retail probabilmente il principale pilastro della trasformazione digitale è la cosiddetta omnichannel customer experience. Riprendiamo una citazione della professoressa Stefania Saviolo, lecturer del Dipartimento di Management e Tecnologia dell’Università Bocconi, consigliere indipendente e advisor: “Mettere le firma significa progettare e gestire l’esperienza sia come arte sia come scienza. Le aziende dovrebbero creare il customer journey così come fanno con i prodotti, iniettando creatività e il loro tocco speciale in tutti i rilevanti punti di contatto”. Si sottolinea la necessità, per i brand, sia di firmare il contenuto creativo dell’esperienza, basato sui valori del marchio, sia di far leva sul valore dei dati che si possono raccogliere dai diversi touchpoint e quindi sugli analytics. I brand dovrebbero innanzitutto semplificare l’esperienza dei consumatori per tutto ciò che è transazionale, come ricerca del prodotto, gestione del carrello fisico o virtuale, pagamenti, risposta celere a un customer service, eccetera. In secondo luogo, devono garantire esperienze differenziate per cluster/personas di cliente in funzione delle preferenze, degli acquisti, dei percorsi di navigazione, eccetera. Tali esperienze differenziate sono gestibili anche con architetture tecnologiche sofisticate ed automatizzate, come data lake, customer data platform, sistemi Crm o di marketing automation. Dovrebbero, d’altra parte, customizzare in logica one-to-one alcune esperienze “speciali”, mettendo a disposizione della risorsa che gestisce la relazione (il commesso in ne-

Marco Di Dio Roccazzella gozio, l’addetto al customer care) i dati delle preferenze del singolo consumatore: in questo modo l’esperienza può essere curata al massimo livello di dettaglio e iper-personalizzata. Un esempio è l’adozione degli strumenti di clienteling su smartphone o tablet, utilizzati nelle boutique di moda da cui il sales associate può verificare preferenze, profilo, taglia e acquisti precedenti di un cliente oppure mostrare la nuova collezione. Ma come si può, in un customer journey omnicanale, offrire un’esperienza di valutazione, acquisto e utilizzo del prodotto che sia trasparente e senza interruzioni? Dalle ricerche condotte da Jakala in Italia dal primo trimestre del 2020 fino al secondo trimestre del 2021 emerge che la totalità dei retailer italiani sta investendo in progetti di vista unica del cliente omnicanale, customer data platform, marketing automation, Crm, digital sales ed e-commerce, ma si ritiene ancora molto distante dal framework teorico precedentemente illustrato. Tecnologia e automazione, intese anche in termini di semplificazione dei processi, vengono indicate dal 93% dei retailer come indispensabili per la trasformazione (e il dato è cresciuto del 30% rispetto al 2019), mentre il 65% dei Ceo delle aziende retail italiane (+37% rispetto al 2019) crede che analytics, intelligenza artificiale e apprendimento automatico avranno un impatto sempre più rilevante nelle decisioni dei top manager da qui ai prossimi tre anni. Il 95% dei retailer intervistati indica l’automazione come un elemento di ottimizzazione molto efficace dei costi, da reinvestire in nuove professionalità e competenze (business analyst, data scientist, eccetera), necessarie a far evolvere il modo in cui si prendono decisioni.

Marco Di Dio Roccazzella, general manager di Jakala

MIGLIORE PROTEZIONE CON IL DOPPIO BACKUP

Commvault accelera sull’offerta “as-a-Service” a marchio Metallic ed espande la presenza sul mercato italiano.

In tempi di ransomware, il backup non è più solo un gesto di prudenza, bensì è diventato un elemento fondamentale di qualsiasi strategia di cybersicurezza che si rispetti. Ma oggi prevedere un’unica copia di sicurezza dei dati potrebbe non bastare. “I nuovi hacker stanno crittografando anche i sistemi di backup, che rappresentano l’ultimo baluardo della sicurezza”, ha spiegato in un incontro con la stampa Marco Fanizzi, vice president Emea di Commvault. “Per questo abbiamo ampliato la nostra capacità di andare sul mercato affiancando alla nostra tecnologia tradizionale di protezione on-premise anche il backup in cloud”. Associando la tecnologia tradizionale di Commvault all’offerta as-a-service a marchio Metallic, per un’azienda è possibile creare una protezione “multi livello”, che mette al riparo dal rischio di perdita di dati nel caso un ransomware colpisca con la crittografia il backup primario. “La protezione del backup è uno dei principali motivi per cui oggi veniamo ingaggiati dai chief security information officer”, ha svelato Fanizzi. La tecnologia di Metallic può eseguire copie di sicurezza di dati originariamente ospitati on-premise oppure su infrastrutture di cloud pubblico (Amazon Web Services, Google Cloud, Microsoft Azure) senza vincoli di lock-in. “Le offerte dei cloud provider evolvono e noi pensiamo di poter garantire la flessibilità necessaria per star dietro a questi cambiamenti”, ha sottolineato Sergio Feliziani, country manager per l’Italia. Recentemente la piattaforma Metallic si è arricchita di una nuova console integrata, da cui poter monitorare lo stato di sicurezza degli ambienti IT in base a ciò che registrano le soluzioni di Commvault e ad analisi di intelligenza artificiale. Inoltre l’offerta Metallic è stata ampliata con il lancio di una soluzione rivolta ai service provider. “Siamo presenti nei marketplace di Aws e di Azure”, ha aggiunto Fausto Izzo, pre-sales systems engineer, “e questo fa parte del progetto di rendere sempre più appetibile e semplice il deployment delle nostre applicazioni”.

L’espansione in Italia

Quello italiano è, a detta dei manager di Commvault, un mercato che sta riservando buone soddisfazioni ed è allineato alla crescita degli altri Paesi della regione Emea, dove si registrano incrementi di ricavi dell’ordine del 20% (su base trimestrale, nel confronto anno su anno). In Italia l’azienda si sta focalizzando su clienti di fascia enterprise e in particolare sui settori dei servizi finanziari, commercio, utility, telecomunicazioni, senza comunque trascurare il mid-market. “Stiamo notando”, ha raccontato Feliziani, “che le tendenze di effetto pandemico sono finalmente un input importante nei processi decisionali delle aziende. Il dato sta diventando un ganglio vitale dei processi di cambiamento, declinati su tecnologie cloud e ibride”. Questa dinamica, ha spiegato il country manager, può agevolare nelle aziende differenti approcci agli investimenti, approcci non più reattivi ma propositivi. “Tra i primi indirizzi strategici dei nostri clienti”, ha proseguito i country manager, “c’è la volontà di disporre di dati sicuri e fruibili. L’altra tendenza è lo spostamento delle attenzioni sul cloud e sulle nuove frontiere tecnologiche”.

Valentina Bernocco

Marco Fanizzi Sergio Feliziani Fausto Izzo

UNA STAMPA SICURA PER IL CONTROLLO DEL BUSINESS

Proteggere i documenti, rispettare la compliance e allo stesso tempo ridurre gli sprechi: diverse tecnologie e servizi permettono di farlo, assecondando le esigenze di ogni azienda.

Le stampanti sono indispensabili alleate per la produttività e la collaborazione, che si tratti di lavorare gomito a gomito tra colleghi in ufficio o di interagire a distanza. Purtroppo, se gestite scorrettamente, possono diventare anche veicolo di attacchi informatici e di incidenti con fuga di dati. In quanto dispositivi connessi (a Internet, ad archivi locali, ad altri dispositivi, computer, smartphone, drive Usb, eccetera), le stampanti rientrano nel novero degli oggetti Internet of Things diventati sempre più un bersaglio dei cyberattacchi. Consideriamo, poi, che la stampa è solo una delle capacità incluse nei dispositivi multifunzione, accanto all’acquisizione digitale, alla copia e all’invio di fax. Il continuo passaggio tra formati digitali e analogici e il dialogo tra dispositivi e cloud comportano la necessità di una protezione estesa all’intera gestione documentale. Brother ha sviluppato una serie di soluzioni e servizi che affrontano il problema della sicurezza della stampa da varie angolazioni, tutelando la privacy, il rispetto della compliance, la proprietà intellettuale, la reputazione e dunque gli interessi economici delle aziende. Fondamentale, per la difesa dagli attacchi, è la crittografia dei dati durante la loro trasmissione in rete in fase di stampa o scansione, tramite protocolli TLS (Transport Layer Security) e linguaggi criptati SSL (Secure Sockets Layer). Ma bisogna anche proteggersi dal pericolo interno di fughe di informazioni, intenzionali oppure no: qui interviene il pull printing, tecnologia che mette “in coda” i documenti da stampare e li trattiene finché colui che ha lanciato l’operazione non si autentica direttamente sul dispositivo. Il pull printing non solo azzera il rischio che i fogli vengano ritirati e letti da personale non autorizzato, ma evita sprechi di energia e di consumabili.

Meccanismi ad hoc per ogni azienda

A seconda delle necessità, Brother consente di scegliere tra diversi sistemi di sicurezza e gestione. Il Setting Lock limita l'accesso alle impostazioni del dispositivo tramite il pannello di controllo, ed è l’opzione più semplice ma efficace per evitare manomissioni (anche involontarie) del funzionamento della stampante. Il Secure Function Lock, invece, assegna a ciascun profilo aziendale determinate autorizzazioni nell’uso del dispositivo, anche stabilendo limiti sul numero mensile di pagine stampabili, di fotocopie e fax. Altra possibilità è l’autenticazione con Active Directory o Lightweight Directory Access Protocol: si richiede alle persone di accedere attraverso le loro credenziali già in uso sulla rete aziendale, e questa è un’opzione ideale per le stampanti collocate in open space o altri ambienti condivisi. Con il servizio Secure Print+ le aziende possono proteggere i propri dati e flussi di lavoro, soddisfacendo al contempo i requisiti del Gdpr. Diverse le opzioni previste: l’autenticazione per il ritiro dei documenti può avvenire tramite codice Pin o card Nfc, si può scegliere di impostare un tempo limite tra l’ordine di stampa e il ritiro ed è anche possibile aggiungere o eliminare utenti dalla lista. È rivolto agli amministratori IT, inoltre, BRAdmin Professional: un software gratuito per la gestione centralizzata delle stampanti Brother predisposte per la rete. Questa utility semplifica e velocizza il lavoro consentendo di configurare facilmente i dispositivi e di controllare il loro stato in qualsiasi momento.

This article is from: