10 minute read
INTELLIGENZA ARTIFICIALE
UN PROBLEMA DI IMMATURITÀ
Foto Pietro Jeng da Unsplash
L’anno prossimo la spesa mondiale in software di AI e apprendimento automatico crescerà del 21% rispetto ai livelli del 2021. Ma i progetti aziendali sono spesso ancora acerbi.
La scalata continua, pur tra qualche difficoltà. “Il mercato del software di intelligenza artificiale sta guadagnando velocità, ma la sua traiettoria di lungo periodo dipenderà da quanto le aziende faranno progressi nella loro maturità in merito all’Artificial Intelligence”, ha commentato Alys Woodward, direttrice della ricerca senior di Gartner. Secondo le previsioni della società di ricerca, l’anno prossimo il giro d’affari dei software di intelligenza artificiale e machine learning raggiungerà quota 62,5 miliardi di dollari, segnando un incremento del 21,3% sul valore del 2021. Nel conteggio sono incluse tutte le applicazioni con incorporate capacità di intelligenza artificiale o di apprendimento automatico, come per esempio i software di visione computerizzata e quelli di comprensione del linguaggio naturale; vi sono compresi, inoltre, i software usati per creare sistemi di AI. Il calcolo non è la pura somma di quanto le aziende del mondo spenderanno per acquistare, sviluppare e introdurre sistemi di intelligenza artificiale, bensì comprende una stima del valore di business potenzialmente generato e anche, per converso, dei rischi. A detta di Gartner, le cinque categorie di applicazioni su cui si riverseranno maggiori investimenti saranno la gestione della conoscenza (area che include i sistemi di analisi dei dati a scopo di insight, automazione, apprendimento automatico), gli assistenti virtuali (dai chatbot ai software vocali), i veicoli a guida autonoma, la digitalizzazione dei luoghi di lavoro e il data crowdsourcing (cioè la raccolta di dati su opinioni, azioni, preferenze degli utenti attraverso siti Web, app, social media e altre fonti). Ma a che punto sono le aziende oggi? Un’indagine condotta da Gartner su duemila chief information officer suggerisce che il 48% ha già adottato una qualche tecnologia di AI o machine learning oppure lo farà a breve (entro un anno). Oggi però il grado di interesse del mondo imprenditoriale riguardo all’intelligenza artificiale pare superiore al grado di maturità raggiunta. Nel portare “in produzione” le applicazioni, molte aziende faticano a renderle parte integrante delle normali operazioni, altre non si fidano dei risultati ottenibili e in molti casi, in effetti, non ottengono vantaggi. Solamente nel 2025, secondo le previsioni di Gartner, metà delle aziende avranno raggiunto un livello di maturità nell’AI che la società definisce come “fase di stabilizzazione”. Al momento, il successo e la monetizzazione delle iniziative dipendono molto dalla capacità di inserirle nel giusto scopo e contesto: “I casi d’uso che producono un significativo valore di business, e che tuttavia possono essere scalati per ridurre il rischio, sono cruciali per dimostrare l’impatto degli investimenti in AI agli stakeholder aziendali”, ha rimarcato Woodward. V.B.
L’ITALIA SFODERA LA STRATEGIA NAZIONALE
Sull’intelligenza artificiale, l’Italia ora ha una precisa strategia nazionale e un’agenda politica ben definita. Il Consiglio dei ministri ha infatti approvato il Pro-
gramma Strategico per l’Intelligenza
Artificiale 2022-2024, frutto del lavoro congiunto del Ministero dell’Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministro per l’innovazione tecnologica e la transizione digitale. Trasversalmente alle 24 politiche elencate nel documento, uno tra i principali obiettivi sarà quello di creare e potenziare le competenze, le attività di ricerca e le iniziative di sviluppo dell’AI. “La strategia è la base per lanciare programmi e investimenti concreti per rendere l’Italia competitiva a livello internazionale e con un sistema pubblico più efficiente”, ha commentato il ministro per l’Innovazione tecnologica e la transizione digitale, Vittorio Colao. “Prevediamo programmi di accelerazione per le start-up che propongono soluzioni innovative per le PA e iniziative ad hoc per alzare notevolmente la qualità di processi e servizi pubblici e migliorare il rapporto cittadini-Stato. Su questo punto lavoreremo di concerto con il Ministro per la Pubblica Amministrazione utilizzando anche investimenti presenti nel Fondo Innovazione”.
L’OBBLIGO MORALE DI CONTENERE IL BIAS
Le grandi abilità degli algoritmi di machine learning si associano all’elevato rischio di alimentare i pregiudizi. Abbiamo bisogno di maggiore attenzione ai dati, di trasparenza nei confronti degli utenti e di regole chiare.
L’intelligenza artificiale è una grande forza trasformatrice: il suo impatto sulla società, sulle industrie e sui mercati si riflette anche su tutti noi, cittadini, consumatori e lavoratori. In un mondo che si affida sempre di più ai dati e al machine learning per prendere decisioni, è lecito chiedersi se sia eticamente corretto riporre queste responsabilità nelle mani degli algoritmi. L’Artificial Intelligence è fenomenale nell’ampliare la portata e la velocità di decisioni e azioni, soprattutto se di tipo meccanico e ripetute nel tempo. Quando le decisioni dipendono da fattori soggettivi, culturali e sociali, vi è tuttavia il pericolo di alimentare ineguaglianze e disparità. Gli algoritmi replicano i comportamenti dei dati utilizzati come sorgente e se questi dati sono attraversati da pregiudizi (anche inconsci), il rischio è quello di programmare un sistema che ingigantisce tali pregiudizi. Se, per esempio, un modello per il recruiting del personale aziendale venisse alimentato dai dati di un’azienda che nell’ultimo decennio ha concesso promozioni solo a dipendenti di genere maschile, l’algoritmo non potrà fare altro che escludere ogni candidata dall’elenco delle persone più indicate per il posto di lavoro. Dunque è di fondamentale importanza ridurre la presenza di informazioni distorte da bias all’interno del campione di riferimento. Sfortunatamente, è molto facile che uno o più bias danneggino le soluzioni offerte dall’AI. Questo può accadere in quattro diversi momenti del processo: nel modo in cui i dati sono raccolti, campionati o selezionati; nelle logiche seguite dall’algoritmo stesso per prendere decisioni; nel deployment del modello nel contesto di business; e infine nella governance dell’intero processo. Il risultato non dovrà essere un modello capace di fornire soluzioni indiscutibili per le persone, ma piuttosto un modello che possa aiutarci a compiere scelte migliori. Oggi i consumatori sono sempre più inclini ad accettare soluzioni di AI, a patto che i benefici ottenuti siano molto superiori a rischi e preoccupazioni che ne derivano. Comunicazione chiara e trasparente, possibilità di opt-out e azioni dell’algoritmo personalizzabili diventano così nodi cruciali per convivere con l’intelligenza artificiale. I consumatori sono disposti a premiare le aziende che impiegano l’Intelligenza Artificiale in modo eticamente corretto e trasparente: la fiducia nell’organizzazione o impresa che fornisce il servizio diventa un asset imprescindibile per l’utente. Correttezza, imparzialità, trasparenza, affidabilità ed explainability sono le parole chiave che ogni azienda che si affaccia al mondo delle IA dovrebbe tenere a mente. Oltre ad allinearsi alle future regolamentazioni, sarà fondamentale per le aziende assicurarsi che i modelli vengano pensati e creati considerando le diverse prospettive, i fattori sociali e i bias culturali nascosti dietro le scelte di tutti i giorni. Dal momento che i sistemi di IA diventano sempre più complessi, è indispensabile prevedere continue verifiche durante l’intero processo e comunicare con massima trasparenza al momento della distribuzione. Per sfruttare l’incredibile potenziale dell’intelligenza artificiale occorre una sapiente collaborazione tra persone e macchine, una collaborazione in cui nella gran parte dei casi saranno gli esseri umani ad avere l’ultima parola. Di certo, un impiego eticamente corretto dell’AI è di centrale rilevanza per la costruzione di una corporate social responsibility e di un business orientati al futuro. Stefano Maggioni, advanced analytics & AI manager di Sas
Stefano Maggioni
Foto di Gerd Altmann da Pixabay
VIRTUALIZZAZIONE E INTELLIGENZA, LA COPPIA VINCENTE
Abbinando la data virtualization ad algoritmi e applicazioni di analisi dei dati in tempo reale si ottengono numerosi vantaggi. Ce ne parla Andrea Zinno, data evangelist di Denodo.
Non è da oggi che si parla di data virtualization, una procedura tecnologica che permette di creare un livello logico nel quale integrare e centralizzare dati originariamente collocati in luoghi diversi. Sicurezza, capacità di gestione, unificazione dei dati sono alcuni dei vantaggi ottenibili con questo approccio. Quello che è relativamente nuovo, nel panorama aziendale, è l’utilizzo della data virtualization in combinazione con l’analisi dei dati basata su intelligenza artificiale. In quali contesti è utile, quali vantaggi si ottengono e da dove si comincia? Ne abbiamo parlato con Andrea Zinno, data evangelist di Denodo.
Qual è il rapporto fra virtualizzazione dei dati e intelligenza artificiale? I moderni data scientist operano in ambienti molto diversi da quelli tradizionali, che erano caratterizzati da analisi prevedibili e circoscrivibili, legate a report funzionali e stabili nel tempo. Al
contrario, oggi gli input arrivano spesso da intuizioni nuove e non programmabili, cui è necessario dare riscontro velocemente attraverso una data platform in grado di reagire in modo rapido ed efficace. Per rispondere a tale esigenza, data virtualization e intelligenza artificiale si combinano in un connubio vincente: da un lato la virtualizzazione dei dati consente di utilizzare, in agilità, qualsiasi dato, ovunque sia e indipendentemente da come sia fatto; dall’altro l’AI sfrutta tale agilità per far fronte alla imprevedibilità dell’uso dei dati, così che il data scientist non sia più rallentato nella verifica delle proprie intuizioni e l’IT non sia costretto a complesse operazioni per mettergli a disposizioni i dati necessari. Il tutto a beneficio di una reattività che è fondamentale per poter prendere decisioni rapide e informate.
Quali aziende possono beneficiare di questo approccio?
Virtualizzazione dei dati e intelligenza artificiale non rispondono tanto a esigenze produttive specifiche, quanto a un generale cambiamento culturale e organizzativo nell’approccio all’analisi dei dati. Potenzialmente ogni azienda, indipendentemente dalla propria dimensione o dal settore di appartenenza, può beneficiare di data platform moderne e agili, che abilitano analisi sempre più sofisticate. Tuttavia, realtà diverse reagiscono in modo diverso alle singole esigenze di mercato. Il settore privato, ad esempio, potrà meglio affrontare i cambiamenti e restare competitivo; la Pubblica Amministrazione, invece, potrà meglio gestire il processo di digitalizzazione o prevenire fenomeni quali l’evasione fiscale.
Da dove si comincia?
Il processo di trasformazione che porta a sviluppare un approccio davvero datadriven è basato innanzitutto su un investimento intellettuale, che renda singoli e organizzazioni consapevoli del valore della condivisione dei dati, nonché della necessità di affrancarsi da un accesso ai dati disperso e frammentato, per abbracciare l’adozione di una data platform moderna, la quale rappresenti il punto unico di accesso al patrimonio informativo dell’azienda. Dal punto di vista infrastrutturale, in pochi mesi è possibile creare una data platform moderna che sia al servizio dell’intelligenza artificiale. Per consolidare il processo, tuttavia, è necessario investire sul lungo periodo, con un team, anche di poche persone, che abbia, più che competenze tecnologiche approfondite, le capacità di comprendere e analizzare i dati e di rendere percepibile il valore che da essi si può generare. Si tratta di figure autonome rispetto al dipartimento IT, che possano agire in modalità self service, senza subire i rallentamenti delle sovrastrutture tradizionali. Dal punto di vista strettamente tecnologico, il livello di adozione della data virtualization dipende dalla maturità della singola organizzazione: si va dalla creazione di un logical data lake fino all’implementazione di un vero e proprio modello di logical data fabric, in grado di interconnettere tra di loro i dati come se fossero fili con cui creare un tessuto.
Andrea Zinno
Ci raccontate un caso reale di un vostro cliente?
Tra i nostri casi di successo più recenti possiamo citare Istat, che ha recentemente modernizzato i processi di produzione dell’informazione statistica, per i quali l’utilizzo di nuove fonti, come il Web, social media e i cosiddetti Big data, ha reso evidente la necessità di sistematizzare la gestione di una mole di informazioni considerevole. L’implementazione della Denodo Platform ha quindi consentito di disaccoppiare utenti e applicazioni da attività come la migrazione e il consolidamento dei dati, integrando allo stesso tempo la semantica e la governance necessarie, ed evitando costose operazioni di copia o spostamento. Il progetto di virtualizzazione ha inoltre consentito all’Istituto, anche grazie a un nuovo modello organizzativo, di ottimizzare i costi dell’investimento e aprire le porte a nuove opportunità di valorizzazione dei dati, in grado di cogliere appieno le potenzialità offerte dall’enorme mole di dati oggi a disposizione.
A che punto siamo in Italia?
Al contrario di quanto si tenda comunemente a pensare, l’Italia non è tra gli inseguitori ma rispetta la media del livello di adozione degli altri Paesi, dimostrando un potenziale che giustifica la fase di hype che stiamo vivendo. Per quanto i livelli di sviluppo varino in base alle dimensioni delle organizzazioni, ci troviamo comunque ancora in una fase sperimentale che precede quella progettuale vera e propria: le aziende stanno ancora identificando le aree di sviluppo dell’intelligenza artificiale, per capire come prendere decisioni davvero informate a beneficio della produttività e del business. La via tuttavia è tracciata, e possiamo prevedere un futuro in cui l’implementazione di data virtualization e AI sarà all’ordine del giorno. V.B.