10 minute read

INTELLIGENZA ARTIFICIALE

Next Article
EXECUTIVE ANALYSIS

EXECUTIVE ANALYSIS

L’EUROPA NON SARÀ IL FAR WEST DELL’A.I.

Un documento programmatico della Commissione Europea elenca i principi da rispettare: regole chiare, trasparenza sull’uso dei dati, privacy. Ma la realtà non è troppo idilliaca.

L’ intelligenza artificiale non può più essere un territorio senza regole, in cui ognuno fa ciò che vuole in base alla propria coscienza e onestà. O almeno non in Europa. Servono regole chiare, definite, e l’obbligo di maggiore trasparenza e tracciabilità sull’uso dei dati, specialmente in ambiti che toccano da vicino la privacy, la sicurezza e i diritti civili, come la salute, i poteri delle forze dell’ordine e i trasporti. Questo è il succo del documento programmatico con cui la Commissione Europea lo scorso febbraio ha presentato le proprie linee guida sull’adozione dell’intelligenza artificiale, accanto a quelle riguardanti la “strategia sui dati” dell’Ue. I due temi naturalmente sono intrecciati e rientrano sotto a un’unica visione: quella di realizzare un’Europa, si legge nella nota stampa diffusa, “alimentata da soluzioni digitali che mettano al primo posto le persone, che apra nuove opportunità per le aziende e acceleri lo sviluppo di una tecnologia degna di fiducia, per alimentare una società aperta e democratica e un’economia vivace e sostenibile”. In questa visione il digitale non è solo un propulsore dell’economia ma anche un fattore cruciale per “combattere il cambiamento climatico e raggiungere una transizione green”.

Opportunità e rischi da valutare

Nel white paper si illustra lo scopo di incentivare lo sviluppo dell’AI anche nelle aziende di medie e piccole dimensioni,

che senza sostegno non potrebbero avvicinarsi a questo mondo. Sarà quindi necessario “movimentare risorse lungo tutta la catena del valore”, lavorare con gli Stati membri dell’Ue e con i centri di ricerca, attivare partnership tra settore pubblico e privato. Non bisognerà sottovalutare la complessità e i “rischi significativi” che l’AI può creare in determinati ambiti. Per questo vanno create regole chiare sulla tutela dei dati personali e della privacy e più in generale sui sistemi “ad alto rischio”, come quelli riguardanti la salute, la regolamentazione e il controllo sociale (applicazioni usate dalle forze dell’ordine) e i trasporti. In tutti questi casi, i sistemi di AI dovranno essere trasparenti e tracciabili, nonché garantire una “supervisione umana”.

Bias e biometria, le questioni spinose

Il documento tocca anche, di striscio, il problema del bias: “Le autorità”, si legge, “dovranno poter testare e certificare i dati usati dagli algoritmi così come possono controllare cosmetici, automobili o giocattoli. Dati senza pregiudizio sono necessari per allenare i sistemi ad alto rischio affinché agiscano in modo corretto e rispettino i diritti fondamentali, specialmente l’assenza di discriminazione”. Quanto al delicato tema del riconoscimento facciale, l’Europa ha un atteggiamento di apertura. Il suo uso attualmente è ammesso solo in casi eccezionali e laddove ne sia dimostrata la necessità, ed è soggetto a diverse legislazioni nazionali o comunitarie. Ora, però, la Commissione desidera aprire “un ampio dibattito su quali circostanze, eventualmente, possano giustificare tali eccezioni”. Come noto, Stati Uniti e Cina sono in testa alla classifica mondiale dei Paesi che non solo adottano maggiormente le tecnologie di AI in ambito aziendale e pubblico, ma che più vi investono con stanziamenti, capitali privati, sostegno alle startup. E se l’Europa non può competere con i nu-

L’ALGOR-ETICA CHE PIACE AL PAPA

Sull’intelligenza artificiale, vendor tecnologici e Chiesa stanno cercando di trovare l’intesa: è stato firmato a Roma a inizio marzo il documento programmatico “Call for an AI Ethics”, con cui il Vaticano, la Fao, Microsoft e Ibm si impegnano a promuovere uno sviluppo dell’AI ispirato a principi di trasparenza, responsabilità, equità e privacy. Il documento certifica l’impegno a sostenere un approccio etico all’intelligenza artificiale e a promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa. Nel suo discorso (letto dall’arcivescovo Vincenzo Paglia), Papa Francesco ha definito la tecnologia come un “dono di Dio”, sottolineando però la contraddizione di un mercato in cui “gli utenti sono spesso ridotti a ‘consumatori’, asserviti a interessi privati concentrati nelle mani di pochi”. Il Pontefice ha affrontato il problema della disparità di conoscenza e di potere fra chi crea tecnologia e chi ne è destinatario e oggetto: “Dalle tracce digitali disseminate in Internet, gli algoritmi estraggono dati che consentono di controllare abitudini mentali e relazionali, per fini commerciali o politici, spesso a nostra insaputa. Que

sta asimmetria, per cui alcuni pochi sanno tutto di noi, mentre noi non sappiamo nulla di loro, intorpidisce il pensiero critico e l’esercizio consapevole della libertà”. Francesco dà ovviamente un’interpretazione religiosa al problema dell’etica applicata all’AI, richiamandosi ai principi della Dottrina della Chiesa: dignità della persona, giustizia, sussidiarietà e solidarietà, che possono contribuire alla definizione di una “nuova frontiera che potremmo chiamare algor-etica”, nella quale le persone possono conoscere e verificare i processi determinati dagli algoritmi. Visti da un punto di vista più laico, questi principi sono coerenti con la visione di un’intelligenza artificiale “umano-centrica”, così come recentemente illustrata dal documento programmatico della Commissione Europea. Secondo gli enunciati della “Call for an AI Ethics”, i sistemi di intelligenza artificiale devono essere trasparenti, inclusivi (cioè prendere in considerazione le esigenze di tutti gli esseri umani), responsabili in merito alle loro possibili conseguenze, imparziali, affidabili nel loro funzionamento, e infine sicuri e rispettosi della privacy. V. B.

meri, allora lo farà con la qualità ovvero, come si legge nel documento, diventando il “leader dell’intelligenza artificiale degna di fiducia”.

Esempi non troppo virtuosi

Le idee chiare ci sono, ma la strada da fare è ancora lunga e molte applicazioni già in uso dovranno correggere il tiro per non cozzare con i principi etici difesi dall’Ue. Recentemente il governo olandese è stato criticato per via di SyRI (l’acronimo sta per “sistema indicatore del rischio”), un programma usato per valutare le richieste di sussidi e per assegnare case popolari ai meno abbienti. Concepito nel 2014, finora è stato usato da quattro autorità statali come sistema di digital welfare antifrode, capace di identificare le situazioni potenzialmente truffaldine sulla base di dati precedentemente raccolti e analizzati per creare dei “profili di rischio”. L’algoritmo analizza i dati di persone che in passato hanno commesso delle frodi ai danni dello Stato per catalogare i cittadini che fanno nuove richieste, i quali dunque saranno sottoposti a particolari verifiche. In sostanza, il sistema può inserire nelle categorie dei “sospettabili” delle persone perfettamente incensurate, purché definite da alcuni criteri di residenza (in quartieri “poveri” di alcune città) e di reddito. Inoltre non è mai stato dichiarato dalle autorità statali quali dati, esattamente, vengano analizzati e come, secondo quali modelli matematici di analisi, né si è mai saputo se qualche frode effettiva sia stata scoperta con tale metodo. Tutto ciò non è piaciuto a sindacati, gruppi di tutela della privacy e privati cittadini, che hanno sporto denuncia, trovando poi soddisfazione nella sentenza espressa da un tribunale de L’Aia: SyRI, a detta della corte, è in conflitto con l’articolo 8 della Convenzione europea per la salvaguardia dei diritti dell'uomo e delle libertà fondamentali, che tutela il diritto alla privacy e vieta le ingerenze pubbliche nella vita privata se non per ragioni di sicurezza o interesse collettivo. In secondo luogo, il sistema antifrode attua delle discriminazioni in base a criteri come la ricchezza e l’etnia. La mancanza di trasparenza intorno al progetto, inoltre, a detta del giudice rende difficile monitorare e controllare il corretto funzionamento di SyRI. Altro governo poco virtuoso è quello britannico. Una recente relazione della

Commissione sugli Standard della Vita

Pubblica (Committee on Standards in Public Life) a cui hanno contribuito accademici, pubblici ufficiali e rappresentanti di gruppi di tutela dei cittadini, lo accusa di scarsa trasparenza nell’uso dei dati e di poca attenzione a evitare il bias. “Quando ho avviato il progetto ho chiesto ai miei ricercatori di scoprire dove gli algoritmi fossero impiegati nel settore pubblico, e non sono stati in grado di farlo”, ha spiegato in un’intervista a Zdnet il presidente della Commissione sugli Standard della Vita Pubblica, Lord Evans (già direttore dell’MI5, l'ente britannico per la sicurezza e il controspionaggio). “I giornalisti provano a scoprirlo e raramente ci riescono. Il governo non pubblica nemmeno alcun audit sugli scopi dell’utilizzo dell’AI”.

Valentina Bernocco

LA “QUESTIONE MORALE” HA UN RISVOLTO ECONOMICO

L’intelligenza artificiale dovrebbe avere un’etica? Non si tratta di un puro quesito filosofico. L’anno scorso il Capgemini Research Institute ha intervistato 4.400 consumatori di sei Paesi (Stati Uniti, Cina, Francia, Germania, Paesi Bassi, Regno Unito) e 1.580 professionisti di società da oltre un miliardo di dollari di fatturato annuo di dieci Paesi (Italia inclusa) interpellando un po’ tutte le figure aziendali, tra alti dirigenti, manager, responsabili HR e marketing, informatici, esperti di data science e di AI. Dal risultante report (“Why Addressing Ethical Questions in AI Will Benefit Organizations”) è emersa una sostanziale spaccatura tra i dirigenti: uno su due (51%) pensa che garantire regole morali e trasparenza nei sistemi di AI sia importante per aziende e consumatori. A giudicare dai problemi già sperimentati, però, la percentuale dovrebbe forse essere ben più alta. La schiacciante maggioranza delle grandi imprese, nove su dieci, negli ultimi due o tre anni ha avuto almeno un problema con i propri dipendenti o clienti a causa della scarsa trasparenza dell’AI. Tra i consumatori interpellati, tre su quattro desidererebbero maggiore trasparenza nei servizi basati su AI, come quelli di marketing personalizzato e chatbot. Altrettanti approvano l’idea che l’intelligenza artificiale sia regolata da leggi aggiuntive a quelle esistenti, mentre solo il 6% dissente (il 18% ha espresso incertezza o non ha saputo rispondere). Insomma, per tre persone su quattro è preferibile avere più regole e meno libertà, piuttosto che rischiare impieghi dell’intelligenza artificiale discriminatori, opachi o non verificabili. Quel che più conta per le aziende è che essere etici, e percepiti come tali, possa avere impatti sul giro d’affari: circa sei consumatori su dieci sono spinti a utilizzare con maggior frequenza ed entusiasmo un servizio percepito come “etico”.

DOVE CI PORTERÀ L’AI IN FUTURO?

Gli analisti di Cb Insights tracciano alcune previsioni sulle tendenze del 2020 e oltre.

Tutte le previsioni sulle tendenze dell’anno 2020 fatte prima dell’esplosione dell’epidemia di coronavirus dovranno essere, probabilmente, rivedute e corrette. Nondimeno, è interessante leggere quello che la società di analisti Cb Insights immagina per il futuro immediato dell’intelligenza artificiale. Trend che sembrano ancora validissimi anche alla luce dello sconvolgimento mondiale della pandemia, e che anzi si intrecceranno forse proficuamente con le nuove esigenze di ricerca medico-scientifica e di analisi dei dati emerse nei primi mesi dell’anno. Commentiamo insieme alcuni degli “Artificial Intelligence Trends to Watch in 2020”.

1Deepfake al servizio delle aziende

I video modificati con algoritmi di intelligenza artificiale finora hanno fatto parlare di sé per via di applicazioni ludiche, sulla scia della famigerata app cinese Zao, e per gli sciagurati utilizzi nella pornografia, nella diffusione di bufale e nella propaganda politica sleale. La tecnologia deepfake è di per sé controversa, come fa notare Cb Insights. Potrebbe però rappresentare una risorsa sia per l’industria cinematografica (per la “risurrezione digitale” di star non più viventi) sia per il retail (applicazioni che permettono all’utente di sostituire il proprio volto a quello di chi indossa un capo d’abbigliamento, per esempio).

2Lo spoofing vocale

L’AI è sempre più usata nelle soluzioni di sicurezza informatica, dai sistemi di prevenzione delle minacce ai controlli antifrode. Purtroppo anche i “cattivi” possono trarre vantaggio dagli algoritmi: per esempio per realizzare sofisticate azioni di spoofing, cioè attacchi basati sulla falsificazione dell'identità, creando messaggi audio che imitano alla perfezione la voce di una persona di cui la vittima si fida. Questo genere di “spoofing vocale” è stato osservato per la prima volta nel 2019, in attacchi che falsificavano la voce di dirigenti d’azienda per richiedere trasferimenti di denaro.

3La progettazione automatizzata

L’intelligenza artificiale alimenterà l’intelligenza artificiale, rendendola più democratica. Usando le reti neurali è possibile progettare in modo relativamente facile e automatizzato dei modelli di apprendimento automatico, per i quali altrimenti sarebbero richieste competenze tecniche alla portata di pochi. Google ne parla già dal 2017 come di “autoML”, cioè machine learning automatizzato.

4L’impatto ambientale dell’AI

L’intelligenza artificiale contribuirà, purtroppo, ad aumentare le emissioni di gas serra: la grande potenza di calcolo e lo storage richiesti dalle sue applicazioni si traducono in necessità di infrastrutture, consumi, energia (non sempre green). Ma proprio l’AI potrà contribuire a ridurre questo impatto in vari modi. Per esempio, grazie a modelli di analisi predittiva delle esigenze energetiche, già da tempo impiegati da Google nei propri data center. Anche smartphone, smart speaker e altri dispositivi iniziano a sfruttare l’apprendimento automatico per minimizzare i consumi.

5I progressi della medicina

Si continuerà a usare l’AI in diversi campi di indagine scientifica e in particolare negli studi sul Dna. Gli algoritmi di apprendimento delle reti neurali, eseguiti senza supervisione, stanno già dimostrando di poter servire nello studio delle strutture delle proteine, fatto utile per lo sviluppo di nuovi farmaci.

This article is from: