2 minute read

L’INTELLIGENZA ARTIFICIALE È IN CRISI DI D

LE DISUGUAGLIANZE E I PREGIUDIZI NEL SETTORE DELL’IA E

Un’auto a guida autonoma testata sui viali della Silicon Valley saprebbe affrontare le infrastrutture dissestate del Ghana? Il prossimo robot avrà le capacità per comunicare con una persona non vedente? Si può fare ricerca medica quando mancano i dati di ogni singolo Paese del mondo? Un sistema penale del futuro, basato su algoritmi, sarà in grado di superare i pregiudizi applicati in passato? La risposta è no. Per il momento.

Mai come in questi primi mesi del 2023 stiamo assistendo all’evoluzione rapidissima dell’intelligenza artificiale (Ia). E le discussioni e i moniti sulle derive delle sue applicazioni non sono mai apparse così realistiche. I timori non riguardano solo la minaccia alla privacy, la perdita di posti di lavoro. Ci sono rischi di natura culturale, persino emotiva, che potrebbero coinvolgere gruppi sociali molto ampi. Il tema è la rappresentazione delle diversità, il riconoscimento e la capacità di far emergere le competenze di lavoratrici e lavoratori appartenenti a minoranze. Una missione comune guida l’impegno delle comunità che aggregano persone oggi scarsamente rappresentate: abbattere i pregiudizi già innestati nella tecnologia del machine learning, nell’accesso alla ricerca e nella trasmissione della conoscenza. Il timone della rivoluzione tecnologia è senza dubbio in mano a chi già dispone di poteri decisionali ed economici. Saranno proprio coloro che celebriamo come innovatori i più ostinati conservatori?

Un “disperato bisogno” di partecipazione

Il settore delle tecnologie innovative ha “un disperato bisogno” di persone provenienti da gruppi sottorappresentati per garantire disponibilità e vantaggi universali. Con questa premessa, la giornalista statunitense Rachel Crowell ha pubblicato su Nature un articolo dal titolo “Perché la crisi della diversità dell’Ia è importante e come affrontarla”1, presentando quattro testimonianze di altrettanti ricercatori di machine learning che lottano contro la diversity crisis, per un ecosistema Ia più attento a non replicare pregiudizi.

Solo il 18 per cento dei relatori nelle conferenze più importanti sull’intelligenza artificiale e solo il 20 per cento di docenti della stessa disciplina è donna. Sul fronte aziendale non va meglio: il personale femminile nei reparti di Ia di Facebook non supera il 15 per cento; in Google le ricercatrici rappresentano un residuo 10 per cento. Sono i dati emersi dal rapporto del 2019 dell’Ai Now institute2 della New York university, ente di ricerca indipendente, nato su ispirazione di Barack Obama, che analizza la concentrazione di potere nel settore tecnologico.

20 % dei docenti di intelligenza arti ciale è donna

Saranno proprio coloro che celebriamo come innovatori i più ostinati conservatori?

Secondo gli ultimi dati dell’Unesco3, nel mondo le donne sono meno del 30 per cento dei ricercatori. E, sebbene le studentesse di discipline stem (science, technology, engineering, mathematics) aumentino di anno in anno, nel campo dell’informatica l’appianamento del divario di genere tende a essere più lento. Vale sia per il mondo della ricerca nelle Ia sia per il settore privato correlato. Un esempio, tra molti, ha interessato l’azienda a più alto tasso di automazione. Nel 2018 un’inchiesta della Reuters4 raccontò del sistema sperimentale sviluppato da Amazon per vagliare i curricula: l’algoritmo declassava inesorabilmente le candidate provenienti da college femminili. Dichiarando fallito l’esperimento, l’azienda ha ammesso l’incapacità di quel sistema di essere neutrale: aveva appreso e fatto proprio il pregiudizio consolidato negli umani. In particolare in quella parte di umanità tradizionalmente al potere: maschi bianchi, etero, benestanti, non giovani.

Il pregiudizio, si sa, non è intrinseco all’algoritmo: deriva dai dati e dai processi di adde-

18 % degli speaker alle conferenze sull’Ia è donna

This article is from: