3 minute read
IVERSITÀ
Quattro Iniziative Per Contrastarli
stramento, è concentrato – spesso inconsapevolmente – nelle decisioni degli sviluppatori. Il percorso verso un ecosistema inclusivo, giusto, non sarà rapido; un punto di partenza praticabile è però già stato individuato: accrescere la diversità nei team di sviluppo delle Ia. Su questo obiettivo convergono le testimonianze raccolte per Nature
Partire dal linguaggio per trasformare il futuro dell’Africa. “La maggior parte degli algoritmi e dei sistemi che utilizziamo oggi sono stati creati da persone al di fuori dell’Africa. Manca la prospettiva dell’Africa e, di conseguenza, i pregiudizi influenzano l’Africa”, afferma Delali Agbenyegah, che lavora come senior data science manager dell’ecommerce Shopify di Atlanta (Georgia). A settembre 2023 presiederà la conferenza Deep Learning Indaba. La sede del meeting, una sorta di TED Conference periodica, sarà quest’anno in Ghana, dove la popolazione parla circa quaranta lingue indigene diverse, oltre alle nove ufficiali. Con un’iniziativa open source per favorire la creazione di algoritmi per la traduzione in inglese (Ghana NLP – www.ghananlp.org) si punta a migliorare i sistemi di intelligenza artificiale correlata alle immagini, indispensabile nei motori di ricerca nel web come nella diagnosi delle malattie. Attualmente, però, i dati relativi all’Africa compongono meno dell’un per cento dei set di dati che contribuiscono all’apprendimento automatico dei sistemi di Ia.
Il diritto alla tecnologia in America Latina. Crede nella partecipazione dal basso la direttrice di AccelAI e LantinX AI, due organizzazioni/community di persone di origine latinoamericana impegnate nell’Ia. Laura Montoya, ingegnere informatico e data scientist, è una colombiana cresciuta negli Stati Uniti. Si definisce “alternative thinker”, pensatrice alternativa, e dedica la sua attività ad aprire percorsi controcorrente per “altri come lei, per una piccola parte della popolazione”. Fuga dei cervelli, supporto agli studenti da parte di mentori, incubazione di progetti informatici sono parte delle missioni delle non profit che presiede Montoya. Per farlo, mobilita big corporation, come la statunitense Nvidia, a sostegno di un programma di supercomputer, perché “la potenza di calcolo è gravemente carente in gran parte dell’America Latina”. E pro-
24,4% dei posti di lavoro nel settore informatico è ricoperto da donne
10% del team di ricerca sull’Ia di Google è formato da donne mette la disponibilità di hardware alla comunità più ampia possibile di ricercatori locali “per risolvere grandi problemi e utilizzare la tecnologia per sempre”.
Barriere architettoniche alleate di un algoritmo. App di sintesi vocale consentono alle persone con disabilità motorie o visive l’interazione in un ambiente non adeguato, permettono la guida di un veicolo o l’accesso allo studio; le protesi non sono più soltanto accessori ma, grazie alla robotica, sono collegate al sistema nervoso per aumentare l’autonomia di persone con disabilità. Maria Skoularidou è una dottoranda di Cambridge in biostatistica e nel 2018 ha fondato {Dis}Ability in Ai (https://elesa.github.io/ability_in_AI/) per migliorare accessibilità e inclusione. Nel tempo ha registrato numerose denunce anche da parte di ricercatori con disabilità: “Alcuni hanno affermato che non si sentirebbero al sicuro nel condividere dettagli sulla loro malattia cronica, perché se lo facessero potrebbero non essere promossi o ricevere lo stesso stipendio”.
2,5% del personale di Google è di colore
Ottenere ambienti di ricerca scientifica equi e paritari giova a tutti: “Se un vedente chiude gli occhi, questo non gli fa capire cosa deve affrontare un cieco. Le persone provenienti da gruppi emarginati devono far parte di tutte le fasi del processo di intelligenza artificiale”.
Il percorso verso un ecosistema inclusivo, giusto, non sarà rapido. Un punto di partenza praticabile è accrescere la diversità nei team di sviluppo delle intelligenze arti ciali.
Più parità di genere e inclusione. Il machine learning è essenzialmente un lavoro di categorizzazione di cose e persone al fine di elaborare previsioni su dati raccolti in precedenza. Come conciliare tali processi con le identità fluide? Il rischio è la censura delle persone queer, secondo William Agnew, computer scientist all’University of Washington (Seattle) e Sabine Weber, consulente tedesca. Insieme si occupano di queer in Ai (www.queerinai.com), la cui missione è aumentare la consapevolezza sul tema negli ambiti dell’intelligenza artificiale e del machine learning. L’elenco degli ostacoli che intendono respingere deriva dalla convinzione che “il campo dell’Ia non prende sul serio la diversità e l’inclusione. Gli sforzi sono sottofinanziati e sottovalutati” e non godono del sostegno dei lavoratori senior. Uno degli obiettivi dell’organizzazione è mutuare dal mondo femminile il movimentismo che ha fatto emergere le personalità nello stem, per offrire un punto di riferimento nelle università e non temere la selezione sessista nelle aziende.
1. Crowell R. Why Ai’s diversity crisis matters, and how to tackle it. Nature, 19 maggio 2023.
2. Myers West S. Discriminating systems: gender, race, and power in Ai –Report.
Ai Now Institute, 1 aprile 2019.
3. Unesco. Women in science. https://uis. unesco.org/en/topic/ women-science
4. AI recruiting tool that showed bias against women. Reuters, 11 ottobre 2018.
Il punto in comune fra i quattro interventi sta fra la consapevolezza dei divari esistenti e la necessità di affrontarli. Un piano che funzionerà solo se sarà divulgato e quindi supportato anche da coloro che a quelle minoranze non appartengono. Il dibattito è immaturo anche in Europa, sebbene sia rara la definizione di “crisi” in riferimento alla diversity. E rischia di emergere troppo tardi, travolto da una rivoluzione tecnologica che si rivela, giorno dopo giorno, più rapida di ogni premura etica.
0% le dirigenti di colore in un terzo delle aziende leader nel settore tech