2 minute read
LE QUESTIONI ETICHE SULL'A.I. GENERATIVA
Modelli come GPT-3, il suo successore GPT-4 e programmi sviluppati da aziende concorrenti di OpenAI permettono di creare velocemente e a basso costo applicazioni di intelligenza artificiale come il più famoso tra i chatbot, ChatGPT. I benefici potenziali sono immensi, ma lo sono anche i rischi e gli aspetti controversi. La società di ricerca Gartner così riassume le principali questioni etiche dell’AI generativa: per sei mesi il training di sistemi di AI più potenti di GPT-4, l’ultima versione del modello di OpenAI. Mentre si potrà continuare con lo sviluppo dell’intelligenza artificiale in altre sue forme, biso- gna invece “fare un passo indietro nella pericolosa corsa verso modelli scatola nera ancora più ampi, non prevedibili”. L’umanità dovrebbe tutelarsi da questi rischi e porre un veto così come è stato fat- to in campo medico-scientifico per l’eugenetica e la clonazione di esseri umani. L’interruzione delle attività dovrà essere “pubblica e verificabile”, e se necessario le istituzioni governative potranno intervenire istituendo una moratoria. I firmatari della lettera sottolineano che, solo perché possiamo automatizzare molte attività e creare programmi che superano le abilità umane in molti campi, ciò non significa sia giusto farlo. L’attività di ricerca e sviluppo sull’AI dovrebbe focalizzarsi sul rendere gli attuali sistemi “più accurati, sicuri, interpretabili, trasparenti, solidi, allineati, degni di fiducia e leali”, si legge nella lettera. Meravigliosi principi, che forse però non è facile concretizzare all’interno di un software ma soprattutto non è facile controllare. I firmatari della petizione propongono una collaborazione tra ricercatori e istituzioni politiche, tesa a creare nuove norme di legge, nuove autorità di controllo e sistemi di certificazione. Inoltre vengono invocati sostanziosi fondi pubblici da dedicare alla ricerca sulla sicurezza dell’AI. Certo, l’impegno è gravoso, ma per i firmatari servirà a evitare che l’AI sconvolga l’economia mondiale e, soprattutto, che sia una minaccia per la democrazia.
• Sostenibilità. I modelli sottostanti (come GPT-4) devono essere allenati su migliaia di miliardi di parametri e richiedono un’enorme potenza computazionale. L’impatto ambientale è notevole.
• Concentrazione di potere. Finora i principali modelli sono nati da alcuni colossi tecnologici mondiali, come Alphabet, Microsoft (attraverso OpenAI), Alibaba, Baidu, che dispongono di grandi risorse da investire. C’è quindi uno squilibrio di partenza, premessa di plutocrazia.
• Potenziali usi malevoli: che si tratti di testi, immagini, video o audio, creare artefatti di AI diventa sempre più facile. I contenuti si prestano a essere usati per attacchi di phishing, diffamazione, disinformazione a più livelli. E potrebbero anche, secondo Gartner, fomentare conflitti politici.
• Opacità. Questi modelli funzionano come “scatole nere”, senza lasciar capire come o perché si arrivi a un certo risultato o a una certa risposta (è il noto problema della explainability dell’intelligenza artificiale).
• Proprietà intellettuale. I dati di partenza usati per il training dei modelli potrebbero appartenere a persone o entità, e non è chiaro a chi spetti la proprietà intellettuale dei contenuti generati dalle applicazioni.
Un futuro ancora da scrivere Queste paure sono giustificate? Forse tra non molto l’intelligenza artificiale smetterà di fare notizia, semplicemente perché gli investimenti miliardari e il lancio di nuove applicazioni e funzionalità diventeranno la norma. Non esisterà software o servizio che non includa una qualche forma capacità di machine learning, automazione, ricerca di pattern, conversazione, creazione di contenuti.
Oppure l’AI finirà ancora in prima pagina per qualcosa di sensazionale, qualcosa che ci sorprende nel bene o nel male, qualcosa che oggi l’intelligenza umana non sa ancora immaginare.
Valentina Bernocco