6 minute read

CHI HA PAURA DI CHATGPT (& CO.)?

Da Elon Musk al mondo dei ricercatori, serpeggiano preoccupazioni sulle nuove capacità dell’AI generativa.

Continuando a far progredire l’intelligenza artificiale, l’essere umano sta programmando la propria estinzione? La domanda è certamente estrema, ma intercetta alcune paure diffuse sulla Artificial Intelligence, i cui ultimi sviluppi – trainati dal successo di ChatGPT – continuano a stupire e allo stesso tempo a preoccupare. Se non l’estinzione di noi stessi, stiamo forse programmando almeno l’estinzione della nostra unicità, di quel valore aggiunto che finora ancora distingue le persone dalle macchine, un insieme di competenze, creatività, capacità artistiche, sensibilità e, perché no, sesto senso. I più complessi modelli di deep learning e di AI generativa non possono ancora sostituirci del tutto, ma hanno ormai raggiunto livelli di “ragionamento” e an- che di creatività impensabili fino a solo qualche anno, o magari qualche mese fa. Il ritmo dell’innovazione è incalzante. E oggi si sentono incalzati, per non dire minacciati, anche coloro che svolgono professioni intellettuali o creative, dal giornalismo alla fotografia. Se inizialmente l’intelligenza artificiale è stata usata soprattutto per scopi di automazione (nel marketing e nel supporto clienti, per esempio), il suo impiego è stato poi esteso ad ambiti come le risorse umane e la finanza, dove è necessario processare, analizzare e scremare grandi quantità di dati. Nell’informatica l’AI è usata per disparati scopi, dalla gestione automatizzata e software-defined delle reti e dei data center alla scoperta di fake news e bot sulle piattaforme social come Facebook e Twitter. Ora però, nel mondo, decine di milioni di professionisti rischiano di essere rapidamente sostituiti da un software che può svolgere il loro lavoro quasi altrettanto bene, più rapidamente e a costi molto inferiori.

Il vero salto evolutivo è stato compiuto dai modelli di deep learning che alimentano applicazioni come ChatGPT, chatbot che può non solo trovare informazioni ed elaborare ragionamenti in risposta a una query, ma sa anche confezionare testi fatti e finiti, come saggi o articoli giornalistici, su potenzialmente qualsiasi argomento. Microsoft, facendo leva sul proprio investimento miliardario in OpenAI, ha integrato questa tecnologia nel proprio motore di ricerca Bing, nella piattaforma di collaborazione Teams e in alcuni prodotti della suite Dynamics (Crm, Erp e altro). Inoltre sta testando nuovi utilizzi dentro alle applicazioni Microsoft 365 (già Office 365), come Word, PowerPoint ed Excel. Lo stesso sta facendo Alphabet con Bard, un large language model sviluppato internamente, che permetterà a Google Search di dare risposte più pertinenti ed elaborate. “Raccoglieremo feedback dagli utenti e costruiremo su questa base”, ha dichiarato Zoubin Ghahramani, vicepresidente della ricerca di Google. “Siamo consapevoli di tutte le cose che potrebbero andare storte con i large language model ”. Intanto gli annunci e i progressi sono all’ordine del giorno. Mente Aws (la divisione cloud di Amazon) e Alibaba fanno a gara per introdurre nuovi strumenti e servizi per lo sviluppo di applicazioni di AI, è notizia recente il lancio da parte di Meta di un nuovo algoritmo di riconoscimento delle immagini chiamato Segment Anything Model, che sa identificare oggetti all’interno di fotografie o video anche se mai “incontrati” precedentemente in fase di training. In futuro potrebbe essere usato per riconoscere quello che osserveremo attraverso visori di realtà aumentata, oppure potrebbe dare supporto in svariati campi, dall’agricoltura alla ricerca scientifica.

I confini tra vero e falso

La novità dell’AI generativa sbocciata negli ultimi mesi sta nell’evoluzione tecnologica ma anche nella facilità di accesso. Le grandi capacità di calcolo necessarie per allenare gli algoritmi e per eseguire le applicazioni sono ora disponibili tramite cloud, e tutti i principali fornitori di servizi di infrastruttura (IaaS), piattaforma (Paas) e software (SaaS) stanno lanciando nuove offerte. Amazon Web Services, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure sono solo alcuni dei grandi nomi impegnati in questo percorso, che è anche un percorso di continuo aggiornamento tecnologico. Grazie alle più recenti unità di calcolo grafico (Gpu) di Nvidia, aziende come Adobe, Getty Images e Shutterstock stanno sviluppando nuove capacità di creazione di immagini e video all’interno dei rispetti- vi servizi: anziché cercare una fotografia o una grafica all’interno di un database, l’utente può impartire dei comandi testuali e ottenere, magari procedendo per tentativi, un risultato originale e unico. E questo ci porta su un altro punto critico: l’AI generativa può rappresentare una minaccia per la capacità di discernimento tra il vero e il falso? Citiamo a mo’ di esempio i deepfake (video o audio in cui l’immagine o la voce di una persona viene “clonata” a fini di disinformazione, diffamazione, scherno o truffa) e le già menzionate applicazioni di generazione di immagini. Applicazioni che sono del tutto legittime, ma che non impongono nessun obbligo di segnalare graficamente, in modo inequivocabile, le immagini artefatte. Un occhio attento sa ancora distinguerle da fotografie reali, ma recentemente grazie a un programma di text-to-image chiamato Midjourney il fondatore della piattaforma di giornalismo investigativo Bellingcat ha dato una forma visiva al (falso) arresto di Donald Trump, dichiarando solo successivamente che si trattava di uno scherzo.

Da Midjourney è uscita anche l’imma- gine, diventata virale sui social, di Papa Francesco vestito con un giaccone alla moda, mentre su YouTube si moltiplicano i video tutorial di fotografi e artisti che spiegano come sfruttare al meglio programmi di questo tipo. Un giovane fotografo cinese, Zhang Haijun, ha utilizzato Midjourney per creare ritratti della Cina tradizionale, e altri hanno seguito l’esempio per focalizzarsi su specifici periodi storici. Il livello di realismo è assai notevole e nessun dettaglio estetico e tecnico (taglio, sfocature, saturazione, eccetera) è tralasciato. È solo una nuova forma d’arte o si rischia di riscrivere la Storia?

Preoccupazioni per la privacy

Ha tenuto banco tra aprile e maggio il dibattito sul rapporto fra AI generativa e privacy. In seguito a un data breach subìto da OpenAI il 20 marzo, il Gpdp, l’autorità italiana Garante per la Protezione dei Dati Personali, si è interessata alla questione per arrivare a sollevare alcune obiezioni sui metodi di raccolta e trattamento dei dati portati avanti dall’azienda californiana. A detta del Garante, la raccolta e il trattamento dei dati per l’addestramento degli algoritmi fondativi sono stati fatti in “assenza di idonea base giuridica”. Ci sono poi altri due problemi: il trattamento dei dati personali “risulta inesatto in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale”, e inoltre non c’è un meccanismo di verifica dell’età degli utenti che accedono al servizio (teoricamente vietato a chi abbia meno di 13 anni). Per questo particolare difetto il Gpdp aveva criticato anche TikTok. In seguito a un incontro tra le parti, il Garante ha lasciato tempo a OpenAI fino al 30 di aprile per introdurre alcune modifiche nell’interfaccia dell’applicazione (richiesta del consenso al trattamento, age gap e altro). Altre autorità garanti nazionali, tra cui quella spagnola, stanno studiando i rapporti fra ChatGPT e privacy e nel frattempo il Comitato Europeo per la Protezione dei Dati (European Data Protection Board) ha predisposto la creazione di una task force dedicata alla questione. “I dati, a prescindere che siano personali o meno, sono il carburante necessario per lo sviluppo di meccanismi di AI come ChatGPT”, ha commentato Massimiliano Masnada, partner dello studio legale Hogan Lovells. “Il loro uso deve avvenire in modo sicuro ed etico. Per fare ciò non bastano i divieti. Un primo passo, in tale senso, sarà la corretta implementazione delle regole sul riuso dei dati che sono alla base del Data Governace Act, di prossima entrata in vigore, e del successivo Data Act”.

L’A.I. ci ruba il lavoro?

Un recente studio di Goldman Sachs stima che a livello mondiale nel medio periodo circa 300 milioni di posti di lavoro (equivalente a tempo pieno) potrebbero sparire a causa dell’intelligenza artificiale generativa. Si tratta di circa il 18% degli occupati a livello mondiale. Secondo gli analisti, nelle professioni amministrative verrà automatizzato il 46% delle attività, in quelle di ambito legale il 44%, nell’architettura e nell’ingegneria il 37%. Già oggi in Europa e negli Stati Uniti circa un quarto dei posti di lavoro potrebbe essere trasformato da una parziale automazione basata su AI. Il cambiamento tecnologico, fanno notare gli autori dello studio, dal dopoguerra fino alla fine degli anni Settanta ha creato nuove opportunità di lavoro allo stesso ritmo con cui le ha cancellate, mentre dagli anni Ottanta in poi l’impatto sull’occupazione è stato negativo. L’analisi di Goldman Sachs suggerisce che l’AI generativa avrà anch’essa almeno nel breve termine un impatto negativo sull’occupazione, non troppo diverso da quello di altre tecnologie informatiche che hanno segnato la storia contemporanea (pensiamo ai computer e a Internet). Se non altro, l’AI migliorerà la produttività, consentendo di fare di più in tempi più rapidi e a costi inferiori, ma soprattutto favorirà la domanda di nuove figure professionali.

Un compromesso tra uomini e A.I. Rifiutare questi sviluppi potrebbe essere anacronistico o addirittura reazionario. Ma è forse auspicabile che l’uso dell’AI generativa venga regolamentato in modo chiaro, anteponendo a tutto la tutela delle persone (cittadini, consumatori, utenti) anche a costo di rallentare l’innovazione. Negli Stati Uniti il Center for Artificial Intelligence and Digital Policy, un gruppo di interesse che si occupa di etica della tecnologia, ha chiesto alla Federal Trade Commission di impedire a OpenAI il rilascio commerciale di GPT4, la più recente versione del proprio modello di AI generativa. Una tecnologia che il gruppo definisce come “viziata dal pregiudizio, fallace”, e come “un rischio per la privacy e per la sicurezza pubblica”. Fa riflettere il fatto che tra i preoccupati ci sia anche Elon Musk, il miliardario che sull’intelligenza artificiale (quella del pilota automatico delle sue Tesla) ha costruito parte della propria fortuna. Musk è – insieme al cofondatore di Apple, Steve Wozniak, e ad altri mille tra dirigenti d’azienda, ricercatori e luminari universitari – tra i firmatari di una lettera aperta pubblicata dal Future of Life Institute, in cui si chiede ad aziende, ricercatori e sviluppatori di mettere in pausa almeno

This article is from: