7 minute read

Un nuovo attore sociale che non è UMANO né ARTIFICIALE

Next Article
IVERSITÀ

IVERSITÀ

In questi ultimi mesi si parla e discute molto di ChatGPT e altri sistemi di intelligenza generativa che stanno diventando di uso comune. Ha fatto molto discutere la sospensione temporanea di ChatGPT in Italia da parte del garante della privacy. Alle ne OpenAI si è conformato alle richieste del garante. Come leggere questa sospensione?

I sistemi di intelligenza artificiale, di cui ChatGPT in questo ultimo periodo è solo la punta dell’iceberg, sono tecnologie che, per l’enorme quantità di dati su cui si sono allenate e per le informazioni che utilizzano per essere performanti, sono e diventeranno sempre più degli strumenti molto utili da diversi punti di vista. In primo luogo, in quanto tool che possono essere utilizzati nel percorso lavorativo o professionale, soprattutto per la capacità che hanno, per esempio ChatGPT, di manipolare grandissime quantità di dati testuali riuscendo a estrarre informazioni sempre più dettagliate. In secondo luogo, per l’utilità e l’interesse che simili tecnologie rivestono, ora come in futuro, per il fatto che saranno ingredienti di altre tecnologie e di altri servizi i quali permetteranno di sfruttare questo tipo di sistemi per fornire un’interfaccia più utile e fruibile agli utenti. Faccio un esempio tra i tanti: le app che servono ad intercettare i prezzi più vantaggiosi dei voli aerei. Queste app, per recuperare informazioni dettagliate, utilizzano anche strumenti come ChatGPT che quindi, in questo caso, è un ingrediente di un tool più complesso che permette di gestire il flusso di informazioni con cui elaborare la risposta al quesito.

Però, come spesso accade, componenti simili rappresentano sia un vantaggio sia un problema in quanto – come dichiarato da OpenAI, la società che ha sviluppato ChatGPT – i dati utilizzati per perfezionare queste tecnologie, soprattutto per quanto riguarda le tipologie testuali, sono presi dai social e da una lista molto limitata di fonti in rete a libero accesso come Wikipedia, siti open access e soprattutto conversazioni sui social. Fatto, questo, che potrebbe creare una situazione anomala nel momento in cui alcune informazioni, presu- mibilmente sensibili e derivanti dalle conversazioni online liberamente accessibili dal punto di vista tecnologico – ma non legittimamente utilizzabili per il training di queste tecnologie – sarebbe stato necessario rimanessero fuori. Da questo è derivata la sospensione temporanea del servizio in Italia decisa dal garante della privacy.

Il punto di vista del garante della privacy non è completamente compatibile con le capacità tecniche di queste tecnologie e di quelle in via di sperimentazione.

Il problema è serio perché in realtà il punto di vista del garante della privacy non è completamente compatibile con le capacità tecniche di queste tecnologie e di quelle in via di sperimentazione. Pertanto, gli stakeholder – il garante della privacy (non solo italiano ma anche europeo) e OpenAI – dovranno sicuramente confrontarsi. Ora, qual è il modo migliore per salvaguardare, da un lato, la possibilità di sperimentare in maniera sempre più sofisticata questi strumenti con i testi che circolano in rete e, dall’altro, la riservatezza delle informazioni e dei testi, protetta dalla legge sulla privacy? L’approccio che hanno queste tecnologie verso le informazioni rappresenta un aspetto ancora da gestire perché del tutto nuovo: non sappiamo ad oggi in che modo informazioni sensibili potrebbero orientare le capacità di produzione di testi o di immagini di queste stesse tecnologie.

Con quale ruolo questo tipo di strumenti così empatici entreranno a fare parte della nostra vita quotidiana e della società?

Si arriverà al punto in cui, interagendo con essi, non sapremo se dall’altra parte c’è un essere umano o una macchina.

Nel momento in cui queste tecnologie cominceranno a entrare sistematicamente nell’utilizzo quotidiano, nella vita di tutti i giorni, nell’uso di alcune app specialistiche che gestiscono determinati flussi di informazione, esse saranno sempre meno tecnologie e sempre più “attori sociali”. Siamo abituati a pensare all’intelligenza artificiale come a un insieme di tecnologie che eseguono un determinato compito sulla base di una interlocuzione umana o di una richiesta specifica da parte di una persona o di un’altra tecnologia. Quello che però sta accadendo è che questi sistemi di intelligenza artificiale producono un tipo di risposta informativa, sulla base della specifica richiesta, grazie a una sorta di autonomia decisionale. Questo fa sì che siano sempre meno tecnologie statiche per diventare sempre più tecnologie interattive che, come tali, hanno la proprietà di essere soggetti sociali, ossia veri e propri agenti nello spazio digitale; spazio che però è anche sociale, e nel quale pertanto questi strumenti si comportano come veri e propri “attori sociali” (come lo sono le persone, i gruppi e le organizzazioni) che svolgono attività precise di cui noi umani non abbiamo il completo controllo.

Possiamo chiedere a ChatGPT di produrre un testo senza sapere però come lo ha prodotto, oppure possiamo fargli delle domande senza sapere fino in fondo i percorsi tecnologici che hanno portato a dare quelle risposte. Da ciò deriva che ci troviamo in una condizione contemporanea di società digitale piuttosto ibrida in cui agiscono in uno stesso spazio tecnologico agenti umani e non umani. In questo spazio ibrido – che potremmo chiamare socio-tecnico – diventa sempre più difficile considerare semplici strumenti questi agenti in grado di produrre autonomamente contenuti o immagini. Si arriverà al punto in cui interagendo con essi non sapremo se dall’altra parte c’è un essere umano o una macchina.

La nostra interazione con le intelligenze arti ciali potrebbe essere condizionata dalle caratteristiche che noi attribuiamo loro. Tornando all’empatia, non c’è il rischio di considerare queste tecnologie qualcosa di più o di diverso da quello che sono?

Nell’utilizzo di questi strumenti la domanda da porsi non è quanto essi siano intelligenti o quanto empatici, bensì fino a che punto noi siamo disposti a considerarli intelligenti e fino a che punto siamo disposti ad accettare l’idea che siano strumenti anche empatici. Quando noi interagiamo con un altro essere umano partiamo dal presupposto della continuità antropologica: per esempio che la persona che abbiamo davanti si comporti nei termini cui siamo stati abituati dalla nostra esperienza di persone che vivono in un certo contesto sociale. Abbiamo delle aspettative che però, nei confronti di queste tecnologie, non sono perfezionate. Da un lato, infatti, sono aspettative falsate dall’immaginario fantascientifico ad esse collegato, dall’altro derivano dal fatto che, non sapendo in realtà fino in fondo come queste tecnologie funzionino, saremmo addirittura disposti ad attribuire loro le caratteristiche dell’essere umano tra cui quella di comportarsi come esseri senzienti.

A mio avviso, se il piano si mantenesse su una dimensione di distacco, e se quindi considerassimo queste tecnologie, per quanto sofisticate, autonome e interattive, pur sempre delle tecnologie, potremmo entrare in un processo di collaborazione, interazione e cooperazione sia in termini professionali che quotidiani. Si pensi, per esempio, al supporto che tali strumenti possono dare a chiunque per lavoro debba analizzare grandi quantità di dati, come uno studioso o un medico. Quello che però va considerato è che deve sempre esserci una verifica umana della risposta tecnologica. Più che altro per la capacità che noi umani abbiamo di capire qual è il percorso di queste tecnologie, di considerarlo con i giusti parametri e di usare questo tipo di risposte criticamente, sapendo che: a. sono date da una macchina; b. questa macchina può avere dei bias o delle distorsioni; c. comunque ha lavorato su dei dati e non è detto che questi dati non abbiano dei pattern nascosti che noi non conosciamo.

Un approccio critico di tipo costruttivo può essere utile per valorizzare l’ingresso di queste tecnologie, evitando di trasformarle in oracoli.

In un contesto quotidiano professionale, a mio parere, l’atteggiamento migliore da tenere verso queste tecnologie è – sì – quello di valorizzarne l’utilizzo e soprattutto l’enorme capacità e potenza che hanno nel manipolare i dati, con cui un essere umano ovviamente non può competere, ma consapevoli che questo tipo di informazioni può avere dei bias, come mantenere sempre vigile la capacità di giudicare le risposte date dalle macchine perché esiste il rischio concreto di una situazione di “black box”: io interloquisco con ChatGPT che a sua volta mi dà la risposta che io a mia volta prendo per buona così com’è. Questo non avrebbe senso, né dal punto di vista umano e sociale né dal punto di vista tecnologico. Un approccio critico di tipo costruttivo, invece, può essere utile per valorizzare l’ingresso di queste tecnologie nei percorsi professionali o in quelli legati alla vita quotidiana, evitando di trasformare questi strumenti in oracoli. Le intelligenze artificiali imitano gli esseri umani, esprimono delle strategie simili a quelle degli esseri umani, in alcuni casi potrebbero sembrare emotive; ricordiamoci però che restano delle tecnologie sofisticate in grado di manipolare i dati.

Ancora una questione: a pagamento o per tutti?

Se questi strumenti sono gli della ricerca pubblica allora devono essere disponibili in maniera pubblica.

La questione non è tanto se devono essere degli strumenti a pagamento o meno, quanto fino a che punto il loro sviluppo è frutto delle opportunità della ricerca pubblica. Perché se questi strumenti sono figli della ricerca pubblica allora devono essere disponibili in maniera pubblica. Essendo la ricerca accademica universitaria, soprattutto in Europa, una ricerca a libero accesso, se una società sviluppa dei sistemi di intelligenze artificiali sulla base di ricerche e studi fatti nel contesto accademico – quindi pubblico – quel libero accesso va valorizzato e considerato. Andrebbe, a mio avviso, prevista, per esempio, la possibilità di accedere a dei servizi gratuitamente, anche in società commerciali, e a pagamento nel caso di servizi più complessi che richiedono maggiori risorse (energia, database, ecc.), per il fatto che la società che gestisce quel servizio si fa carico dei costi. In altri termini dovrebbe essere garantito a tutti un servizio di base open access, e dovrebbe essere a pagamento un servizio più profilato e più dettagliato che comporti dei costi importanti da parte da chi lo commercializza. Altrimenti il rischio è quello di brevettare modelli o servizi nati grazie alla ricerca pubblica, sperimentati su dati pubblici, finanziati da società pubbliche che al momento cruciale diventano strumenti privati a pagamento. Non sarebbe eticamente legittimo, soprattutto nella misura in cui, come si diceva, queste tecnologie saranno sempre meno tecniche e sempre più sociali.

A cura di Laura Tonon

1950

Vengono creati i primi sistemi per valutare e produrre il linguaggio, in grado di produrre frasi che seguivano regole predeterminate, basate su una grammatica “formale”. I problemi maggiori erano legati all’ambiguità e complessità del linguaggio naturale.

1980

Grandi quantità di dati vengono usati per creare un linguaggio naturale più realistico e ricco di sfumature, grazie a modelli linguistici statistici, basati sulla teoria delle probabilità per determinare se una parola o una frase possano emergere in un particolare contesto.

2000

Si iniziano a studiare i modelli basati sulle reti neurali. Con l’aumento dei dati e della capacità di elaborazione, questi modelli sono diventati più potenti e oggi rappresentano il metodo standard per la modellazione linguistica.

This article is from: