2 minute read
“Intelligenza artificiale, doppio allarme”
“Sarà sempre più difficile essere umani, perché non si distingueranno i prodotti della macchina e quelli dell’uomo”. “C’è bisogno anche di un comitato etico che fissi le regole per l’uso di questa nuova tecnologia”
Se ne parla tanto, sempre di più, anche se forse non ancora quanto servirebbe. I progressi dell’intelligenza artificiale sono uno dei temi caldi del momento, trascinati dal clamore che ha accompagnato la diffusione di Chat Gpt, il nuovo strumento di elaborazione dei linguaggi capace di creare testi che sembrano uscire dalla penna - meglio, dalla tastiera - di un copywriter.
Chat Gpt è però solo una delle ultime e più evidenti applicazioni di un processo che negli ultimi anni ha fatto passi da gigante: tra avatar e metaversi, strumenti grafici capaci di disegnare da soli e voci sintetiche degne di un doppiatore, gli universi virtuali e le intelligenze artificiali sono di fatto una realtà.
“È la direzione in cui si sta spostando l’innovazione e lo sviluppo di internet - conferma Matteo Salin, docente, ricercatore, imprenditore, componente dell’accademia Olimpica, da sempre molto vicino e attento alle novità e agli sviluppi della tecnologia, che recentemente ha affrontato proprio questi temi in una serie di conferenze. “Il famoso test di Turing dice che c’è intelligenza artificiale quando non siamo più in grado di distinguere se stiamo interagendo con un uomo o con una macchina - continua Salin - E ormai ci siamo”.
Negli ultimi anni l’accelerazione è stata impressionante. Il miglioramento della velocità delle connessioni, l’aumento della potenza di calcolo dei nuovi hardware, e la mole di dati accumulati in anni di Internet, ha reso possibili appli- cazioni che solo pochi anni fa sembravano confinate ai film di fantascienza. E che invece, da Alexa ai navigatori, fanno oggi parte della quotidianità. Quello che latita, caso mai, è una riflessione sulle implicazioni di questi nuovi strumenti, e non solo a livello pratico. “C’è intanto una questione di identità - osserva Salin - Distinguere se quello che abbiamo davanti e ci sta dando delle risposte è un umano o una intelligenza artificiale sarà sempre più complicato, in alcuni casi è già oggi impossibile, e questo vuol dire che sarà sempre più faticoso, per quanto possa sembrare assurdo, dimostrare di essere umani. E al tempo stesso sarà sempre più complicato elaborare con un giudizio critico il valore di qualcosa, capire se mi sto confrontando con qualcosa di nuovo e originale oppure con qualcosa di elaborato. Al punto che sarà necessario mettere una firma per capire se quell’oggetto è frutto del lavoro dell’uomo o della macchina”. Manca, inoltre, un dibattito sulle regole e sui limiti da dare alle nuove realtà.:“Tra gli addetti ai lavori se ne parla molto, ma manca una discussione a livello pubblico - aggiunge ancora il ricercatore - L’intelligenza artificiale va istruita, e quello che fa dipende da come viene istruita. Su questo c’è una necessità fortissima di regole e di una riflessione. Come ci si occupa di bioetica, e per esempio si stabilisce che non è corretto clonare degli essere umani per usarli come schiavi, servirebbe un comitato etico, a livello internazionale, per fissare delle regole, altrimenti prevale la logica del più forte”. I rischi, potenzialmente, possono nascondersi ovunque, dall’influenza sulle scelte di acquisto, alla manipolazione di atteggiamenti e orientamenti dell’opinione pubblica. Probabilmente cose del genere sono già successe, e nemmeno ce ne siamo accorti. Già oggi è possibile scrivere articoli, e creare notizie, o false news, con l’intelligenza artificiale”, conclude Salin.
Luca Matteazzi