più circoscritto a quello che gli abbiamo imposto, ma più ampio, e avrà capacità indipendenti. R. P.: Cosa invece l’Intelligenza Artificiale non è ancora in grado di fare? P. P.: Oggi una macchina non è capace di astrarre e di fare analogie, se non in parte, ma si sta cercando di sviluppare nuovi metodi per raggiungere questo obbiettivo. Inoltre, a oggi non abbiamo macchine coscienti di sé, né in grado di provare sentimenti, secondo me non tanto perché non sia possibile realizzarle, ma piuttosto perché noi stessi non sappiamo cosa sia davvero l’intelligenza. Stefano Mancuso parlava di intelligenza delle piante, illustrando come il mondo vegetale manifesti livelli di collaborazione straordinari. Noi invece abbiamo ancora molto da capire. Intanto, non sono convinto che l’uomo sia davvero così intelligente: come sostiene lo stesso Mancuso, se misuriamo l’intelligenza di una specie sulla base di quanto essa è in grado di sopravvivere, le piante sono più brave di noi, anche nella capacità di adattamento. Magari si adattano lentamente, ma lo fanno in modo brillante. Se domandiamo a qualcuno se tra due milioni di anni si immagina che l’umanità ci sia ancora, magari ci guarda perplesso, perché di fatto noi ci stiamo facendo del male, e non è un atteggiamento intelligente. C’è tanta strada da percorrere per comprendere cosa voglia dire intelligenza, capacità di adattarsi, di migliorare l’ambiente e di utilizzarlo a nostro vantaggio in modo non distruttivo. Sull’autocoscienza, su che cos’è il sentimento e cosa vuol dire provare emozioni, per quanto esistano tanti studi anche di ricercatori nel campo dell’Intelligenza Artificiale, il cammino è ancora lungo. R. P.: Cos’è il Machine Learning? P. P.: Il Machine Learning è una sotto-area dell’Intelligenza Artificiale che fa sì che le macchine, a partire dalla loro esperienza, migliorino il proprio comportamento. È composto da diverse tecnologie: dagli algoritmi genetici – Genetic Programming –, come anche dalle tecniche simboliche, cioè quelle tecniche che, a partire da regole date o da esempi simbolici (cioè scritti in linguaggio formale), sono capaci di inferire nuove regole. Diciamo che anche 24
le reti neurali fanno parte del Machine Learning, e in questo momento stiamo avendo grandi successi proprio impiegando quello che chiamiamo Deep Neural Network, le reti neurali approfondite. È una nuova primavera, o forse addirittura estate, per l’Intelligenza Artificiale. Tuttavia dobbiamo stare attenti: il Deep Neural Network è molto utile in alcuni casi, ma in altri dobbiamo usare strumenti diversi. Ho detto prima che nel 1943 McCulloch e Pitts inventano il neurone artificiale. Negli anni ’60 Frank Rosenblatt crea un dispositivo fantastico, che si chiama Perceptron, che sa imparare dalla visione: per esempio riesce a riconoscere i caratteri. È una macchina, non un programma, ed è piuttosto rudimentale. Nel 1969 Marvin Minsky e Seymour Papert, due ricercatori famosissimi, pubblicano il libro Perceptron, in cui viene distrutto tutto il discorso relativo alle reti neutrali, perché viene dimostrato che quelle reti riescono a realizzare alcune cose ma non altre. Ad esempio non sanno svolgere alcune funzioni matematiche molto semplici, come la funzione XOR, abbastanza banale. Tutta la ricerca sulle reti neurali si ferma fino a metà degli anni ’80, quando un gruppo di ricercatori del MIT – il Parallel Distributed Processing Group – inventa gli algoritmi di apprendimento, che funzionano su reti a multistrato. È la Bad Equalization: il primo algoritmo funzionale, la propagazione all’indietro dell’errore lungo tanti strati di neuroni. Riparte quindi la ricerca: dal 2005 in poi a livello accademico, dal 2015 anche a livello mediatico. Questi algoritmi funzionano, sono stati ottimizzati e ora disponiamo di una potenza elaborativa che prima non avevamo. Lo ripeto: non bisogna confondere il Machine Learning con il Deep Neural Network perché è vero che stiamo avendo grandi successi ma si tratta di una disciplina vasta. Ad esempio, stiamo usando algoritmi genetici per ottimizzare le reti neurali. Non è vero che funziona solo un paradigma. Pensiamo ad AlphaGO, la macchina che fa planning e gioca, vincendo, contro il grande campione di Go. Il gioco del Go è particolarmente complesso, tanto che, secondo diversi matematici, il numero delle posizioni sulla scacchiera del Go supera il numero di atomi che esistono nell’universo. Nel Go si usano le strategie di planning per trovare il modo di esplorare questo numero infinito di possibili stati e trovare la mossa migliore. Al 25