Intelligenza Artificiale

Page 1

Dario Martini Raffi Tchakerian clasDIP / IUAV corso di Epistemologia del progetto / AA. 2008.2009 prof. Giulio Giorello

L’intelligenza artificiale



SOMMARIO Potenzialità, limiti, paure Storia e filosofia dell’AI Nuovi approcci

4 11 22

Bibliografia

27

3


POTENZIALITÀ, LIMITI, PAURE Secondo Ray Kurzweil, insigne informatico e saggista statunitense, pioniere del riconoscimento ottico dei caratteri e della sintesi vocale, nonché membro dell’American Association for the Advancement of Science, “Le nuove tecnologie di computing molecolare e tridimensionale consentiranno di ottenere una forma di intelligenza artificiale paragonabile a quella umana entro il 2020. […] I contenuti software più importanti verranno (parzialmente) ottenuti mediante reverse engineering del cervello umano, operazione questa ampiamente in corso. Ad oggi, oltre venti regioni del cervello umano sono già state modellate e simulate”. La previsione di Kurzweil si basa sulla generalizzazione della legge di Moore, celeberrimo enunciato empirico proposto nel 1965 da Gordon Moore, co-fondatore della Fairchild Semiconductors nel 1957 e della Intel nel 1968, secondo il quale “le prestazioni dei processori, ed il numero di transistor ad esso relativo, raddoppiano ogni diciotto mesi”. Kurzweil pubblica nel 2001 un saggio dal titolo “The law of accelerating returns”, ovvero “legge del ritorno accelerato” nel quale afferma la possibilità di una generalizzazione della legge di Moore, estendendo l’andamento esponenziale riconosciuto da Moore nell’ambito dei circuiti integrati a tecnologie molto precedenti ed alle tecnologie future. La legge descritta da Kurzweil ha in molti modi alterato la percezione della legge di Moore da parte del pubblico. È un credo comune (ma errato) che la legge di Moore fornisca previsioni riguardanti tutte le forme di tecnologia, quando in realtà essa riguarda solo i circuiti a semiconduttore. Molti futurologi utilizzano ancora il termine “legge di Moore” per descrivere idee molto più simili al concetto di “ritorno accelerato”. Tra i corollari dell’enunciato di Kurzweil, assumono una notevole rilevanza due concetti in particolare: Il primo è il fatto che a seguire uno sviluppo accelerato sia stata ogni cosa apparsa al mondo, e di conseguenza anche la stessa biologia, accresciutasi in modo progressivamente accelerato fino ai giorni nostri, fino al momento in cui è stata affiancata dalla tecnica, tecnica che a sua volta si trova oggi affacciata ad una fase di ridefinizione intrinseca, per via dei limiti fisici di ogni forma di meccanica non nano-tecnologica e della miniaturizzazione dell’information technology su supporti materiali in silicio. Egli giunge a generalizzare questo processo di progressiva sofisticazione schematizzando tutta la storia dell’evoluzione come una serie di sei macro-epoche fondamentali: strutturazione fisica e chimica della materia, sviluppo biologico e nascita del codice genetico, sviluppo del cervello e dell’intelligenza, nascita della tecnologia, come supporto esterno all’intelligenza, fusione di tecnologia ed intelletto in un elemento unitario, ed infine “risveglio del mondo” (“the universe wakes up”), intendendo con quest’ultima espressione il raggiungimento di uno stato definitivo di libero fluire d’intelligenza, attraverso la riorganizzazione di tutto lo spazio ed il tempo, ed il superamento di qualsiasi vincolo tecnologico alla diffusione delle informazioni, velocità della luce (forse) compresa. Per citare lo stesso Kurzweil, “La materia e i meccanismi “insensati” dell'universo saranno trasformati in eccezionali forme di intelligenza, che costituiranno la sesta epoca dello sviluppo dell'elaborazione dell'informazione. Questo è il destino ultimo dell'universo”. In secondo luogo, notevole è l’idea che questo processo evolutivo debba necessariamente incontrare un punto critico e decisivo, oltre il quale il progresso tecnologico procederà al di là delle stesse capacità di comprensione e previsione umana. In altri termini, se oggi l’homo sapiens si pone al vertice dell’evoluzione delle cose, e continuamente rafforza la sua posizione con gli strumenti messigli a disposizione dalla scienza e dalla tecnologia, questo predominio non sarà di certo eterno, ed il fattore capace di sovvertirlo è insito nella scienza e nella tecnologia stesse. Tale concetto non è in realtà un’invenzione di Kurzweil bensì un’idea ricorrente nella futurologia, definita “singolarità”, e comparsa per la prima volta negli anni ’50, in una conversazione tra i matematici Stanislaw Ulam e John Von Neumann, nell’ambito del Progetto Manhattan.

4


Citiamo a tal proposito una parte del prologo de “La singolarità è vicina. Quando gli esseri umani trascendono la biologia”, pubblicato dallo stesso Kurzweil nel 2005. “Cosa è, quindi, la singolarità? È un periodo storico futuro durante il quale il tasso di innovazione tecnologica sarà talmente veloce e il suo impatto talmente profondo, che la vita sarà irreversibilmente trasformata. Anche se né utopica né distopica, questa epoca trasformerà i concetti base che utilizziamo per dare significato alla nostra vita, dal modo in cui facciamo affari, al ciclo della vita umana, morte compresa. Capire la singolarità altererà la nostra prospettiva circa il significato del nostro passato e le ramificazioni del nostro futuro. Il comprenderla a fondo, inerentemente cambia il nostro punto di vista sulla vita in generale e sulla propria vita in particolare. [...] L'idea chiave sottostante l'imminente singolarità è che il tasso di cambiamento della nostra tecnologia sta accelerando e le sue capacità stanno crescendo ad un tasso esponenziale. La crescita esponenziale è ingannevole. Comincia quasi impercettibilmente per poi esplodere con furia inattesa - inattesa, se non se ne segue la traiettoria. […] Si prenda in considerazione Gary Kasparov, il quale, nel 1992, disprezzò le patetiche capacità dei programmi di scacchi di allora. Tuttavia, il raddoppio annuo delle capacità dei computer ha permesso ad uno di loro di sconfiggere Kasparov, solo cinque anni più tardi. La lista dei settori in cui il computer può oggi eccedere le capacità umane continua a crescere rapidamente. Inoltre, se una volta si trattava di applicazioni ristrette, oggi esse si stanno gradualmente espandendo da un settore all'altro. […] In generale, stiamo affidando al computer la responsabilità di molte mansioni che tipicamente richiedevano l'intelligenza umana. Le prestazioni di questi sistemi sono sempre più basate sull'integrazione di diversi tipi intelligenze artificiali (IA), ma finché avremo dei punti deboli in qualsiasi area dell'IA, gli scettici indicheranno quelle aree come bastioni inerenti della permanente superiorità umana rispetto alle nostre creazioni. Questo libro sostiene, invece, che entro alcuni decenni, le tecnologie informatiche includeranno tutte le conoscenze e competenze umane, comprese quelle di pattern recognition, la capacità di risolvere problemi, e l'intelligenza emotiva e morale tipica del cervello umano. Sebbene notevole per molti aspetti, il cervello soffre di severe limitazioni. Usiamo il suo enorme parallelismo (cento trilioni di collegamenti interneuronali simultanei) per riconoscere rapidamente anche i pattern meno ovvi, ma il nostro pensiero è estremamente lento: una normale transazione neurale è parecchi milioni di volte più lenta dei circuiti elettronici correnti. La larghezza di banda fisiologica che abbiamo a disposizione per assorbire e processare nuove informazioni, è quindi estremamente limitata rispetto allo sviluppo esponenziale del sapere umano in generale. I nostri corpi biologici versione 1.0 sono altrettanto delicati e soggetti ad una miriade di possibili guasti, per non parlare dei laboriosi rituali di manutenzione che necessitano. L'intelligenza umana è certamente in grado di raggiungere vette sopraffine di creatività ed espressione, ma gran parte del pensiero umano manca di originalità ed è inimportante e limitato. La singolarità ci permetterà di superare le limitazioni di corpo e cervello biologico. Otterremo il controllo dei nostri destini. La nostra mortalità sarà nelle nostre mani. Potremo vivere finché lo desidereremo (una dichiarazione leggermente diversa dal dire che vivremo per sempre). Avremo completamente spiegato il funzionamento del pensiero umano e ne estenderemo ed espanderemo la portata. Entro la fine di questo secolo, la parte non-biologica della nostra intelligenza sarà trilioni di trilioni di volte più potente dell'intelligenza umana. Oggi siamo nella fase iniziale di questa transizione. L'accelerazione del cambiamento di paradigma (il tasso con cui i fondamentali approcci tecnologici vengono rimpiazzati), così come la crescita esponenziale delle capacità della information technology, stanno per raggiungere “il gomito della curva”, la fase in cui una tendenza esponenziale diventa evidente. Subito dopo questa fase, la tendenza diventa rapidamente esplosiva.

5


Prima della metà di questo secolo, i tassi di crescita della nostra tecnologia (la quale sarà, in futuro, indistinguibile da noi stessi) saranno così ripidi da sembrare praticamente verticali. Dal punto di vista strettamente matematico, i tassi di crescita non saranno illimitati, ma così estremi saranno i cambiamenti che provocheranno intorno a noi, da apparire come un momento di rottura totale con il percorso della storia. Questa, se non altro, sarà la prospettiva dell'umanità biologica non-potenziata. La singolarità rappresenterà il culmine della fusione fra il nostro essere e la nostra intelligenza biologica e la nostra tecnologia. Il risultato sarà un mondo ancora umano, ma che trascenderà le nostre radici biologiche. Non ci sarà più distinzione, post-singolarità, fra uomo e macchina, o fra realtà fisica e realtà virtuale. Cosa potrà rimanere inequivocabilmente umano in un mondo simile? Semplicemente, una caratteristica: la nostra è la specie che inerentemente mira ad estendere le proprie capacità fisiche e mentali oltre le sue limitazioni correnti. Contemplando questi cambiamenti, alcuni commentatori si concentrano su quella che percepiscono come una perdita di un qualche aspetto vitale della nostra umanità che deriverebbe da questa transizione. Tale osservazione, tuttavia, deriva da una misinterpretazione di quello che la tecnologia diverrà. Tutte le macchine con cui siamo venuti a contatto fino ad oggi non sono certamente dotate di quell'essenziale raffinatezza tipica delle qualità biologiche umane. La singolarità ha molti aspetti, ma l'implicazione più importante è questa: la nostra tecnologia eguaglierà e poi eccederà di molto la duttilità e la raffinatezza di quelle che consideriamo le migliori caratteristiche degli esseri umani.” La più diffusa definizione di singolarità è tuttavia quella fornita dallo statistico I.J. Good nel 1965: "Diciamo che una macchina ultra-intelligente sia definita come una macchina che può sorpassare di molto tutte le attività intellettuali di qualsiasi uomo, per quanto costui sia abile. Dato che il progetto di queste macchine è una di queste attività intellettuali, una macchina ultra-intelligente potrebbe progettare a sua volta macchine sempre migliori; quindi, ci sarebbe una "esplosione di intelligenza", e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultra-intelligente sarà l'ultima invenzione che l'uomo avrà la necessità di fare". Sempre nello stesso filone concettuale si colloca il concetto di singolarità elaborato negli anni ’80 dal matematico e romanziere statunitense Vernor Vinge. Nel suo saggio intitolato “Technological singularity”, sèguito di un articolo presentato al Vision-21 Symposium del 1993, organizzato e sponsorizzato dalla NASA presso l’Ohio Aerospace Institute, Vinge ha modo di dire: “Entro trenta anni, avremo i mezzi tecnologici per creare un’intelligenza superumana. Poco dopo, l'era degli esseri umani finirà”. Questa affermazione viene spesso citata nella futurologia recente per l’accezione apparentemente negativa della seconda frase, che sembrerebbe ampiamente contrastare la grandissima fiducia nel progresso espressa da Kurzweil, nonché la non meno suggestiva idea di Good, citata poc’anzi, che al nascere di un’intelligenza effettivamente autonoma l’uomo potrà finalmente smettere di occuparsi di invenzioni materiali e godersi le sue nuove e costantemente accresciute possibilità. In realtà, dal punto di vista di Vinge, il passaggio dall’umanità alla robotica super-intelligente non sarà assolutamente catastrofico e nemmeno svantaggioso. Andrà anzi a costituire una civiltà di nuovo livello, rispetto alla quale l’homo sapiens potrà essere considerato una forma di vita antiquata, obsoleta, inferiore. Secondo questa visione, le tecnologie informatiche abbandoneranno ben presto il supporto fornito sinora dai semiconduttori, esplorando la chimica organica e la biologia molecolare, nonché le nanotecnologie, argomento particolarmente caro ai futurologi. Questo consentirà lo sviluppo di grandi reti di processazione, modulari ed a sviluppo autonomo, connesse in modo diretto e trasparente al sistema nervoso.

6


Questo approccio è noto come “swarm intelligence”, e vanta numerosissimi sostenitori. Una sua trattazione particolarmente accurata è quella che possiamo ritrovare nel lavoro di George B. Dyson, “L’evoluzione delle macchine. Da Darwin all’intelligenza globale”, pubblicato per la prima volta nel 1997. La tesi del libro è che l'intelligenza artificiale sia un sistema complesso e che si evolva seguendo le regole individuate dall’evoluzionismo di Charles Darwin. Egli è convinto che i potenti mezzi dell’informatica tracceranno i loro futuri sviluppi nella tradizione dell’intelligenza meccanica collettiva, e che in questo senso non si correrà il rischio di rendere l’uomo antiquato, bensì si scorgerà grazie a loro la possibilità di evolverlo oltre i suoi limiti corporei, dandogli capacità speculative, mnemoniche e comunicative ad oggi impensabili. La rete oggi conosciuta come internet si andrà ad integrare nell’uomo stesso, e si diffonderà sempre più capillarmente, sino a diventare un tutt’uno con la struttura biologica e neurale dell’uomo e a rendergli possibile l’accesso ad una forma di “intelligenza globale”. I supporti tecnologici raggiungeranno l’autocoscienza, si affiancheranno e si integreranno a noi per perseguire i nostri scopi. L’intelligenza artificiale si svilupperà poi in modo completamente autonomo, secondo una linea evolutiva esponenziale. Verrà quindi raggiunto e superato il punto di singolarità, e la tecnologia sarà libera di evolversi in modo pressoché autonomo, a nostro completo vantaggio. Il quadro delineato da Kurzweil, Vinge e Dyson coincide con i capisaldi di quello che è un vero e proprio movimento culturale ed intellettuale incentrato sulla fede nella tendenza ad una condizione post-umana ed oltre-umana, mediante l’espansione delle conoscenze scientifiche e gli sviluppi della tecnologia, ovverosia il cosiddetto “Transumanesimo”. La prima definizione di Transumanesimo è quella fornita già nel 1957 da Julian S. Huxley, biologo genetista e scrittore inglese, secondo il quale il transumano è “l'uomo che rimane umano, ma che trascende se stesso, realizzando le nuove potenzialità della sua natura umana, per la sua natura umana”. Come puntualizza il futurologo e filosofo Max More, “il Transumanesimo condivide molti elementi con l'Umanesimo, inclusi il rispetto per la ragione e le scienze, l'impegno per il progresso ed il dare valore all'esistenza umana (o transumana) in questa vita. […] Il Transumanesimo differisce dall'Umanesimo nel riconoscere ed anticipare i radicali cambiamenti e alterazioni sia nella natura che nelle possibilità delle nostre vite, che saranno il risultato del progresso nelle varie scienze e tecnologie […]”. Nel suo celebre discorso dal titolo “Sul divenire postumano”, del 1994, More chiarifica ulteriormente la sua posizione, affrontando in particolare le questioni etiche sull’effettiva auspicabilità di un completo controllo sulla natura e del raggiungimento dell’immortalità, obiettivo cardine del Transumanesimo: “La trascendenza transumana è naturale. Proprio in natura, infatti, troviamo una tendenza intrinseca verso strutture più complesse, verso il superamento di se stessa tramite l'adozione di forme nuove e più efficienti. Nietzsche ha riconosciuto tale tendenza nel suo concetto di volontà universale di potenza. Più recentemente, abbiamo osservato questa stessa tendenza nella teoria della complessità, nella teoria dell'evoluzione, nella vita artificiale e nella neuro-computazione. Il superamento dei propri limiti viene naturale agli esseri umani. La spinta all'auto-trasformazione e alla trasformazione del nostro ambiente è centrale alla nostra stessa identità. Nessuno ci punirà per aver aperto il vaso di Pandora, per aver costruito le ali dell'intelligenza post-umana e della eterna giovinezza post-umana. I nostri vecchi miti fanno da freno all'innovazione radicale. Essi avevano una funzione positiva nella nostra preistoria, quando eravamo a rischio di estinzione. L'introduzione di una singola innovazione poteva cambiare la vita di una comunità di esseri umani primitivi, ma comportava il rischio di una minore efficienza che avrebbe potuto risultare nella carestia. Certo, anche oggi dobbiamo procedere con cautela nel modificare la funzionalità del cervello, dei nostri geni e della nostra fisiologia, ma sarebbe sbagliato trattenere i nostri sforzi per timore o per falso rispetto di una natura “incontaminata”.

7


Vita e intelligenza non possono stagnare; entrambe possono riorganizzarsi, trasformarsi ed oltrepassare i propri limiti in un progresso senza fine. Prendiamo come obiettivo, quindi, una esuberante, dinamica e illimitata continuazione di questo processo. L'obiettivo della religione è la comunione con Dio (o anche solo di servire Dio), un essere superiore. L'obiettivo estropico è invece un vero obiettivo umanista: espansione e progresso senza fine. L'umanità non deve stagnare: il progresso procede in tutte le direzioni e fermarne la corsa rappresenterebbe un tradimento del dinamismo inerente a vita e coscienza. Che si proceda, quindi, verso quella fase post-umana che al momento possiamo solo intravedere. […] Non più dei, non più fede, non più timidi rallentamenti. Catapultiamoci fuori dalle nostre vecchie forme, dalla nostra ignoranza, dalla nostra debolezza e dalla nostra mortalità. Il futuro appartiene alla postumanità.” Questa teoria offre prospettive a dir poco inebrianti, rimanda ai fasti dell’umanesimo ed al superomismo nietzschiano, annuncia una prosperità ed uno sviluppo senza pari, e promette di migliorare la vita dell’uomo in tutti i suoi frangenti. Sarà così che i “vecchi” robot evolveranno in forme di tecnologia sempre più diffuse, integrate, e dotate di un’intelligenza sempre più raffinata. Inizieranno ad affiancare l’uomo dapprima nei compiti più fisicamente difficoltosi o a rischio (e questo già lo stanno facendo), per poi giungere ad occuparsi, progressivamente e parallelamente allo sviluppo della loro intelligenza, di compiti sempre più umani. Le dimostrazioni di questa tendenza sono già molteplici. Non è passato nemmeno un mese da quando il ministro delle attività produttive e commerciali del Giappone, Motoki Korenaga, ha annunciato ingenti sforzi economici per rendere il suo Paese la prima nazione al mondo a potersi fregiare di un servizio integrato di badanti-robot. Investimento a prima vista folle e dispersivo, lo sviluppo di robot per l’assistenza agli anziani si rivela invece una scelta oculata e strategica, in un paese dove l’età media è la più elevata del pianeta, ed il crescente afflusso di donne dall’Indonesia e dalle Filippine per fornire assistenza alla fascia più vecchia della popolazione comporta problemi gestionali inediti, talmente complessi da far risultare ben più conveniente lo sviluppo di soluzioni alternative basate su forme di intelligenza artificiale (!). La strada da compiere per trasformare ingenui manichini telecomandati in intuitivi assistenti robot è tuttavia ancora decisamente lunga e difficoltosa. Basti pensare alla Brain-Machine Interface presentata dalla stessa Honda a fine marzo, e idealmente cardine del futuro sistema di dialogo coi robot domestici. Basata sulle più avanzate implementazioni di elettroencefalografia (EEG) e spettroscopia ad infrarossi (NIRS), la BMI effettua un monitoraggio combinato dell’attività cerebrale, per riconoscere i comandi da inviare via wireless ad un’apposita versione di Asimo, il noto robot flagship di casa Honda. Pur nell’estremo grado di innovazione raggiunto, è evidente come la trasmissione di informazioni dal cervello umano al robot richieda ancora macchinari enormi e tempi elevati, con risultati allo stesso tempo incoraggianti per la ricerca e imbarazzanti per ogni possibile uso concreto ed immediato. Per quanto Asimo e la BIM ne costituiscano ancora una versione primordiale ed impacciata, l’integrazione tra mente ed intelligenza artificiale sarà solo questione di tempo, e solo questione di tempo sarà lo sviluppo di un’intelligenza artificiale sufficientemente complessa da poter garantire un supporto efficace e responsabile agli anziani giapponesi e non, ed in generale a tutta la popolazione, che nei robot troverà assistenti utili e funzionali, sempre più vicini alle abitudini ed alle mentalità dei loro utenti, fino al giorno in cui riusciranno a confrontarsi attivamente con loro. Ricordiamo a questo proposito l’opera di Rodney Brooks, australiano, docente di robotica al MIT, responsabile del Computer science and Artificial Intelligence Lab, e direttore della iRobot Corp. Basandosi sul presupposto della “swarm intelligence” quale soluzione-chiave per un maturo approccio alla robotica del futuro, Brooks lavora alla creazione di forme di intelligenza artificiale generica e distribuita, capaci di imparare per tentativi ed errori, come già avviene nel regno animale.

8


A proposito di Brooks ricordiamo il documentario di Errol Morris, dal titolo “Fast, cheap, and out of control” (1997), incentrato sullo sviluppo della robotica portato avanti da Brooks, e sui possibili problemi conseguenti lo sviluppo di un’intelligenza artificiale autonoma, il tutto rivisitato in chiave ironica, nonché la sua conferenza del 2003 per TED Talks, dall’enigmatico titolo “How robots will invade our lives”. L’intervento studia inizialmente lo sviluppo della robotica e delle sue applicazioni: partita dal mondo dei giocattoli è ben presto giunta a sostituire l’uomo nei lavori domestici. Lo stesso Brooks è responsabile del progetto Roomba, il primo aspirapolvere automatico della storia (per quanto riguarda il mercato mainstream), e ne offre una dimostrazione al pubblico, evidenziandone la capacità di risolvere con efficacia semplici problemi di movimento su superfici piane dotate di ostacoli di varia natura. Passa poi in rassegna il progetto Packbot, anch’esso sviluppato con la iRobot, per fini militari. Packbot ha il compito di andare in avanscoperta in terreni potenzialmente pericolosi, registrando e trasmettendo immagini a colori e in infrarosso al campo base. Rispetto a Roomba, risolve problemi spaziali più complessi. È capace di arrampicarsi e ri-orientarsi in seguito ad una caduta, nonché di affrontare terreni accidentati, polvere e corsi d’acqua. Le sue qualità meccaniche lo rendono estremamente robusto, resistente a qualunque forma di attacco, per impatti sino ai 400 G. Laddove l’attività umana e quella artificiale erano ampiamente sostituibili nel caso delle pulizie domestiche, si evince qui l’insostituibilità dei robot in ambito militare. Capaci di recuperare informazioni tatticamente essenziali in tempi brevi e senza mettere a repentaglio la vita di nessuno, i Packbot ottengono nonostante i costi molto elevati una diffusione rapidissima, paradigmatica secondo Brooks di come i robot invaderanno la vita di tutti i giorni. In seguito ad uno sketch messo in scena con un collega, Brooks evidenzia le differenze tra l’intelligenza dei robot e quella umana, sintetizzabili in una gestione complessa dell’attenzione visuale, volta a massimizzare la qualità e l’efficienza dell’esperienza delle situazioni, così da riconoscere in tempo reale e con un alto livello di precisione la realtà circostante, ed a imparare autonomamente dalle situazioni, ricollegandosi a ricordi di configurazioni analoghe. Secondo lui, questa sarà la chiave per fornire i robot di un’autentica intelligenza, autonoma e accrescibile. L’intervento si conclude con l’analisi dell’interrogativo popolare per eccellenza sul tema della robotica e dell’intelligenza artificiale, ovvero “will they want to take over?”. La cinematografia recente ci offre un’infinità di spunti sul tema: a partire dall’occhio artificiale di HAL 9000, il celeberrimo Heuristically ALgorithmic Computer di 2001: Odissea nello spazio, innumerevoli sono le figure di vita artificiale ribelle proposte da Hollywood e da qui proiettate fra i timori di milioni e milioni di persone nel mondo. Brooks stigmatizza il problema con la convinzione che nonostante tutto il robot sarà sempre e comunque un prodotto umano, e che di conseguenza tutto quel che sarà in grado di fare rimarrà pur sempre il risultato di un preciso progetto, e con una battuta: “Will someone accidentally build a robot that takes over from us? It’s sort of like a guy saying ouch, I’ve accidentally built a 747! I mean, I think that’s not gonna happen. [...] The robots are coming, we don’t have too much to worry about it. It’s going to be a lot of fun. And I hope you’ll all enjoy the journey”. Questa fiducia così ottimistica nella capacità dell’uomo di continuare a detenere il controllo completo di intelligenze sempre più complesse non è tuttavia unanimemente condivisa, e a nostro avviso non può essere motivata in modo sufficiente da considerazioni empiriche basate sui metodi progettuali odierni, metodi che come vedremo in seguito sono già in discussione da decenni, ed appena ci sarà il know-how tecnologico necessario verranno dapprima affiancati ed in seguito rimpiazzati da strategie diverse, in primis il passaggio dalla materia semiconduttiva alla materia vivente ed auto-organizzata. Senza contare il fatto che il problema si rivela molto arduo già nell’“antico” immaginario dell’AI implementata nei cosiddetti robot. La più celebre risposta alla problematica di una possibile rivolta dei robot, almeno per quanto riguarda il grande pubblico, è quella fornita da Isaac Asimov, noto ai più come scrittore di numerosi best-seller

9


di fantascienza, ma anche divulgatore scientifico di prim’ordine. Egli risolve il problema della fedeltà dei robot con le cosiddette “tre leggi della robotica”, elaborate nel 1940 e successivamente citate più e più volte anche da altri autori di prosa fantascientifica, quali basi della convivenza tra umani e robot. Nella fattispecie, le tre leggi sono: 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e con la Seconda Legge. Implementate a mo’ di assiomi nella memoria non volatile delle forme di intelligenza artificiale, queste leggi sembrano garantire un perfetto sodalizio tra lo schiavo robot e l’umanità. Ma siamo certi che sia davvero così? Tralasciando le varie casistiche nelle quali queste leggi potrebbero non essere sufficienti a prendere decisioni effettivamente sicure, concentriamoci innanzitutto su di una banale osservazione storica, e cioè sul fatto che il concetto stesso di intelligenza artificiale dal 1940 ad oggi è stato completamente rivisto. Quel che un tempo veniva considerato un innocuo essere pseudo-vivente, dotato di un’unità di elaborazione centralizzata e le più disparate periferiche sensoriali e corporee, è stato totalmente ripensato nell’ottica della già citata “swarm intelligence”, delle reti neurali, del cloud computing, e del predominio dell’apprendimento autonomo sulla programmazione a priori. Tutto il dibattito recente sui temi dell’intelligenza artificiale si snoda sull’auspicio di rendere tali strutture le più aperte ed autonome possibili, anche dal punto di vista della formazione del codice software. Poiché il sogno dei progettisti di intelligenze artificiali è sempre quello di eguagliare l’intelligenza umana, e questa si è rivelata essere una struttura vincente non tanto per i suoi schemi quanto per la sua flessibilità, si è compreso come l’approccio più efficace debba necessariamente avere tra i suoi capisaldi un elevato grado di flessibilità. La via più semplice per far diventare il robot una forma di intelligenza capace di misurarsi con quella umana è quindi quella di farla sviluppare allo stesso modo, strutturandone l’hardware a immagine e somiglianza del sistema nervoso dei mammiferi, e facendo sì che tutto il bagaglio “culturale” si formi nello stesso modo in cui si forma negli umani. Ovvero per tentativi e per errori, e con il supporto di una memoria allo stesso tempo pregevolmente schematica e completamente flessibile, capace di crescere ed evolversi con il tempo e le esperienze. Ma flessibilità, capacità di apprendere ed autocoscienza sembrano implicare l’insorgere di una forma di libero arbitrio ancor più pervasiva di quella delineata da eventuali bug dell’unico software “anima” delle speculazioni dei passati decenni. Il “nuovo robot” libero di evolversi dovrebbe essere libero anche di sbagliare, e vivendo a nostro contatto i primi a condividerne gli errori saremmo inevitabilmente noi. Ricordiamo a questo proposito la pellicola “Io, robot”, diretta da Alex Proyas ed uscita nel 2004. Basato sull’omonima antologia di Asimov, il film ne reinterpreta liberamente le trame, ponendo l’accento in particolare sulla possibilità che prima o poi le tre leggi possano essere infrante, e sulle possibili conseguenze catastrofiche di un evento di questo tipo, in un mondo che sempre più dipenderà dalla forza e dall’intelligenza di questi amici-nemici artificiali. Pur non misurabile sullo stesso piano della critica specializzata in materia, “Io, robot” riflette, in modo peraltro più efficace di quest’ultima, quelle che sono le speranze e le paure dell’uomo comune, che sempre più si vede costretto ad affrontare anche nel suo piccolo e nella sua quotidianità le speranze e le paure di un mondo sempre più permeato di robot antropomorfi e non, e di forme di intelligenza artificiale.

10


STORIA E FILOSOFIA DELL’AI Abbiamo sino a qui raccolto alcuni punti di vista sull’intelligenza artificiale ed il suo possibile ruolo nel futuro dell’umanità. Lungi dall’essere un fenomeno rispetto al quale porsi secondo posizioni favorevoli o contrarie, o nelle potenzialità del quale manifestare fede incondizionata o al contrario incredulità, l’intelligenza artificiale si rivela un tema imprescindibile per comprendere il presente ed il futuro della società di questo e dei prossimi secoli, nonché un punto d’incontro e di scontro obbligato di molteplici discipline, dalle cosiddette scienze umane all’ingegneria, dalle teorie sull'uomo alle applicazioni tecnologiche più avanzate, un coacervo di studi teorici e sperimentali, di innumerevoli opinioni, teorie ed interrogativi. Come si potrà riconoscere una macchina realmente pensante da una pura entità per il calcolo algoritmico? Quand’è che un computer si potrà dire effettivamente dotato di una mente? Quando si potrà parlare di una sua coscienza, e sarà mai possibile che ne abbia una? In che forma dovrà essere sviluppata una macchina per corrispondere a tali criteri? Con che materiali, con che architettura? Le questioni sinora aperte sono a dir poco sterminate, e sebbene alle grandi aspettative degli albori siano seguiti risultati per molti versi altalenanti quando non apparentemente fallimentari, esse continuano ad espandersi, fornendo un campo d’indagine sempre più fertile anche a discipline inizialmente scettiche o a prima vista lontane, in primis gli studi di natura filosofica. Nel suo saggio “Cyborgsofia. Introduzione alla filosofia del computer”, pubblicato nel 2004, Alberto G. Biuso, professore di Filosofia della mente presso l’università di Catania, ha modo di puntualizzare: “L’Artificial Intelligence non è una questione da informatici, non è una tecnica fra le altre, ma è innanzitutto il luogo in cui si esprime, oggi, l’invito inciso sul tempio di Apollo a Delfi: conosci te stesso”. La paternità del concetto di intelligenza artificiale è tradizionalmente affidata al gruppo di dieci studiosi, tra i quali Marvin Minsky e Claude Shannon, riuniti dal matematico John McCarthy nel 1956 al Dartmouth College di Hannover, New Hampshire, per uno storico seminario bimestrale sulla teoria degli automi e le reti neurali. Fu qui che vide la luce la prima definizione di “Artificial Intelligence”, descritta da McCarthy come quella disciplina in grado di “far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero fatte dagli uomini”. La definizione è volutamente aperta ad interpretazioni di diversa natura e a letture di varia profondità. Se da un lato è immediato il volervi riconoscere il risultato di una progressiva evoluzione nella sofisticazione logica e computazionale, non è celata nemmeno la possibilità di intendere l’intelligenza umana in senso più ampio, e di ritenere che siano effettivamente intelligenti soltanto le macchine che arrivino a manifestare una forma di pensiero reale ed autonomo, simile a quello umano anche negli aspetti, cruciali, della coscienza di sé e del libero arbitrio, tradizionalmente contrapposto al rigido schematismo deterministico dei sistemi di elaborazione con i quali siamo normalmente a contatto ancora oggi. Pur non essendo egli l’autore della prima definizione di intelligenza artificiale, il primo ad indicare in modo esplicito la possibilità che un programma porti un computer ad assumere un comportamento intelligente fu il matematico e logico britannico Alan M. Turing, nel celeberrimo articolo intitolato “Computing machinery and intelligence” (ovvero, “Macchine calcolatrici e intelligenza”), comparso nel 1950 sulla rivista “Mind”. Proiettato da lì all’attenzione della comunità scientifica internazionale, il sogno sino ad allora inespresso di rendere i computer macchine intelligenti divenne improvvisamente una chiara questione di capacità di calcolo ed efficacia nella rappresentazione simbolica dei problemi. Essendo il concetto stesso di “pensiero” tradizionalmente difficile da definire in modo non ambiguo ed opinabile, ed essendo parimenti complessa anche la stessa idea di “macchina”, Turing sostituì la domanda fondamentale, “possono le macchine pensare?” con un interrogativo strettamente dipendente al primo e tuttavia non ambiguo, ovvero la corrispondenza fenomenologica tra ciò che riconosciamo come comportamento umano ed il comportamento di una macchina. Non soltanto: Turing suggerì, sempre nel medesimo articolo, anche un metodo sperimentale per verificare la sofisticatezza dell’intelligenza meccanica, metodo in seguito a più riprese rivisto, confutato,

11


e ridiscusso, passato alla storia come test di Turing, e destinato a diventare un argomento cardine di tutte le successive riflessioni di carattere filosofico sull’intelligenza artificiale. Proponiamo qui a seguire due estratti del testo originale, ovverosia la descrizione del celebre “imitation game”, e a seguire il passaggio sulla coscienza, che riteniamo particolarmente interessante ai fini dell’introduzione di questa problematica, da sempre punto critico e interrogativo di tante teorie sull’AI. THE IMITATION GAME The new form of the problem can be described in terms of a game which we call the “imitation game”. It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman. He knows them by labels X and Y, and at the end of the game he says either “X is A and Y is B” or “X is B and Y is A”. The interrogator is allowed to put questions to A and B thus: C: Will X please tell me the length of his or her hair? Now suppose X is actually A, then A must answer. It is A's object in the game to try and cause C to make the wrong identification. His answer might therefore be: “My hair is shingled, and the longest strands are about nine inches long.” In order that tones of voice may not help the interrogator the answers should be written, or better still, typewritten. The ideal arrangement is to have a teleprinter communicating between the two rooms. Alternatively the question and answers can be repeated by an intermediary. The object of the game for the third player (B) is to help the interrogator. The best strategy for her is probably to give truthful answers. She can add such things as “I am the woman, don't listen to him!” to her answers, but it will avail nothing as the man can make similar remarks. We now ask the question, “What will happen when a machine takes the part of A in this game?” Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, “Can machines think?” THE ARGUMENT FROM CONSCIOUSNESS This argument is very well expressed in Professor Jefferson's Lister Oration for 1949, from which I quote. “Not until a machine can write a sonnet or compose a concerto because of thoughts and emotions felt, and not by the chance fall of symbols, could we agree that machine equals brain – that is, not only write it but know that it had written it. No mechanism could feel (and not merely artificially signal, an easy contrivance) pleasure at its successes, grief when its valves fuse, be warmed by flattery, be made miserable by its mistakes, be charmed by sex, be angry or depressed when it cannot get what it wants.” This argument appears to be a denial of the validity of our test. According to the most extreme form of this view the only way by which one could be sure that machine thinks is to be the machine and to feel oneself thinking. One could then describe these feelings to the world, but of course no one would be justified in taking any notice. Likewise according to this view the only way to know that a man thinks is to be that particular man. It is in fact the solipsist point of view. It may be the most logical view to hold but it makes communication of ideas difficult. A is liable to believe “A thinks but B does not” whilst B believes “B thinks but A does not.” Instead of arguing continually over this point it is usual to have the polite convention that everyone thinks. I am sure that Professor Jefferson does not wish to adopt the extreme and solipsist point of view. Probably he would be quite willing to accept the imitation game as a test. The game (with the player B omitted) is 12


frequently used in practice under the name of viva voce to discover whether some one really understands something or has “learnt it parrot fashion”. Let us listen in to a part of such a viva voce: Interrogator: In the first line of your sonnet which reads “Shall I compare thee to a summer's day,” would not “a spring day” do as well or better? Witness: It wouldn't scan. Interrogator: How about “a winter's day”, that would scan all right. Witness: Yes, but nobody wants to be compared to a winter's day. Interrogator: Would you say Mr. Pickwick reminded you of Christmas? Witness: In a way. Interrogator: Yet Christmas is a winter's day, and I do not think Mr. Pickwick would mind the comparison. Witness: I don't think you're serious. By a winter's day one means a typical winter's day, rather than a special one like Christmas. And so on, What would Professor Jefferson say if the sonnet-writing machine was able to answer like this in the viva voce? I do not know whether he would regard the machine as “merely artificially signalling” these answers, but if the answers were as satisfactory and sustained as in the above passage I do not think he would describe it as “an easy contrivance”. This phrase is, I think, intended to cover such devices as the inclusion in the machine of a record of someone reading a sonnet, with appropriate switching to turn it on from time to time. In short then, I think that most of those who support the argument from consciousness could be persuaded to abandon it rather than be forced into the solipsist position. They will then probably be willing to accept our test. I do not wish to give the impression that I think there is no mystery about consciousness. There is, for instance, something of a paradox connected with any attempt to localise it. But I do not think these mysteries necessarily need to be solved before we can answer the question with which we are concerned in this paper. Le convinzioni di Turing sono state sottoposte a diverse critiche. Il primo caso di apparente scardinamento del test di Turing fu rappresentato da Eliza, un programma realizzato nel 1964 da Joseph Weizenbaum, a quei tempi giovane ricercatore del MIT. Si trattava di un algoritmo, piuttosto semplice, che simulava una limitata competenza linguistica in inglese, ma che non aveva alcuna pretesa di comprendere realmente il linguaggio. Per semplificare il suo compito Weizenbaum aveva pensato di circoscrivere notevolmente l'ambito di argomenti su cui di volta in volta il suo programma era in grado di conversare. Siccome ogni conversazione deve avere un argomento, il programma era organizzato su due piani: il primo conteneva l'analizzatore del linguaggio, il secondo un copione. In questo modo, Eliza poteva essere messo in grado di sostenere una conversazione su come si cucinano le uova, o sulla gestione di un conto corrente bancario e così via. Ogni particolare copione permetteva a Eliza di assumere un ruolo diverso nella conversazione. Il primo copione che Weizenbaum diede ad Eliza fu quello per recitare la parte di uno psicoterapeuta di scuola rogersiana. Gli psicoterapeuti di questa scuola durante una seduta cercano di intervenire il meno possibile e, quando lo fanno, spesso si limitano a ripetere le affermazioni del paziente in forma di domanda. Si trattava dunque di un comportamento linguistico abbastanza semplice da simulare. Con grande stupore di Weizenbaum, Eliza ebbe un enorme successo. La gente che conversava con lui credeva veramente di avere a che fare con uno psicoterapeuta e provava persino sollievo dopo le sedute. Uno psichiatra, Kenneth Colby, scrisse persino che di lì a pochi anni programmi come Eliza sarebbero

13


stati pronti per l'uso clinico. Lo stesso Colby poco dopo realizzò un programma non dissimile da Eliza, che battezzò Parry. Parry simulava il comportamento linguistico di un paranoico. E anch’esso ebbe un buon successo, tanto da riuscire ad ingannare molti psichiatri che, dopo averlo intervistato via telescrivente, si dissero convinti di avere avuto a che fare con un vero paranoico. Ad un certo punto fu organizzata persino una seduta di Parry da Eliza. Sembrava dunque che questi due programmi avessero superato il test di Turing. In realtà né Eliza né tantomeno Parry erano dotati della sia pur minima intelligenza. Si trattava in entrambi i casi di un insieme di “trucchi” di programmazione (ad esempio, Eliza, nella maggior parte dei casi, prendeva le affermazioni del paziente e le rovesciava in forma di domanda, cambiando semplicemente i pronomi, cosa che in inglese, peraltro, è piuttosto semplice), che facevano affidamento sulla credulità dei loro interlocutori. E a ben vedere nessuno dei due programmi avrebbe mai superato il test nella forma in cui Turing lo aveva immaginato. Le persone che credettero veramente nelle capacità di Eliza infatti, non prestavano attenzione a ciò che il programma diceva loro, ma erano piuttosto intente a sfogarsi. E inoltre l'ambito della conversazione era tanto ristretto da non essere propriamente valido per il test. Ad ogni modo, sulla scia di Eliza, molteplici sono state le macchine in grado di affrontare il test di Turing con esiti in progressivo e costante miglioramento. Abbiamo oggi molti computer ad un passo dalla capacità di superarlo. Nel 2008, ci si è avvicinati ad un limite estremo con Elbot, che ha partecipato ad annuale un concorso per chatterbot, convincendo 3 giudici su 12 di essere un umano vero e proprio – e questo senza nessuno dei tic paranoidi che rendevano più facile il gioco a Parry. Se ci fosse cascato anche un quarto giudice, Elbot avrebbe tecnicamente superato la prova. In quest’ottica, la realizzazione di un algoritmo capace di ottenere questo risultato sarà soltanto questione di tempo. Ma la domanda è un'altra: sarà davvero una macchina intelligente? Può un algoritmo tradursi in effettiva intelligenza? A questa domanda sono state fornite molteplici risposte scettiche e contrarie, che non di rado hanno messo in discussione innanzitutto l’effettiva validità procedurale di questa tipologia di test. Una critica particolarmente efficace al test di Turing è l’argomentazione della cosiddetta “stanza cinese”, elaborata nel 1980 dal filosofo americano John Rogers Searle, e pubblicata in uno storico articolo intitolato “Menti, cervelli e programmi” sulla rivista “Behavioral and Brain Sciences”. L’esperimento della stanza cinese evidenzia l’inattendibilità del Test di Turing come prova sufficiente a dimostrare che una macchina o un qualsiasi sistema informatico siano sistemi dotati di vera intelligenza, sia che questi abbiano superato o meno tale test. Il ragionamento di Searle evidenzia essenzialmente lo scarto che sussiste tra il piano della sintassi e quello della semantica, e parte da questo presupposto per confutare la validità del test di Turing. Nel suo esperimento mentale, John Searle ipotizza che, in futuro, si possa costruire un computer che si comporti come se capisse il cinese, ed, in particolare, che questo si dimostri in grado di elaborare storie in questa lingua, concordemente con la visione di Roger Schank, CEO della Socratic Arts e noto visionario dell’AI. Secondo Schank, caratteristica dell’essere umano è la facoltà di rispondere a domande su storie nelle quali le informazioni sono trasmesse in modo implicito, tramite una serie di indizi non necessariamente correlati in modo lineare. Schank elabora a partire da questa osservazione un modello per algoritmi capaci di interpretare storie, basato su di una forma di “rappresentazione” mentale della storia, progressivamente chiarita e approfondita man mano che la storia procede. In virtù di questa rappresentazione dei fatti nel loro svolgersi organico, gli algoritmi di Schank acquisiscono la capacità di analizzare di volta in volta le domande e di rispondere in modo conforme al genere di risposta attesa da parte di un essere umano al quale venga raccontata la medesima storia (Schank e Abelson, 1977). In altre parole, Searle immagina un elaboratore di informazioni in grado di prendere dei simboli cinesi in ingresso, la cui sequenza corrisponda univocamente alla narrazione di una ben precisa vicenda, e di consultare un grande database interno capace di fargli produrre altri simboli cinesi in uscita, secondo la corretta sintassi della lingua, e coerentemente con il senso del racconto letto in input. Egli suppone poi 14


che il comportamento di questo computer sia così convincente da poter facilmente superare il test di Turing. In altre parole, si tratterebbe di un computer in grado di convincere un uomo che parla correttamente cinese di parlare con un altro uomo che parla correttamente cinese, mentre in realtà sta parlando con un calcolatore. A tutte le domande dell'umano il computer risponderebbe in modo appropriato, tanto da portare l’umano a convincersi di parlare con un altro umano che parla correttamente cinese. In questo contesto, i sostenitori dell'intelligenza artificiale forte concludono che il computer capisca veramente la lingua cinese, come farebbe una persona, in quanto non c'è nessuna differenza tra il comportamento della macchina e di un uomo che conosce il cinese. Searle porta avanti la sua controprova chiedendo di supporre che sia egli stesso a sedersi all'interno del calcolatore. In altre parole, egli si immagina di trovarsi all’interno una stanza dotata di una piccola apertura (la “stanza cinese”) dalla quale riceve dei simboli cinesi, e di possedere una tabella che gli consenta di produrre dei simboli cinesi in uscita. Searle fa notare che egli non capisce i simboli cinesi. La sua mancanza di comprensione dimostra che il calcolatore non può comprendere il cinese, poiché esso è nella sua stessa situazione. Manipola simboli, esattamente come sta facendo Searle, ma questo non può essere ancora considerato indice di un’autentica comprensione della semantica del cinese. Molto probabilmente, tutte le risposte di Searle sarebbero corrette, esattamente come quelle fornite dal computer, ma la corretta reinterpretazione dei simboli in quanto tali non è evidentemente sufficiente a garantire la decifrazione del messaggio insito in essi. Né Searle né il computer, pur riuscendo ad intrattenere una conversazione efficace, potrebbero per questo dire di aver compreso il linguaggio cinese. Senza considerare il fatto che un’operazione di controllo e trascrizione complessa come quella richiesta nel caso della scrittura cinese, basata su migliaia e migliaia di ideogrammi, richiederebbe ad un essere umano tempi assolutamente incompatibili con la normale velocità del parlato. Ma Searle non si ferma qui. Egli approfondisce l'esempio ipotizzando che la stessa stanza sinora occupata dall'elaboratore ed in seguito da egli stesso sia improvvisamente riempita dall'intera popolazione dell'India. Anziché avere un singolo individuo a manipolare la sequenza di simboli fornita in input ce ne sarebbero contemporaneamente milioni, e la possibilità di eseguire milioni di operazioni in modo parallelo ridurrebbe il tempo necessario all'esecuzione di ogni singolo in modo più che considerevole, ferma restando la perfetta ignoranza di ciascun indiano per la lingua cinese. Non sarebbe questo un possibile esempio del funzionamento dei singoli neuroni nel cervello? Simili agli indiani nella stanza cinese, i singoli neuroni non hanno la facoltà di comprendere il funzionamento globale del processo in cui sono coinvolti, eppure è grazie ad essi che, ad un livello superiore, la comprensione dell’intero racconto ha luogo. Con questa metafora, Searle approccia la questione di come un oggetto biologico (il cervello) possa, a partire da un insieme organizzato di unità elaborative algoritmiche, raggiungere l’intenzionalità e la semantica, che algoritmiche non sono, e costituiscono le basi dell’attività psichica. Ma trattasi non di un’effettiva spiegazione né di una vera e propria teoria del cervello, bensì di un’intuizione ancora molto approssimativa, ben lontana dal descrivere l’effettiva differenza tra un cervello ed un elaboratore. Cos’è avvenuto nell’evoluzione dei sistemi biologici che ancora non si può riscontrare nell’evoluzione dei computer, e che ha permesso loro di raggiungere l’intenzionalità e la semantica? A questa domanda Searle non riesce a dare alcuna risposta. Il suo lavoro tuttavia contribuisce al profondo rinnovamento dell’intelligenza artificiale, partito intorno al 1962 e da lì tuttora in corso. Secondo Marvin Lee Minsky, noto informatico statunitense e guru dell’intelligenza artificiale sin dalla sua nascita (partecipò anch’egli al celebre congresso nel quale McCarthy introdusse per la prima volta al mondo lo studio dell’AI), il problema si allontana sempre più dall’elaborazione di algoritmi ed euristiche, per andare a contagiare la rappresentazione della conoscenza stessa, le sue teorie e la sua strutturazione effettiva nella psiche umana. “Il problema della ricerca efficace con euristiche rimane un presupposto soggiacente, ma non è più il problema a quale pensare, per

15


quanto siamo immersi in sotto-problemi più sofisticati, ossia la rappresentazione e modifica di piani” (Minsky, 1968). È proprio in questa direzione che procedono oggi le sperimentazioni sull’intelligenza artificiale, sempre più affiancate (come avremo modo di vedere più avanti) dalla collaborazione delle neuroscienze. Portato avanti dal RobotCub Consortium, forte del supporto di numerose università europee, il progetto iCub è da molti ritenuto quanto di più vicino all'intelligenza artificiale si possa oggi immaginare, e viene di conseguenza considerato spesso come un esempio paradigmatico per l’intero corpus dell’intelligenza artificiale odierna. Il principale obiettivo di questa piattaforma è lo studio dei processi cognitivi, mediante l'implementazione di algoritmi quanto più possibilmente analoghi a quelli presenti negli organismi biologici. iCub si può considerare da più di un punto di vista un progetto aperto: la piattaforma è distribuita apertamente, ed il software è sviluppato in open-source, così da permettere contributi da ogni parte del mondo, ed aumentando il tasso di sviluppo in modo esponenziale. L'obiettivo finale di tale progetto consiste nello sviluppo di "umanoidi che imparano, pensano e parlano", e si prevede che sia il capostipite di una tale tipologia sperimentale. Angelo Cangelosi, professore di intelligenza artificiale e scienze della cognizione presso l'università di Plymouth, racconta: “I risultati di questa ricerca ridefiniranno i requisiti scientifici e tecnologici necessari per la progettazione di robot umanoidi in grado di sviluppare comportamenti complessi e facoltà di pensiero e di comunicazione, mediante apprendimento individuale e sociale”. L'esempio sopra citato è chiaramente ancora ciò che potremmo definire un computer. In questo caso, un computer dotato di un aspetto antropomorfo alla vista ed al tatto, ma pur sempre un computer. Ma è proprio questo ciò che intendiamo sviluppare? Per chiarire meglio il concetto: nel momento in cui, in un prossimo futuro, in una futura forma di civiltà tecnologicamente avanzata, ci recheremo in un negozio specializzato, per acquistare una forma di PAI (“personal artificial intelligence”), e non un computer, cosa vorremo che sia? Da un punto di vista operazionale, diremmo che desideriamo una macchina in grado di comportarsi in ogni suo aspetto come un essere umano, e che se così non sarà avremo premura di riportarlo ad aggiustare. Considerati i costi tecnologici di un tale apparecchio, trattasi di una più che legittima richiesta. È inoltre ininfluente, ai fini dell'esistenza di una vera AI, che la forma di tale prodotto sia antropomorfa o meno. Il nostro unico e primario scopo è quello di riuscire a dialogarci, a comunicarci. Dovrà risponderci in modo intelligente. In breve, dovrà risponderci come farebbe un umano. E il differente aspetto, in fondo, servirebbe soltanto ad impedire che esso ci inganni facendoci credere di essere tale. Tutti gli esempi sinora menzionati riguardano forme di esistenza elettronica, composte da sottostrutture hardware estremamente complesse, capaci di far scorrere nelle loro elettroniche vene algoritmi di complessità altrettanto straordinaria. Secondo la teoria dell'intelligenza artificiale forte, “l'idea è che l'attività mentale sia semplicemente l'esecuzione di qualche sequenza ben definita di operazioni, spesso designata col termine algoritmo” (Roger Penrose, “La mente nuova dell'imperatore”, pag. 39). Secondo il parere dei sostenitori di questa visione, contrapposta da Searle alla cosiddetta teoria dell’intelligenza artificiale debole, che si limita a concepire le macchine quali strumenti utili all’uomo e a valutare quindi la loro intelligenza in termini di qualità progettuale, la base della nostra intelligenza di esseri umani, compreso il relativo problema della coscienza, rimane di natura algoritmica. “Secondo questa concezione, tutte le qualità mentali – pensiero, sentimento, intelligenza, comprensione, coscienza – devono essere considerate come semplici aspetti di questa maggiore complessità di funzionamento, in altri termini, sarebbero semplicemente caratteri dell'algoritmo eseguito dal cervello”. Sulla base di quanto contemplato dal punto di vista dell'AI forte, non è difficile concludere che un giorno avremo senza alcun dubbio computer sufficientemente complessi da poter trattare gli algoritmi ed i programmi che costituiscono la logica di funzionamento del cervello umano, e che in quest'ipotesi si tratterà di macchine non soltanto in grado di passare il test di Turing con un il massimo punteggio, ma anche di provare emozioni e di vivere una forma di coscienza propria. I sostenitori dell'AI forte 16


sostengono che, in questa ipotetica serie di domande e risposte, un'ipotetica macchina realizzata ad immagine e somiglianza del cervello e dei suoi algoritmi di base non si limiterebbe a fornire una simulazione delle abilità umane, ma sarebbe letteralmente in grado di comprendere il significato delle informazioni recepite, e di elaborare risposte sulla base di questo significato, e che di conseguenza i programmi implementati in questa macchina altro non sarebbero che un modello completo ed esauriente dell'abilità umana di comprendere la storia e di rispondere a domande correlate. L'esempio sopra menzionato dovrebbe suggerire la convinzione che il test di Turing possa essere superato partendo da un livello di base ed accrescendo progressivamente la complessità di implementazione, sino a raggiungerne una paragonabile a quella propria del cervello umano. Ma la domanda rimane: sarebbe davvero una vera forma di comprensione quella operata da quest'ipotetica macchina, o semplicemente l'operato di un programma di simulazione, privo di qualunque valenza trascendente la sintassi? Fu proprio per ribattere a questa spinosa domanda, tuttora priva di una risposta definita, che Searle elaborò il già citato esperimento mentale della stanza cinese, e con esso si propose di fornire un'adeguata controprova alla tesi dell'intelligenza artificiale forte. Ma al di là della critica di Searle, ci sono, come espone dettagliatamente il matematico Roger Penrose nel suo celebre saggio “La mente nuova dell'imperatore”, molte altre difficoltà nel sostenere il punto di vista dell'intelligenza artificiale forte. Stando a questa visione, tutto ciò che conterebbe è l'algoritmo. Non importa che l'algoritmo venga eseguito da un cervello, da un computer, dall'intero popolo dell'India: quel che conta (e che effettivamente corrisponderebbe ad un ben preciso “stato mentale”) è semplicemente la struttura logica dell'algoritmo, e quale sia il mezzo fisico mediante il quale questo algoritmo riesca ad aver modo di verificarsi, non ha alcuna rilevanza. Per dirla in altri termini, è puramente questione di software. Gli esiti del software non dipendono dal tipo di hardware sul quale viene fatto girare, eccezion fatta per la loro efficienza temporale. Architetture diverse possono implicare differenti tempistiche, ma non differenti risultati. Il software del cervello potrebbe quindi essere senza alcun problema ricondotto all’hardware di un computer, e, volendo, viceversa. Negli anni '60 dello scorso secolo, il filosofo statunitense Hilary Putnam giunse a dire che perfino un pezzo di formaggio, qualora fosse strutturato in modo funzionalmente isomorfo al cervello, ovvero dotato degli stessi stati e delle stesse relazioni causali, dovrebbe dirsi in grado di pensare, indistinguibilmente da un cervello. L'affermazione, che costituisce una delle più estreme conseguenze del funzionalismo, ovverosia la teoria della “relizzabilità multipla” (un singolo stato mentale può corrispondere a molteplici stati fisici), sebbene oggi superata, anche da parte dello stesso Putnam, (a partire dal volume “Filosofia e vita mentale” del 1973, nel quale riconosce l'eccessivo semplicismo operato nel ricondurre il funzionamento del cervello ad una macchina di Turing), rappresentò tuttavia una pietra miliare nella teorizzazione cosiddetta “forte” dell'intelligenza artificiale. Per quanto innovativa si sia rivelata, va detto che la visione funzionalista dell'intelligenza artificiale affonda le sue radici nella storia del pensiero occidentale. Già Kant, e prima di lui, lo stesso Aristotele, avevano espresso l'esigenza di mantenere il livello mentale e quello corporeo separati, pur nella loro unità di funzionamento: Aristotele riteneva la mente una funzione del corpo (e in quest’ottica, configurazioni differenti di differenti corpi potrebbero in linea di massima produrre identici stati mentali, così come previsto dal funzionalismo), mentre Kant la individuò nella sintesi funzionale dell'attività dei sensi, filtrati secondo le categorie innate dello spazio e del tempo (anche qui, la compatibilità con il funzionalismo è evidente). Sotteso a queste differenti interpretazioni, troviamo uno dei nuclei cardinali di tutta la nostra filosofia, dagli albori alla contemporaneità: il cosiddetto "bodymind problem". In altre parole, la questione dei rapporti tra la mente, l'astrazione, ed il corpo, la fisicità. A questa intricatissima questione le risposte storicamente fornite sono numerosissime. Semplificando, due sono le posizioni polari di quest’eterna diatriba:

17


Una è il monismo, che tenta di ricondurre la mente ed il corpo ad un unico elemento fondante, considerando quindi la materialità quale subordinata alle forme spirituali della mente (cfr. Plotino, Hegel, Berkeley), o al contrario, conferendo un peso ontologico alla sola materialità, e riconducendo (o per meglio dire, riducendo) ad essa tutte le dinamiche della mente (cfr. Democrito, Epicuro, Hobbes, o per quanto riguarda le neuroscienze, i coniugi Churchland). L'altra è il dualismo, che al contrario, sostiene la dualità ontologica quale essenza del mondo, e dell'esistenza umana medesima (cfr. Platone, Sant'Agostino, René Descartes). Dal punto di vista dualista, mente e corpo sono entità distinte e complementari. Più vicina all'esperienza comune, la posizione dualista incontra tuttavia numerose difficoltà nel momento in cui sia necessario elaborare la dialettica tra mente e corpo, o per dirla cartesianamente, tra “res cogitans” e “res extensa”. Utile in tal senso è analizzare anche la posizione di Sigmund Freud, che ritiene la mente irriducibile al cervello, sebbene da esso non indipendente, tracciando così una linea concettuale diversa sia dalle ipotesi di trascendenza, sia dai monismi riduzionistici. L'ipotesi di Freud, per molti versi basilare ai fini della moderna psicologia, è tuttavia spesso accantonata dai neuroscienziati, che più frequentemente abbracciano il dualismo inteso come mero fenomeno da spiegare in termini meccanicistici e funzionalisti. Douglas Hofstadter, uomo di scienza statunitense, è celebre per la sua critica al funzionalismo, spesso citata come “Einstein in un libro”. Egli immagina un libro, di proporzioni straordinarie, che contenga la descrizione di tutto il cervello di Albert Einstein. Chiunque desideri domandargli qualcosa vi potrebbe trovare le stesse risposte che avrebbe dato Einstein, semplicemente sfogliando il libro e seguendo le sue dettagliate e complesse istruzioni. Quest'individuo si troverebbe in una situazione del tutto analoga a quella dell'operatore nella stanza cinese, e per calcolare ciascun output ad una velocità realistica impiegherebbe decenni, quando non secoli. La situazione è perfettamente analoga, in senso operazionale, ad un test di Turing. Dal punto di vista dell'AI forte, il libro si comporterebbe in un certo senso come una struttura algoritmica capace strutturalmente di pensare, comprendere, provare attenzione, nella stessa maniera in cui l'avrebbe fatto lo stesso Einstein. Sebbene mostruosamente rallentato rispetto a quest'ultimo, il libro si comporterebbe esattamente come il cervello di Einstein, come se fosse un'implementazione della sua identità. Un fatto questo, che si scontra apertamente col nostro senso comune. La prima critica al funzionalismo nell’AI può tuttavia essere rintracciata già nell’opera di Gerald M. Edelman, premio Nobel per i suoi studi sull’immunologia nel 1972. Egli critica in particolare l’analogia mente-computer, evidenziando come la struttura delle unità elementari che compongono i nostri cervelli non possa in alcun modo permettere tale metafora, se non a patto di sacrificarne il rigore esplicativo a livello dei singoli componenti in nome di una somiglianza (vaga ed illusoria) a livello d’insieme. Edelman propone poi una teoria definita “Darwinismo neuronale”: similarmente a quel che avviene nella selezione degli individui di una singola specie e di una specie in un dato ambiente naturale, i neuroni intrattengono un processo di selezione funzionale in rapporto alla loro capacità di reazione agli stimoli ambientali. In questo senso, il cervello differisce dagli elaboratori informatici per una differente gestione della complessità, incompatibile con il tradizionale concetto di algoritmo, varia di continuo, si evolve mentre elabora, e dipende in larga parte dalla sua corporeità. Sul discorso della corporeità torna anche lo stesso Penrose, che condivide le osservazioni di Edelman, concludendo che il cervello dipende dall’intero sistema nervoso, e che a sua volta l’intero sistema nervoso altro non è che un componente di un sistema ancor più complesso. In altre parole, a differenza di ciò che osserviamo nei computer (il software ha una potenzialità operativa indipendente dall’hardware), il cervello senza corpo non può pensare. Ed espandendo il ragionamento, il corpo non può interagire se non in ben preciso ambiente, forte di ben precisi stimoli (teoria della mente allargata). Per citare il noto antropologo Gregory Bateson, “il mondo materiale […] non è delimitato dall’epidermide” (“Verso un’ecologia della mente”, 1972). 18


Una trattazione ancor più suggestiva del rapporto mente-corpo-coscienza (o meglio, esperienza) è quella portata avanti da Vincenzo Tagliasco e Riccardo Manzotti nel loro volume “L’esperienza”, uscito nel 2001. Tesi centrale di quest’opera è la convinzione che le dinamiche cerebrali non siano sufficienti a spiegare l’insorgere dell’esperienza cosciente nella fisicità dell’uomo. Lungi dal sostenere posizioni metafisiche di sorta, Tagliasco e Manzotti criticano tuttavia il riduzionismo meccanicistico, troppo spesso dato per scontato negli ambienti della ricerca sul cervello, che vorrebbe l’esperienza quale prodotto delle sole strutture cerebrali, quasi come se questa fase fosse slegata dalle dinamiche percettive precedenti, e come se l’esperienza emergesse in modo inspiegabile dalla chimica del tessuto nervoso, per una nebulosa ragione di non meglio specificata complessità. Secondo i due autori, la coscienza coincide invece col processo nel suo intero svolgersi. Così come la temperatura semplicemente è il movimento delle particelle, Tagliasco e Manzotti propongono una definizione dell’esperienza per identità. Non una fase, quindi, bensì l’intero processo, con tutta la sua estensione nello spazio e nel tempo. Non un fenomeno interno, né un influsso esterno, bensì il prodotto di una specifica interazione, o meglio, l’interazione stessa. Corollario di questa teoria è l’impossibilità di concepire un’attività neurale separata dal corpo. Ovvero, l’impossibilità di qualsiasi “ipotesi Matrix”, ed anzi, la convinzione che sia sempre e comunque il corpo a modellare coi suoi stimoli il cervello, che non è un’unità di calcolo indipendente, bensì uno ed uno soltanto degli organi in gioco nei processi di esperienza. Avere esperienza significa percepire qualità, non vuol dire distinguere, discriminare, vuol dire semplicemente riconoscere. In questo senso anche la memoria è esperienza, soltanto in una prospettiva temporale dilatata, e anche le allucinazioni ed i sogni lo sono: differiscono dalla normale percezione per una differente predisposizione del sistema nervoso, ma la dinamica è del tutto analoga. Tale impostazione trascende inoltre, al di là dello storico dualismo mente-corpo, anche la classica distinzione soggetto-oggetto. Essi non sono altro che punti terminali di un processo la cui parte significativa non è la segmentazione bensì la dinamica, il processo in sé. Non è l’esistenza a priori di soggetto ed oggetto a consentire un determinato processo, bensì è il processo a consentirci di poter riconoscere un soggetto ed un oggetto, e quindi a stabilire la loro esistenza, quali anelli di una catena più complessa e fondamentalmente unitaria. Il modello della mente proposto da Manzotti e Tagliasco è analogo un paesaggio solcato da corsi d’acqua. Le rocce sono la mente e l’acqua le esperienze: alla nascita, il paesaggio è omogeneo e malleabile. Le acque sono libere di fluire e di modellare il paesaggio. Man mano che il paesaggio viene modellato, la sua configurazione determina lo scorrere delle nuove acque, che a loro volta lo variano, rafforzando alcune morfologie e modificandone altre. Il campo nel quale la suddetta teoria dovrebbe trovare la sua dimostrazione sperimentale è ovviamente quello delle neuroscienze, e due in particolare sono le situazioni nelle quali potrà essere confermata o al contrario confutata: Una è la sostituzione sensoriale. Qualora il cervello fosse in grado di leggere nuovi segnali riconvertendo la sua configurazione precedente in una forma corrispondente ai nuovi input, la teoria di Tagliasco verrebbe sostanzialmente dimostrata. L’altro ambito è quello dell’evoluzione cerebrale in seguito ad amputazioni. Lungamente studiati dal famoso neurologo indiano Vilyanur S. Ramachandran, oggi professore di neuroscienze e psicologia all’università della California di San Diego, i fenomeni del cosiddetto “arto fantasma”, ovverosia della permanenza della percezione di un organo rimosso, o più comunemente di un arto amputato, nonché dei relativi dolori, interessano ed affascinano da sempre i neurologi. Qui più che altrove, i malfunzionamenti del sistema nervoso sono il miglior campo di prova per capire le logiche sottostanti il suo normale funzionamento. Possono le aree corticali già addestrate e geneticamente predisposte a lavorare con una ben precisa area corporea essere riconvertite a nuove funzioni? Se questo fosse possibile, convaliderebbe le convizioni di Tagliasco e Manzotti sulla flessibilità dell’esperienza. Gli esempi quotidianamente divulgati dalla prosa scientifica, anche grazie allo stesso Ramachandran, ci rivelano un’evidente verità: non è soltanto la nostra coscienza in sè ad essere notevole, ma anche la

19


struttura fisica che la supporta. Se mai riusciremo a scoprire cos'è che rende un'entità fisica cosciente, potremo allora costruire la prima vera forma di AI. Ma molto probabilmente sarà qualcosa di completamente diverso dalle macchine così come oggi le intendiamo, e sicuramente qualcosa di profondamente diverso da un comune e odierno computer. Se da un lato un’apparente analogia funzionale ed un sistema ad impulsi di potenza invariabile, quantizzata, ha indotto molti a credere che il cervello sia per molti versi analogo ad una specie di processore tridimensionale, dotato di miliardi e miliardi di transistor ed un numero ancor più elevato di connessioni, capaci di consentirgli performance inaudite, la realtà dei fatti dimostra come nei meccanismi cerebrali siano profondamente coinvolti anche passaggi funzionali parzialmente probabilistici: un esempio su tutti è la fase di lancio di un segnale nervoso. Costituito da un numero variabile di impulsi tra loro equivalenti, il segnale emesso può essere diverso anche a parità di stimolo ricevuto, e non contempla regolarità numerologiche, fatta eccezione per la frequenza degli impulsi. Tutto questo un migliaio di volte al secondo. Un ritmo impressionante, ma pur sempre inferiore, e non di poco, a quello sostenuto dai congegni dell’informatica, prestazionalmente molto più veloci, eppure funzionalmente molo più limitati. Questo scarto ha sempre dato molto da riflettere tanto ai neurologi quanto agli informatici, quanto alla filosofia della scienza. Alla logica binaria dei computer si è cercato di trovare una corrispondente logica nel cervello, ma senza risultati esaustivi. Una delle più interessanti teorie emerse è l’analogia quantistica. L'unico luogo nel quale in realtà i singoli livelli quantici potrebbero avere importanza per l'attività neurale è la retina. Un singolo fotone proiettato sulla retina può essere sufficiente ad innescare un segnale nervoso, macroscopico, che viene però soppresso dagli efficaci sistemi di cancellazione dei segnali di fondo presenti nell’apparato visivo. Perché l'essere umano possa accorgersi dello stimolo visivo è necessario un segnale generato da almeno sette fotoni. Dal momento che esistono neuroni nel nostro cervello che possono essere innescati da una singola unità quantica, non è ragionevole domandarci se cellule di questo stesso genere possano essere presenti altrove nel cervello, e se la logica dei quanti sia una valida teoria della mente? È opinione diffusa che la chiave per la realizzazione di macchine capaci di simulare le capacità cerebrali del cervello umano risieda nel parallel computing e nel cloud computing, tecnologie sempre più diffuse e disponibili, a budget in crollo esponenziale. Questi sistemi hanno la capacità strutturale di portare avanti un numero spropositato di calcoli indipendenti, che a loro volta contribuiscono ad un calcolo complessivo. L'intento del cloud computing (cfr. Marvin Minsky e le reti neurali) è proprio quello di imitare la struttura del nostro sistema nervoso, partendo dalla considerazione che il cervello è capace di gestire calcoli complessi suddividendoli in molteplici operazioni indipendenti e simultanee. Che differenza sussiste in realtà tra il computing seriale e quello parallelo? Si misura tutto in termini di velocità ed efficienza. Forniamone un esempio pratico: per calcolare i fotogrammi di uno dei suoi più recenti lungometraggi di animazione, “Monsters vs. Aliens”, la DreamWorks Pictures SKG ha impiegato all'incirca novemila unità fisiche di elaborazione (core), in parallelo, per dividere tra loro le 40 milioni di ore di elaborazione necessarie ad un simile risultato. Per dare un'idea concreta di come questo approccio abbia cambiato il mondo dell'informatica, basti pensare che anche il più potente dei computer impiegati nel calcolo, da solo, non sarebbe riuscito a dare lo stesso output in meno di mille anni. Tutta l'industria dell'information technology si sta spostando verso questo approccio, con software sempre più modulari e suddivisibili, e cpu sempre più incredibili. Il record è attualmente detenuto da Intel, con un processore dotato di 80 core in un'unico guscio. Ed il numero è presto destinato a salire ancora. Il problema è che, per avvicinarsi alla comprensione del cervello, l'importante non è tanto ottenere una forma di organizzazione parallela delle unità di calcolo, bensì nel ricondurla ad un'identità unica e singolare, apparentemente contrapposta alla molteplicità di operazioni indipendenti contemporaneamente svolte. La mente umana organizza molteplici funzioni simultanee, 20


ma si identifica in una presenza unica. Il soggetto, esclusi i casi patologici, è tradizionalmente unico. L'esperienza comune ci insegna quanto difficile sia pensare a più di una cosa in contemporanea. In realtà, l'attenzione è progettata per focalizzare sempre su di un punto unico. La sensazione di riuscire a gestire più situazioni parallele comporta, in realtà, un cambiamento nella modalità d'attenzione, non un suo sdoppiamento. Pensare a due cose non comporta l'insorgere di una doppia coscienza, semplicemente una diversa modalità di attenzione. Sembra che il parallel computing sia destinato a somigliare sempre più all'attività del cervello umano, o se non altro per quanto concerne la sua attività inconscia. Varie azioni indipendenti si svolgono in modo simultaneo. Come camminare, respirare, coordinare il respiro per parlare. Differenti funzioni, portate avanti in modo autonomo ed inconscio, grazie all’attività del cervelletto. Parlando dell’unità della coscienza, che sembra essere al contrario una combinazione di moltissimi contributi, provenienti da tutte le zone del cervello, è giunto spontaneo a più di un ricercatore, appunto, un parallelismo con il mondo dei quanti. Nella teoria quantistica, differenti livelli alternativi possono coesistere, in sovrapposizione lineare, rendendo così possibile un’identità tra un determinato stato quantico ed un largo numero di attività parallele. L’ipotesi del cervello quantistico sbaraglia da non pochi punti di vista quella della sua natura algoritmica. Se supponiamo che l'azione del cervello, cosciente o meno, sia il mero risultato di qualche algoritmo di estrema complessità, com'è stata possibile l'evoluzione di un algoritmo così straordinariamente efficace? La risposta tradizionale è “selezione naturale”. In quanto creature soggiacenti ai principi dell'evoluzione naturale, anche i nostri cervelli si sono sviluppati secondo la stessa modalità. I migliori algoritmi hanno dotato i loro possessori di un miglior adattamento, e di conseguenza di una maggiore tendenza a sopravvivere, ad occupare posizioni dominanti, e quindi a riprodursi, diffondendo così il proprio algoritmo ad una progenie ancora in una posizione di dominio, mantenuta fino al momento in cui è sopraggiunto un algoritmo migliore, o meglio più adatto alla congiuntura ambientale, anch'essa in continua evoluzione. I migliori algoritmi si sono quindi tramandati alle generazioni successive, che hanno così ereditato le parti dai genitori le parti di codice migliori, portando l'evoluzione ad un livello superiore. Cosa accadrebbe, allora, se un comune computer raggiungesse l'intelligenza artificiale? Anche i migliori software contengono errori di piccolo livello, inesattezze, comunemente dette “bug”, che non vengono riconosciute in fase di testing e finiscono col venire alla luce durante l’uso, sebbene in situazioni solitamente particolari e circostanziate. Alcuni programmi sarebbero scritti in modo automatizzato da programmi "master", ma questi sarebbero pur sempre derivati da un lavoro di programmazione umana, passibile di un errore pronto ad essere propagato. Anche credendo che le coscienze dei programmatori siano a loro volta algoritmi, sarebbe comunque necessario un loro controllo, una loro forma di riparazione, un sistema che in qualche modo controlli la validità dell'algoritmo risultante. Ma come sarebbe verificabile l'esattezza di un algoritmo, in un sistema in cui anche l'algoritmo di controllo sia passibile di errori? Il ciclo si richiude in un paradosso. La necessità di processi di controllo è infinita, come in un sistema di specchi riflessi infinite volte l'uno nell'altro. E tutto questo senza nemmeno introdurre la possibilità di eventuali “mutazioni” dell'algoritmo in fase di copia/codifica, le quali introdurrebbero un margine d'errore e di casualità nello sviluppo del software. In altre parole: come attenderci ed ottenere miglioramenti mirati in un sistema evolutivo che contempla errori casuali? Siamo davvero pronti, qui ed ora, ad un software indipendente?

21


NUOVI APPROCCI Concludiamo la nostra ricerca portando l’esempio di un uomo che con la sua pluriennale attività di ricerca sul funzionamento del cervello ha recentemente avanzato un nuovo punto di vista sulla logica di base dell’intelligenza umana e sulle possibili applicazioni di una sua trasposizione nel mondo dell’informatica, dai grandi sistemi di calcolo centralizzato ai sempre più diffusi dispositivi per il mobile computing avanzato. Trattasi di un punto di vista particolarmente interessante, quindi, innanzitutto per la sua capacità di porsi in modo trasversale, tra la speculazione teorica e la sua sperimentazione ed evoluzione concreta. Quest’uomo è Jeff Hawkins, americano, classe 1957. Noto ai più per la sua ad oggi venticinquennale carriera da imprenditore nel campo dei dispositivi portatili, Hawkins ha fondato la Palm Computing, e curato in prima persona la nascita del suo prodotto di maggior successo, il Pilot, uno dei capostipiti del concetto stesso di palmare. Autore anche dell’altrettanto celebre Treo, prodotto dalla Handspring (in seguito acquistata dalla stessa Palm), Hawkins si è da sempre interessato all’intelligenza artificiale, quale chiave strategica per l’innovazione del settore informatico, da sempre vincolato dal peso e dal fabbisogno energetico di dispositivi sempre più sofisticati e costosi, ed ha saputo riconoscere quale fonte primaria d’ispirazione per il computer del futuro il cervello umano, che da sempre realizza senza alcuno sforzo operazioni ancora irraggiungibili anche dal più raffinato degli odierni computer. In anticipo sui tempi dell’industria informatica, Hawkins si è reso conto di come il problema essenziale di hardware e software di vecchia concezione non sia la limitatezza delle risorse hardware, spesso considerata un falso problema in virtù delle leggi di Moore e Kurzweil (vedi introduzione), bensì la scelta di approcci intrinsecamente rozzi, inadeguati, poco inclini ad una forma di intelligenza propriamente detta. A suo parere, l’informatica dei calcolatori si basa ancora su fondamenti teoretici dalle ridotte potenzialità evolutive, e l’unica fonte in grado di fornirle nozioni genuinamente rivoluzionarie è il corpus delle neuroscienze. A partire da ricerche auto-finanziate e no profit su piccola scala, dagli anni ’80 in poi, Hawkins affianca questo interesse alla sua attività imprenditoriale, sino a diventare imprenditore part-time, e infine a dedicare la maggior parte del suo tempo e delle sue risorse allo studio del cervello. Nel 2002 fonda il Redwood Center for Theoretical Neuroscience, e l’anno seguente realizza, a quattro mani con la giornalista Sandra Blakeslee del New York Times, una summa delle sue scoperte in forma di saggio, pubblicandola poi per la Times Books, col titolo “On intelligence. How a new understanding of the brain will lead to the creation of truly intelligent machines”. In questo libro, egli espone una nuova teoria dell’intelligenza, basata sul concetto di HTM (“hierarchical temporal memory”). Dapprima definita in termini puramente qualitativi, questa teoria verrà in seguito formalizzata matematicamente dall’amico e collega Dileep George, con il quale fonderà, tra il 2004 ed il 2005, la Numenta Corporation, società nata con l’obiettivo di studiare mediante complessi sistemi di simulazione software le dinamiche d’informazione interne alla corteccia cerebrale (un po’ come nello stesso periodo stava facendo la stessa IBM con il progetto Blue Brain, il più grande tentativo di reverse engineering del cervello mai operato nella storia), per sviluppare piattaforme software dotate di un’effettiva intelligenza e basate sulle HTMs. Convinzione alla base dell’esistenza stessa di Numenta è che, una volta raggiunta una forma sufficientemente sofisticata di intelligenza artificiale, ovverosia quando arriveremo a comprendere davvero le logiche di funzionamento del nostro cervello, e le sapremo quindi re-implementare in altre forme materiali, saremo finalmente in grado di progettare dispositivi allo stesso tempo semplici ed intelligenti, dispositivi con i quali operazioni ad oggi complicatissime quali il riconoscimento facciale, o vocale, o della grafìa, più che normali e quotidiane per il nostro cervello, subiranno improvvisamente un’impennata in qualità ed efficienza. Senza contare il fatto che, essendo queste nuove macchine molto più tecnologicamente prestanti del cervello umano, sia in termini di velocità di elaborazione sia di banda passante e capacità di memoria, nonché molto più task-oriented, esse arriveranno ben presto a 22


superare quantitativamente il cervello umano stesso, rivoluzionando così tutte le procedure di simulazione informatica ad oggi più complesse, quali quelle richieste da climatologia, astrofisica, fisica delle particelle elementari, chimica molecolare, genetica, ed oltre. Ma cosa intende esattamente Hawkins per HTM? Siamo davvero di fronte al sacro Graal delle neuroscienze? Qual è la chiave di questa rinnovata fiducia nella possibilità di realizzare macchine dotate di vera intelligenza artificiale? Tutta la ricerca di Hawkins si basa su alcune semplici osservazioni, peraltro, nel loro immediato porsi, ampiamente condivisibili. Il punto cardine di tutto il suo lavoro è l’assenza, ad oggi, di una vera teoria sul cervello. A differenza di quanto accade nella stragrande maggioranza delle discipline scientifiche, in cui apparato sperimentale e speculazione epistemologica concorrono e dialogano alla formazione di teorie, nelle neuroscienze il quadro è a dir poco anomalo. Ci sono montagne di dati sperimentali, a fronte di un’assoluta mancanza di teorie, se non più o meno ingenue osservazioni empiriche. È come se lo scibile del cervello fosse già stato in piccola ma già assolutamente considerevole parte sfogliato, e a questo non riesca a corrispondere ancora nessuna buona teoria, teoria che sarebbe indispensabile, tra l’altro, a dare una direzione alle indagini sperimentali stesse. Indagini che si trovano così prive di una direzione di ricerca specifica, con conseguente dispersione di risorse. Innumerevoli ricercatori, in tutti i campi della fisiologia, dell’anatomia, degli studi sul comportamento, e via dicendo, continuano a racimolare informazioni su informazioni. Eppure, sembrano ancora insufficienti. O forse abbiamo già molti dati, ma manca ancora una buona teoria. L’opinione di Hawkins è che manchi ancora la capacità di organizzare e trattare i dati nel modo più appropriato, e che da parte di molti neuroscienziati latiti ancora la convizione che una riflessione sulle logiche globali sia a questo punto del percorso necessaria. Da questo punto di vista, il problema è anche e soprattutto culturale. La causa fondamentale di quest'assenza, secondo Hawkins, sta negli assunti impliciti e sbagliati che ancora poniamo alla base del nostro lavoro di ricerca, e che ancora ci impediscono di riconoscere la risposta più ovvia e corretta. In altri termini, dipende tutto da qualcosa che crediamo sia ovvio ed invece è sbagliato. Per esemplificare la situazione attuale è sufficiente guardare indietro nel tempo, ed osservare con più attenzione la dinamica di molte rivoluzioni scientifiche. Un esempio è la teoria eliocentrica di Galileo. Capace di spiegare in modo elegante e coerente tutto quel che il geocentrismo era stato costretto ad elaborare artificiosamente pur di rendersi plausibile, era stata impossibilitata da una profonda forma di pregiudizio, tanto che anche una volta esplicitata venne considerata una forma di eresia. Galileo fu costretto ad abiurare, e tutto ciò per aver saputo riconoscere la natura più ovvia e naturale dell’ordine delle cose. In quel caso la responsabilità fu in larga parte imputabile all’egemonia di una forma quanto mai retrograda di potere ecclesiastico, ma non meno frequenti sono i casi in cui a vincolare l’avanzare della scienza sia stata una forma di limitazione di natura interna. Gli assiomi più che opinabili ai quali Hawkins imputa la mancanza di una buona teoria del cervello sono essenzialmente due: Una è l’idea, mutuata dagli albori degli studi sull’intelligenza artificiale, e dal sibillino concetto rappresentato tutt’oggi della macchina di Turing, che l’intelligenza sia misurabile in termini di comportamento intelligente. Partendo da qui, e nonostante il mai abbastanza conosciuto esperimento mentale della stanza cinese proposto da Searle (vedi secondo capitolo), si è insinuata la convinzione che per realizzare una macchina intelligente sia sufficiente concepirla in maniera che sia in grado di dare lo stesso output di un umano, o comunque di una forma di intelligenza misurabile con quella umana. L’intelligenza, tuttavia, non è soltanto una questione comportamentale. Non è soltanto la qualità di un output, ma risiede essenzialmente in un fattore qualitativo a livello architetturale. Non basta complicare logiche di funzionamento improprie fino ad ottenere gli stessi esiti forniti da logiche diverse. È un approccio antieconomico e dispendiosissimo, che può anche portare a risultati validi, ma non ad

23


una precisa cognizione delle loro ragioni intrinseche. Per ottenere un’apprezzabile forma di intelligenza artificiale non bisogna quindi focalizzare sul risultato ma innanzitutto sul metodo. Non sul punto di arrivo ma innanzitutto sul punto di partenza e sulle logiche di percorso. E il punto di partenza è la mente umana. A giudizio di Hawkins, una riflessione di questo genere è stata raggiunta dalla filosofia dell’intelligenza artificiale, ma paradossalmente, deve ancora coinvolgere con la dovuta pregnanza gli studi di neurologia e gli esperimenti di robotica intelligente. Ancora una volta, teoria e sperimentazione viaggiano troppo distanti. Il secondo pregiudizio dipende invece in larga parte dalla diffusa convinzione che il computer sia un modello concettuale perfetto per la descrizione del cervello. Ciò tuttavia non è assolutamente vero. Basti pensare che se davvero esistesse un’identità architetturale tra cervello e computer, l’identità dovrebbe per forza di cose manifestare simmetria. Ovvero, se il cervello è congegnato ad immagine e somiglianza di un computer, dovrebbe valere anche il contrario. Ma così non è. Se il cervello può essere piegato alla metafora del computer, quest’ultimo a confronto col cervello si rivela ben poca cosa. Nella fattispecie: laddove in un computer a funzioni differenti corrispondono differenti architetture fisiche, nel cervello tutto è suddiviso tra parti di un intero contiguo, ed essenzialmente, pur nella sua complessità, omogeneo. Tanto che passarono decenni e si richiesero strumenti ben più avanzati di quelli necessari a decifrare gli altri tessuti umani per riuscire a comprendere come anche la materia grigia fosse composta da cellule distinte. E questo, per via di un altissimo livello di interconnettività, interconnettività che nei computer è al più consentita da un rapidissimo ma pur sempre unico bus di sistema. Mente le connessioni informatiche sono perfette, statiche, ottimizzate, e numericamente ridotte ai minimi termini, quelle interne al cervello appaiono caotiche, ridondanti, sovrabbondanti, e nondimeno dinamiche, variabili. Esse continuano a riorganizzarsi ed evolvere, in virtù delle necessità di sistema (e in molti sostengono che questo ciclo evolutivo sia in realtà alla base della memoria a lungo termine). Celebre è l’area denominata Purkinje, nel cervelletto, nella quale ciascun neurone possiede almeno ottantamila terminali sinaptici. Tutt’altra cosa rispetto alla macchina di Von Neumann. Infine, e soprattutto, al contrario di quanto oggigiorno suggerito dal senso comune, la corteccia cerebrale non lavora come un processore. Il cervello non è una cpu (vedi capitolo precedente). Esso si basa, al contrario, su di un complesso sistema di memorizzazione, che registra e riproduce le esperienze, per aiutarci a prevedere in modo sempre rapido ed efficace quello che sta per accadere. È proprio a partire da qui che si colloca la teoria del cervello proposta da Hawkins. Per Hawkins, l'intelligenza si gioca sull'esperienza di sequenze di pattern spazio-temporali ben precisi. Questi pattern vengono recepiti tramite gli organi di senso, che a loro volta sono ben più complessi dell’accademica suddivisione in cinque unità fondanti (basti pensare a quanti e quali differenti tipologie di visione richieda quella complessa attività sensibile che accorpiamo con l’unitario termine “vista”), e successivamente immagazzinati nelle pieghe del cervello, pronti ad essere richiamati in qualunque momento si rivelino attinenti alle situazioni in corso. È così che il cervello richiama, costantemente, pattern precedenti, per formulare previsioni in tempo reale della situazione in corso ed ordinare comportamenti appropriati in vista del futuro. L'intelligenza risiede di conseguenza nella logica interna che provvede a mettere in pratica comportamenti intelligenti in virtù di previsioni. È un processo temporale a lungo termine, e si fonda sull’apprendimento. In senso molto più profondo di quanto finora ipotizzato. Tutto questo avviene nella cosiddetta neocorteccia, sede di funzioni complesse quali percezione sensoriale, elaborazione dei comandi motori, intelligenza spaziale, linguaggio, coscienza e memoria, e dello stesso apprendimento. Ovvero, sede di tutte le funzioni che riteniamo abitualmente caratteristiche del nostro essere creature intelligenti. Ultima struttura generatasi nell'evoluzione del cervello umano (non a caso, da qui “neo-”), la neocorteccia ricopre oltre il 90% della superficie cerebrale, per un’area complessiva nell’ordine del metro quadrato, ed uno spessore variabile tra i due ed i tre millimetri. Organizzata in modo omogeneo, la neocorteccia non presenta alcuna divisione tra 24


unità di calcolo ed unità di memorizzazione del genere tradizionalmente inteso dall’informatica. Essa offre al mondo un’interfaccia unitaria, coerente, omogenea. E Hawkins ritiene che la logica più intima di questa interfaccia sia la memorizzazione avanzata, la hierarchical temporal memory, costantemente tesa tra le tracce del passato e quelle del presente, e di conseguenza determinante per qualsiasi tipo di attività inerente l’uso della corteccia. In altre parole, secondo Hawkins è proprio la memoria l'elemento cardine dell'intelligenza umana. Tradizionalmente intesa come un sofisticato sistema di processazione, l'intelligenza umana è in realtà prima di tutto un sofisticato sistema di memorizzazione di pattern complessi. Una volta memorizzata una situazione, la volta successiva in cui il cervello riceverà lo stesso genere di input, questa forma di memoria-coscienza verrà riattivata, in modo perfettamente automatico, proprio come avviene per le risposte istintive, ed impiegata per prevedere il futuro. È questo che ci permette di intuire una parola prima ancora che sia stata pronunciata e quindi ascoltata integralmente, di riempire il punto cieco della retina con un'immagine coerente (interpolata in modo predittivo), o di darci l'impressione di sentire, a livello mentale, la nota successiva di una melodia che è già stata ascoltata, e avanti così. Non abbiamo un database che testiamo ed applichiamo in modo analitico e sistematico in ogni evento grazie ad un sistema di processazione iper-veloce ed iperefficiente, come avveniva nei grandi calcolatori a scheda perforata (e discendenti), previsti da Turing e seguaci: semplicemente, formuliamo previsioni, registriamo sequenze parallele di pattern complessi, e prevediamo gli eventi immediatamente successivi a quello che stiamo vivendo. E ogni nostro output non è calcolato bensì ripreso da questo raffinatissimo sistema di memorizzazione. La teoria di Jeff Hawkins è indubbiamente molto suggestiva. Sia per la sua capacità di spiegare con eleganza e coerenza le molteplici situazioni del cervello e della psiche, sia, e a nostro avviso soprattutto, per la sua immediata applicabilità all’intelligenza artificiale. Grazie ad architetture software capaci di auto-apprendere pattern configurazionali e tipologici, ovverosia concetti dotati di significato qualitativo, invece dei tradizionali riferimenti quantitativi, il fatidico passo dalla macchinosa efficacia sintattica all’immediatezza della sensibilità semantica sembra poter essere finalmente compiuto. I dispositivi basati su memorie gerarchiche e temporali, siano essi applicativi o dispositivi materiali, strumenti specifici o robot multifunzionali, saranno in grado di costruirsi un comportamento intelligente poiché autonomo, di ragionare sul proprio vissuto, di agire di conseguenza, ed in esso riconoscersi, di adattarsi a situazioni sempre nuove, senza che sia necessaria alcuna riprogrammazione. All’epoca della programmazione seguirà quella del training. I robot smetteranno di essere creature statiche. Impareranno da soli, da soli evolveranno. E va riconosciuto come senza prospettive di autonomia non sarebbe possibile alcuna vera intelligenza. Grazie al continuo progresso nelle tecnologie di memorizzazione ed alla tendenza all’elaborazione dati parallela, variabile, delocalizzata, essi assumeranno comportamenti e strategie sempre più affini a quelle cerebrali. Il sogno di poter interagire con macchine intelligenti sembra ancora una volta, e più che mai, potersi distaccare dal regno delle utopie ed immergersi nella vita reale, in un presente che è sempre più futuro. Ma basterà tutto ciò a garantire alle macchine, informatica, meccatronica, o biologica che sia la loro futura fisicità, antropomorfa, o zoomorfa, o modulare, o informe che sia la loro figura, la coscienza, la percezione dell’individualità, la percezione della presenza al mondo, in quanto tali? Anche nell’ipotesi in cui riescano un giorno a raggiungere una mente, un’espressione critica ed autonoma, una comprensione del mondo affine a quella umana, e capace di interagire con essa, si accenderà mai nella loro materia artificiale quel bagliore caldo, ancora incompreso, eppure al tempo stesso così chiaro e inconfondibile, della coscienza di sé, del senso della propria esistenza, la coscienza della propria vita? La questione, come già in questa nostra breve panoramica abbiamo avuto modo di costatare, è a dir poco problematica e sfaccettata. Il campo di analisi è già stato ampiamente percorso dai più insigni nomi della cultura mondiale. Cultura umanistica e scienza perdono ogni parvenza di distinzione.

25


L’intelligenza artificiale si pone, oggi, come una questione di importanza strategica. Il problema investe l’umanità nella sua interezza. A meno di grandi catastrofi planetarie, è innegabile che la civiltà postindustriale dei prossimi secoli, stabilità economica e politica permettendo, continuerà a portare avanti la sua scienza e la sua tecnologia, e che i suoi artefatti si evolveranno in modo pressoché esponenziale. Davvero raggiungeranno la nostra intelligenza? Davvero vivremo un punto di cosiddetta singolarità, oltre il quale il controllo passerà a loro, e a noi soltanto i benefici, o le amare conseguenze, della qualità del nostro ingegno, creatore di ingegni? Davvero l’artificio diverrà nuova natura, e nuova vita? Le posizioni sinora emerse sul tema sono molteplici, e molteplici sono i punti di vista emersi, ciascuno dotato di un peso culturale, storico e scientifico non indifferente. Assistiamo, nell’arena dell’intelligenza artificiale, ad un incontro-scontro senza precedenti. Le discipline e le tradizioni si rimescolano, si rivalutano, si ridefiniscono. Vi si ridefinisce, innanzitutto, l’uomo. Il suo presente, in tutti i possibili aspetti della sua analisi. Dalla psicologia, alla fisiologia, alla cultura, alla morale. E vi si gioca il suo futuro, perché, qualunque sia la direzione che si andrà a prendere, dal futuro dell’intelligenza artificiale dipenderà il futuro di tutti noi. Dario Martini Raffi Tchakerian

26


BIBLIOGRAFIA Bibliografia: AA.VV. – The brain. A Scientific American Book – W.H. Freeman & Co, 1979 A. G. Biuso, Cyborgsofia, Il Pozzo di Giacobbe, 2004 E. Boncinelli – Il cervello, la mente e l’anima – Mondadori, 1999 P.M. Churchland – Il motore della mente e la sede dell’anima – Il Saggiatore, 1998 P. & P. Churchland – Può una macchina pensare? – Le Scienze n°259 – marzo 1990 G.B. Dyson – L’evoluzione delle macchine. Da Darwin all’intelligenza globale – Cortina, 2000 G. Giorello, P.G. Strata – L’automa spirituale. Menti, cervelli, computer – Laterza, 1991 J. Hawkins, S. Blakeslee – On intelligence. How a new under standing of the brain will lead to the creation of truly intelligent machines – Times Books, 2004 R. Kurzweil – La singolarità è vicina – Apogeo, 2005 R. Manzotti, V. Tagliasco – L’esperienza. Perché i neuroni non spiegano tutto – Codice, 2003 R. Penrose – La mente nuova dell’imperatore – Rizzoli, 1992 J.R. Searle – Il cervello è un computer digitale? – Le Scienze n°259 – marzo 1990 H. Simon – Modelli per la mia vita – Rizzoli, 1992 A.M. Turing – Computing machinery and intelligence – Mind n° 59, 1950 N. Warburton – Philosophy: Basic readings – Routledge (NY), 2005

Sitografia: www.csail.mit.edu www.estropico.com www.extropy.org/resources.htm www.ildiogene.it/EncyPages/Ency=coscienza.html www.ildiogene.it/EncyPages/Ency=mente-coscienza01.html www.iltempiodellombra.it/index.php?option=com_content&view=article&id=33:filosofia-dell-ia&catid=10:dellombra&Itemid=5 www.kurzweilai.net www.maxmore.com/becoming.htm www.mediamente.rai.it/mediamentetv/learning/corsi/9912c2_2.asp mitworld.mit.edu/video/316 mitworld.mit.edu/video/422 www.numenta.com/about-numenta/numenta-technology.php www.onintelligence.org www.physorg.com/news122447735.html plato.stanford.edu/entries/multiple-realizability www.robotcub.org www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html www-rohan.sdsu.edu/faculty/vinge/misc/WER2.html sites.google.com/a/aixia.it/italiano/ www.ted.com/index.php/talks/jeff_hawkins_on_how_brain_science_will_change_computing.html www.ted.com/index.php/talks/marvin_minsky_on_health_and_the_human_mind.html www.ted.com/index.php/talks/rodney_brooks_on_robots.html www.ted.com/index.php/talks/vilayanur_ramachandran_on_your_mind.html www.terrediconfine.eu/introduzione-all-intelligenza-artificiale.html en.wikipedia.org/wiki/Chinese_Room en.wikipedia.org/wiki/Neocortex en.wikipedia.org/wiki/Roger_Schank it.wikipedia.org/wiki/A.I._-_Intelligenza_Artificiale it.wikipedia.org/wiki/Cartesio it.wikipedia.org/wiki/Funzionalismo_(filosofia_della_mente) it.wikipedia.org/wiki/Intelligenza_artificiale it.wikipedia.org/wiki/Isaac_Asimov it.wikipedia.org/wiki/John_Searle it.wikipedia.org/wiki/Legge_di_Moore it.wikipedia.org/wiki/Marvin_Minsky it.wikipedia.org/wiki/Singolarità_tecnologica it.wikipedia.org/wiki/Stanza_cinese it.wikipedia.org/wiki/Test_di_Turing it.wikipedia.org/wiki/Transumanesimo

27


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.