8 minute read

“Algor-etica”

Next Article
Theriaké

Theriaké

Imprescindibile alleanza tra etica e intelligenza arti2iciale

Giulia Bovassi*

Advertisement

Spesso, la questione etico-sociale dell’utilizzo di sistemi di Intelligenza Arti2iciale (IA) implode in due possibili devianze: la prima, tecnofoba (l’intelligenza arti2iciale è tra le massime espressioni dei movimenti trans e post-umanisti in senso spregiativo), denuncia in toto l’IA, giudicando lo strumento come un male in sé ; la seconda, tecno2ila (l’intelligenza arti2iciale è tra le massime espressioni dei movimenti trans e post-umanisti in senso ossequioso), cade nell’eccesso opposto, sovrapponendo l’inevitabilità dell’accelerazione tecnologica al concetto di sviluppo e, forte di questo convincimento, giudica ogni progresso tecnologico come tappa di un autentico sviluppo dell’umanità . In quest’ultimo caso si tratta di vedere nel mezzo un bene in sé dovuto al suo carattere innovativo. Ambedue le polarizzazioni, pur parzialmente vere, sono da rigettare poiché incapaci di ponderare i principi etici de2initi “globali”, i principi di responsabilità e prudenza, la proporzione rischi/bene2ici a breve e, soprattutto, lungo termine. Non a caso, infatti, l’ampia diffusione di quella che oggi viene riconosciu ta come Global Bioe thics è dovuta ad una sorta di ritorno della bioetica alle proprie origini potteriane, ovvero di preoccupa zione globale e trans disciplinare verso la sopravvivenza dell’u manità e di ponte verso il futuro.

Nelle ultime settimane l’inevitabilità di un’alleanza tra (neuro)etica e IA è stato argomento al centro dell’attenzione internazionale, a causa dell’ormai noto chatbot ChatGPT, sviluppato da OpenAI [1], organizzazione di ricerca sull’intelligenza arti2iciale, particolarmente attenta ad alcuni aspetti essenziali dell’etica dell’IA, direttamente inerenti alla bene2icialità del prodotto: sicurezza e responsabilità . Lo scopo è la simulazione del linguaggio naturale e a tale scopo il modello è stato progetto prevedendo un addestra- mento compiuto da lavoratori reali che interagendo con ChatGPT hanno orientato il sistema in modo che l’immissione sul mercato poi avesse già orientamenti, in qualche misura, di natura etica o potenzialmente morale [2]. Ciò che ha scosso, sul piano etico, giuridico, politico è l’abilità imprevista di reagire seguendo una 2inalità propria, impropriamente meccanica, per cosı̀ dire, e diversa da quanto intenzionalmente progettato dai suoi programmatori. In tal senso, alcuni esperti di etica mettono in luce «la capacità di creare e agire su piani a lungo termine, di accumulare potere e risorse (“ricerca di potere”)» [3], una sorta di abilità sottesa alla mimesi del linguaggio, che de2iniscono di

«“agentività ” (agency) cioè una relativa abilità nello scegliere i suoi 2ini e agire di conseguenza in maniera indipendente da quanto suppongono i suoi programmatori. In questo contesto, per “agentivo” non si intende l’umanizzazione dei modelli linguistici o il riferimento alla senzienza, ma piuttosto sistemi caratterizzati dalla capacità di avere scopi che potrebbero non essere stati speci2icati concretamente e che non sono apparsi nell’addestramento, di concentrarsi sul raggiungimento di obiettivi speci2ici e quanti2icabili e di fare piani a lungo termine» [4].

Nell’articolo menzionato viene detto che si tratta più del controllo umano sulla macchina, e non tanto dell’umanizzazione, ovvero dell’essere senziente dello strumento. Si potrebbe obiettare, però , che le correlazioni dell’algoritmo, quando declinate nella relazione comunicativa con l’utente, strutturano una dimensione sociale con la persona nell’istante in cui ella si “af2ida” all’interlocutore arti2iciale. La vulnerabilità , paradossalmente, tra i due conversanti, è nell’umano. Anche se la consapevolezza della realtà 2ittizia del rapporto dovrebbe fargli detenere il controllo psico-2isico di ciò che accade. La cronaca mostra che il digitale è ingannevole da questo punto di vista. Inoltre, nel GPT-4 Technical Report [5] vengono evidenziate altre criticità , tra cui il rischio di allucinazioni, disinformazione, contenuti dannosi, potenziale di innescare comportamenti rischiosi, tra i più rilevanti messi in luce nel Documento. In generale, potremmo dire che questo chatbot ha l’enorme potenziale di simulazione del linguaggio umano, con straordinarie capacità conversazionali e contenutistiche, ma proprio l’enorme potenziale dimostrato sfugge nella sua complessità alla capacità di controllo umano (causa dell’allarmismo generale fatto seguito a ChatGPT). In altri termini, l’automazione e la rapidità con le quali vengono fornite le risposte desidera- te assieme alla mole incredibile di dati dai quali attingerne le argomentazioni, possono portare a contenuti di non senso o non del tutto veritieri, nonostante ciò assolutamente credibili per l’utente. Allucinazioni, quindi, nel senso di offuscamento del pensiero critico tanto nell’abilità di mettere in dubbio la veridicità dell’informazione, quanto nel discernere sul tipo, sulla qualità della risposta ricevuta nonché , ovviamente, delle fonti. Come detto poc’anzi, la preoccupazione coinvolge la pigrizia umana verso la divinizzazione del mezzo per le qualità e comodità che porta con sé (velocità , adattabilità , completezza, ecc.). Alla base di simili criticità , parimenti con quelle riguardanti contenuti dannosi/pericolosi, vi è un problema di af2idabilità del sistema, da un lato, e del rapporto uomo-tecnologia dall’altro. L’apprensione sorge nel momento in cui queste criticità etiche, in un prodotto commercialmente a disposizione indiscriminata del grande pubblico, emergono in tutta la loro gravità a seguito (non prima) della disponibilità del prodotto alla collettività e quando devono confrontarsi con una diseducazione di fondo di quest’ultima (formazione di “ eco-chamber”), ignara del potenziale/ della capacità dello strumento di essere una risorsa. In altri termini una sproporzione del mezzo rispetto all’uomo.

“Algoretica” e governance tecnologica

«[…] nente alla serie

Figura 3.

, undici stampe uniche rappresentanti i componenti dell’immaginaria famiglia Belamy. Prima “opera d’arte” creata attraverso l’intelligenza artificiale, utilizzando i dati provenienti da 15.000 ritratti dipinti tra i secoli XIV-XX. L’algoritmo adoperato occupa il posto della firma. Fonte: https://www.wired.it/lifestyle/design/2018/10/25/christies-asta-opera-arte-intelligenza-artificiale/ L’opera è stata battuta all’asta da Christie’s a New York nel 2018 per 432.500 dollari, contro le stime iniziali che si aggiravano intorno ai 10.000 dollari. Fonte: https:// tg24.sky.it/mondo/2018/10/26/asta-quadro-intelligenza-artificiale

Al di là del caso ChatGPT, per quanto mediaticamente preponderante in questo momento, occorre sottolineare che affrontare la questione etica dell’IA signi 2 ica essere consci, in prima battuta, della complessità del fenomeno preso in carico che ha due dimensioni, una generale e l’altra speciale, cioè declinata ai singoli ambiti di applicazione, ciascuno dei quali solleva dilemmi etici speci2ici, diversi dagli altri; ambedue suddivise in approccio sovranazionale, nazionale e locale. In questa sede s’intende prediligere una ri2lessione del primo tipo. Algoretica [6] è un neologismo coniato da Paolo Benanti, che designa l’indagine etica delle problematiche connesse a strumenti dotati o basati sull’utilizzo dell’IA. La pervasività delle tecnologie d’imitazione (o approssimazione) dell’in- commercialmente a disposizione indiscriminata del grande pubblico, emergono in tutta la loro gravità a seguito (non prima) della disponibilità del prodotto alla collettività […]» telligenza umana ha condotto 2iloso2i e bioeticisti a parlare di “condizione tecno-umana”: un momento storico in cui l’algoritmo è talmente presente nella vita dei soggetti, che diviene dif2icile pensare a una condizione ontologicamente e 2isicamente separata tra i due. Estremizzata, questa posizione è fatta propria dai sostenitori dei movimenti trans e post-umanisti per i quali «la convergenza tecnologica diventa convergenza umano/arti2iciale» [7], gli stessi che auspicano l’ambiziosa strategia di auto-dirigere l’evoluzione umana mediante le tecnologie emergenti e convergenti.

«Questo sogno di auto-poiesi è teorizzato da informatici (D. Hill, E. Drexler) che auspicano una convergenza evolutiva fra uomini e macchina e teorici dell’Intelligenza Arti2iciale (M. Minsky, H. Moravec) che prospettano la riduzione computazionale del funzionamento del cervello al funzionamento del computer e la digitalizzazione della mente per raggiungere una forma di immortalità corporea. Si apre ‘tecno-profeticamente’ un orizzonte futuro che dovrebbe portare ad un’alterazione radicale della natura dell’uomo, mettendo in correlazione il corpo (materia organica) con i computer (materia inorganica), sino alla totale arti2icializzazione dell’umano sostituendo corpo e mente con sussidi meccanici e informatici. La convergenza tecnologica diventa convergenza umano/ arti2iciale in un futuro non troppo remoto, secondo la profezia di N. Bostrom» [8]. gica dell’essere umano sia nella sua costituzione sia nella sua socialità . Per questo si parla di coesistenza esseri umani-IA [9]:

«Si apre ‘tecno-profeticamente’ un orizzonte futuro che dovrebbe portare ad un’alterazione radicale della natura dell’uomo, mettendo in correlazione il corpo (materia organica) con i computer (materia inorganica), sino alla totale artificializzazione dell’umano sostituendo corpo e mente con sussidi meccanici e informatici» [8]

«le intelligenze arti2iciali si inseriscono qui: sono i nuovi agenti che stanno guidando la trasformazione in atto. Per la prima volta gli attori della trasformazione non sono un’ élite umana ma delle macchine. Questo articolato panorama va indagato in tutta la sua complessità . Per comprendere le s2ide e le potenzialità delle intelligenze arti 2 iciali bisogna innanzitutto comprendere il lato umano della relazione uomo-macchina» [10].

Quanto delineato mostra l’iperpolarizzazione di cui accennato inizialmente, ma stimola interesse e ri2lessione, poiché qualunque analisi critica di natura tecno/neuro-etica non può emanciparsi dal problema antropologico e ontologico sotteso alle nuove tecnologie. Signi2ica capire come pervasività , trasversalità ed embodiment (incarnazione) dello strumento tecnologico determinano o plasmano la cifra antropolo-

Dalla complessità consegue l’urgenza di un’etica minima condivisa (tentativo problematico, considerando il contesto storico segnato da relativismo, individualismo e nichilismo), per portare i molteplici interlocutori attivi/passivi delle nuove tecnologie ad organizzarsi, costruire e cooperare per il bene comune. Governance designa una concreta e procedura di gestione a partire dal problema etico, antropologico, sociologico e biopolitico, a preparazione del terreno fertile per una buona regolamentazione. Non è suf2iciente regolamentare se persistono vulnus signi2icativi sui principi etici di riferimento. Allo stesso modo, non è suf2iciente proporre macro-principi se nell’applicazione divengono soggetti a modelli etici inesistenti, utilitaristi, materialisti, tecnocratici o individualisti. La tecnologia e il cambiamento da essa apportato possono risultare di dif2icile integrazione, se non impossibile, se non vengono incorporate alle infrastrutture sociali e alla cultura umana. Le nuove tecnologie oggi sono gestite e governate non solo dalle forze istituzionali, ma da altre realt à eterogenee che rendono dif2icoltoso il monitoraggio sui diritti fondamentali. La rapida trasformazione e plasticità aggiungono la s2ida, per la biogiuridica e la tecnoetica, di anticipare le tappe dello sviluppo tecnologico con lungimiranza, 2iltrandolo con lente prudenziale. Lavorare sulla policy-governance (strumenti di soft law) ponendo la domanda etica in ogni fase di ideazione, sviluppo e commercializzazione dell’IA (“ethics/rule-by/in-design”) è essenziale al 2ine di garantire la cosiddetta “human Ulourishing” riducendo massivamente il potenziale nefasto e rischioso per la prosperità umana. Senza dubbio l’etica minima condivisa ammesso lo scetticismo sulla sua concreta integrità e fattibilità dal punto di vista globale, sulla quale stanno lavorando gli organismi internazionali, fa perno su dignità umana (come cambia nella relazionalità uomo-macchina), autonomia (particolare attenzione al controllo umano), responsabilità , prevenzione del danno (che deve fare i conti con l’incertezza tecnologica), esplicabilità , trasparenza, af2idabilità , giustizia ed equità , riservatezza. Come nel caso di ChatGPT, oltre all’adesione intenzionale ai principi sopraindicati, che di certo non esauriscono minimamente il dibattito etico in merito alla regolamentazione, è necessario corrispondere ad un principio di conoscibilità : educazione/formazione digitale preventiva circa l’identità del mezzo e la sua relazione con un fruitore che diviene esso stesso prodotto di quello strumento. L’essere umano, se correttamente educato ad abitare quello spazio che Luciano Floridi de2inisce “infosfera” [11], allora acquisisce maggiori probabilità di detenere un controllo decisivo sugli effetti di questo rapporto tecnoumano: comprendendolo, ad esempio, conserva la propria autonomia decisionale, evitando la delega tecnologia “bendata”, una 2iducia cieca nella soluzione algoritmica. In de2initiva, la domanda antropologica dell’era digitale chiede se la capacità pensante (di elaborazione) della macchina riduce l’entità umana nella sua totalità , ragion per cui il concetto di

«[…] non è sufficiente proporre macroprincipi se nell’applicazione divengono soggetti a modelli etici inesistenti, utilitaristi, materialisti, tecnocratici o individualisti»

“persona” diviene, ancora una volta, oggetto d’indagine, ma in modo inedito, cioè per far spazio a nuove “personeità ”, nuovi agenti morali arti2iciali. Detto altrimenti: la realtà , soprattutto quella dell’humanum, oramai è completamente mediata e tradotta dalla tecnologia, che non è più oggetto isolato ed accessorio, ma incarnato, perciò l’impatto sulla società , sui singoli individui e sulla realtà dipende primariamente sia dal tipo di domanda etico-antropologica posta, sia dal tipo di risposta. Come spesso dichiarato da coloro che si occupano di robotica umanoide, la spinta motivazionale all’origine dello sviluppo di tecnologie dotate di IA è replicare l’essere umano come ennesimo tentativo di comprensione dell’umano stesso; alla comprensione che egli dimostrerà di avere della propria capacità intellettiva, emotiva, morale. Pertanto, un atteggiamento oracolare verso l’artefatto tecnologico, assuefazione e passività dovute all’ingerenza del mezzo nell’esistenza personale, impoverimento creativo sono/saranno effetti collaterali indesiderati, se l’approccio algoretico verrà ridotto ad una formulazione di principi ai quali aderire meccanicamente e senza metodo.

Bibliografia e sitografia

1. Per approfondire cfr. OpenAI, GPT-4 Technical Report (2023), https://cdn.openai.com/papers/gpt-4.pdf

2. Cfr. https://formiche.net/2023/04/benanti-gpt4-intelligenza-arti 2 iciale/? 2 bclid=IwAR1H31nL75pYkM-2CXvp-U0rCcGHws7BDXDv3XY-BAAMi1NWk5_98eTDbsA

3. https://www.corriere.it/opinioni/23_aprile_01/se-lintelligenza-arti 2 iciale-rischia-sfuggirci-mano-ed0f1e94-d0a9-11ed-8952-10f6bf0a23fa.shtml?refresh_ce;

4. Ibid.; Cfr. https://www.paolobenanti.com/post/gpt4closedai? 2 bclid=IwAR0n07jES3p6n12Qx0cAFIWWtuPa9Ycgk8CBr2mCkWVZQgZg2oU9a-JHLrA

5. OpenAI, GPT-4 Technical Report (2023), https://cdn.openai.com/papers/gpt-4.pdf, p. 44.

6. Cfr. Benanti P., Oracoli. Tra algoretica e algocrazia. Luca Sossela Editore, Roma 2018.

7. Palazzani L., Tecnologie dell’informazione e intelligenza artiUiciale. Studium, Roma 2020, p. 70.

8. Ibid.

9. Benanti P., Le macchine sapienti. Intelligenze artiUiciali e decisioni umane. Marietti, Bologna 2018, p. 17.

10. Ivi, p. 55.

11. Floridi L., Pensare l’infosfera. La UilosoUia come design concettuale. Raffaello Cortina, Milano 2020.

This article is from: