27 minute read

Intelligenza artificiale e armi autonome: criticità giuridiche

Intelligenza artificiale e armi autonome: criticità giuridiche

Paola Giorgia Ascani

Advertisement

Avvocato del Foro di Roma dal 2006, esercita prevalentemente in campo penale e tutela dei diritti umani. Patrocinante dinanzi la Suprema Corte di Cassazione e giurisdizioni superiori. Membro della Commissione diritto e procedura penale del Consiglio dell’Ordine degli avvocati di Roma, ha pubblicato con la casa editrice Giuffrè contributi sulla disciplina dei contratti, brevetti e marchi e proprietà intellettuale. È stata tutor e membro del direttivo della Camera penale di Roma e del Centro studi Alberto Pisani. Ha curato, sotto il profilo giuridico e legale, progetti foto-editoriali in materia umanitaria e internazionale. È consulente giuridico e forense del Circolo del ministero degli Affari Esteri.

«I n fin dei conti la macchina è solo uno strumento che può aiutare l’umanità a progredire più in fretta. Il compito dell’uomo e della sua intelligenza rimane ancora oggi lo stesso […] capire quali siano le domande giuste da rivolgere alle macchine» (1). Così scriveva Isaac Asimov, di cui lo scorso anno ricorreva la celebrazione del centenario dalla nascita. L’eccellente scrittore ha dedicato la sua opera interamente agli aspetti fantascientifici del progresso tecnologico e al rapporto macchine-umanità, lasciando input straordinari per l’evoluzione della robotica e importanti riflessioni, ancora vive, proprio su come interpretarla. Nella sua raccolta di racconti più pregiata e rinomata — Io, robot — che risale ormai a 71 anni fa, Asimov enunciò le arcinote Tre Leggi della Robotica (2), nelle quali riassunse, graniticamente, principi di gerarchia tra uomini e robot. Questa visione quasi premonitoria, conteneva tutte le problematiche attuali circa l’utilizzo dell’Intelligenza Artificiale (IA), che poi sarebbe sfociata nello studio incessante del rapporto con l’intelligenza umana. Lo scrittore ragionò molto della relazione tra capacità robotiche e umane, evidenziando i limiti e possibilità dell’una e dell’altra. Possiamo concludere che il persistente impedimento al pieno impiego dell’IA, ora come allora, è ancora la capacità di riconoscere alle macchine una capacità di discernimento su cui imperniò i suoi racconti, sottolineando sempre l’unicità e insostituibilità umana. La questione della eventualità effettiva che una macchina possa un giorno essere in grado di orientarsi nelle situazioni senza alcun apporto umano, riconoscendo le necessità reali e selezionando le proprie azioni in modo adeguato alla problematica da risolvere è, di fatto, ancora lontana dall’essere risolta, anche tecnicamente. Rappresenta il fulcro del dibattito sulle armi autonome e sulle criticità che l’utilizzo di tali sistemi nei conflitti potrebbe comportare sotto il profilo, non solo della realizzazione pratica, ma di ammissibilità etica e giuridica.

Che cosa si intende per arma autonoma

L’ostacolo più significativo alla formazione di una disciplina giuridica idonea alle armi autonome, sia che si tratti di un adeguamento dell’impianto normativo esistente, sia della formazione di uno ex novo, è la difficoltà di pervenire a una definizione consensuale e unanime di arma autonoma. In linea di massima, la letteratura militare, e il panorama giuridico, considerano armi autonome letali (acronimo internazionale LAWS, dall’inglese Lethal Autonomous Weapons) gli ordigni in grado di colpire un obiettivo militare senza l’intervento umano. Potrebbe sembrare quindi che concorrano a definire un’arma come autonoma tre caratteristiche: l’autonomia, la selezione dell’obiettivo e l’intervento umano. In realtà, solo la nozione di «assenza di intervento umano» ottiene l’incontrovertibilità, non così le qualifiche di autonomia e attacco, che rimangono ancora troppo incerte e prive dell’unanime significato (3) richiesto per essere recepito in modo universale nella formazione di un trattato e malgrado la nozione di at-

Intelligenza artificiale e armi autonome: criticità giuridiche

tacco abbia già una codificazione nell’art. 49, par. 1 del I Protocollo Addizionale alle Convenzioni di Ginevra del 1949. Nel panorama delle ipotesi di definizione elaborate dagli Stati e dalle associazioni e organismi internazionali, quella che per ora sembra accreditarsi appartiene al Comitato internazionale per la Croce Rossa, secondo cui, arma autonoma è «qualsiasi sistema d’arma con autonomia nelle sue funzioni critiche. Cioè un sistema che può selezionare (cioè cercare o rilevare, identificare, tracciare) e attaccare (cioè usare la forza contro, neutralizzare, danneggiare o distruggere) obiettivi senza intervento umano» (4). L’esistenza di una definizione unanime e definitiva di questo tipo di armi, permetterebbe anche di stabilire se, allo stato attuale, ce ne siano già in circolazione e di che tipo, compresi eventuali prototipi. Peraltro, bisogna sottolineare che il quid distintivo di queste nuove tecnologie da combattimento è rappresentato dal modo in cui sono identificati gli obbiettivi e non dai caratteri dell’arma tout court. Pertanto l’autonomia è una qualità che può essere inserita in qualsiasi tipo di arma, anche in un secondo momento, cambiandone così la natura. Ciò sarebbe possibile per esempio per i droni e le armi informatiche che, allo stato attuale, sono estranei alla qualifica poiché ancora comportano l’attività di un operatore, ma niente esclude che in futuro si possa arrivare a tipi di malware che identificano e colpiscono un sistema avversario in piena autonomia senza alcuna manovra dell’operatore informatico, oppure che il drone possa essere programmato e lasciato libero di agire senza alcun controllo o esigenza di manovra esterna al mezzo. Proprio a riguardo dell’utilizzo dei droni, è sotto indagine della comunità internazionale l’utilizzo di droni armati. Per ora è stato riconosciuto come lecito, esclusivamente, nell’ambito di programmi di uccisioni mirate (c.d. targeted killings) e come tale sottoposto alla disciplina internazionale che obbliga al rispetto dei principi di distinzione, proporzionalità e precau-

zione. In questi casi è necessario che, a monte, vi sia una corretta identificazione dell’evento conflittuale in cui il drone è usato come conflitto armato in senso proprio. Purtroppo, anche sotto questo profilo manca la chiarezza necessaria da parte degli Stati che già vi fanno ricorso, i quali si fanno scudo invece con una interpretazione a dir poco forzata del concetto di conflitto armato. Basti pensare alla lotta al terrorismo internazionale che, di per sé, non ricadrebbe sotto quest’ultima definizione, eppure vi si registra già un massiccio impiego di droni armati. È innegabile infatti che molti Stati tecnologicamente avanzati hanno iniziato una corsa all’automatizzazione e indipendenza dei droni, implementandoli con sistemi di deep machine learning (5) e IA in grado di eliminare ogni tipo di interazione con un soggetto esterno che ne completi o controlli l’operato. L’esempio più macroscopico è quello della SEA HUNTER, la nave antisommergibile della Defence Advance Research Projects Agency (DARPA), già in forze alla marina degli Stati Uniti e dotata di sistemi e tecnologie che consentono di gestirne in autonomia le operazioni e le interazioni con il nemico, nel pieno rispetto delle leggi e convenzioni marittime (secondo gli Stati Uniti).

«Sea Hunter», una classe completamente nuova di navi oceaniche senza equipaggio prende il via sul fiume Willamette dopo una cerimonia di battesimo a Portland, Oregon (U.S. Navy/John F. Williams).

Intelligenza artificiale e armi autonome: criticità giuridiche

Le implicazioni del diritto umanitario

Le problematiche legate all’utilizzo dell’IA in campo militare si legano però, in larga parte, al rispetto di un altro fondamentale requisito di liceità che è il diritto umanitario. Non è un caso che siano coinvolte nella discussione e nei lavori in materia, oltre ai rappresentanti di tutti i Governi mondiali, tutte le associazioni umanitarie, anche non governative, e il Comitato della Croce Rossa. A partire dal biennio 2014-16, gruppi di esperti a livello internazionale hanno avviato studi per sondare la più ampia gamma di tematiche relative alla realizzazione di armi autonome munite di IA, ai fini di enuclearne rischi di sviluppo e possibilità di abusi, anche clandestini, nel settore bellico. È noto che il fine dell’industria militare è da sempre quello di raggiungere precisione ed efficienza massime delle prestazioni e dei risultati in conflitto con il minor stress fisico e psicologico dei soldati. L’apporto dell’IA sarebbe risolutivo, in tal senso, ma pone sul tappeto un tema mai sorto prima: la possibilità di creare, non tanto metodi o strumenti tecnologicamente avanzati, quanto piuttosto veri e propri agenti di guerra non umani. La sfida giuridica infatti non è la creazione o l’uso di sistemi d’arma autonomi in sé e per sé, quanto piuttosto l’applicazione, sugli stessi, dell’IA che porta la questione su un livello superiore dal punto di vista etico, e da cui scaturisce l’esigenza di trovare un fondamento nel diritto internazionale umanitario e regole che diano copertura ai casi in cui, l’arma autonoma provvista di «capacità di discernimento» (deep learning), modifichi il comportamento programmato dagli operatori in modo imprevedibile. La nuova frontiera da regolamentare è dunque la previsione di una casistica in cui armi dotate di IA, attraverso gli algoritmi, possano selezionare gli obiettivi d’attacco, ritagliandosi, a tutti gli effetti, un potere di vita o di morte sull’avversario. In questi casi diventa necessario prevedere come possa l’arma (da sola? In sé e per sé?) ritenersi responsabile della condotta posta in essere, anche a prescindere dagli ordini impartiti. Questa è la vera sfida del diritto internazionale con le armi autonome, non tanto disciplinarne la realizzazione, che sembra essere già una realtà. Preso atto che occorra integrare la disciplina giuridica dello ius in bello, con l’utilizzo delle armi autonome, ne deriva che la regolamentazione dell’uso dei mezzi e strumenti di combattimento, in relazione alla salvaguardia della popolazione civile e dei prigionieri di guerra, andrà arricchita di ipotesi finora neppure immaginabili. Pietra angolare sarà sicuramente la norma basilare contenuta nell’art. 35, par. 1 del I Protocollo addizionale alla Convenzione di Ginevra (6), che stabilisce all’uopo che la scelta delle armi da usare in conflitto non possa essere illimitata e quindi a discrezione delle parti in conflitto. Necessita infatti che anche le armi autonome permettano di usare una violenza «direzionata» ovvero mirata a coinvolgere, distinguendoli, solo obiettivi militari, risparmiando i civili, e sia proporzionata all’effettiva capacità di difesa e resistenza dell’avversario in campo. La liceità da raggiungere dovrebbe conformarsi proprio a questi due aspetti, distinzione e proporzionalità, inderogabilmente. È chiaro che l’anello debole è la capacità di distinzione. Ai fini del sigillo di liceità l’arma autonoma dovrebbe perciò essere capace di individuare la differenza degli obiettivi e altresì essere munita di dispositivi che ne blocchino l’azione in caso di errore, il tutto, senza alcun intervento umano. È evidente che si tratti di un obiettivo assai arduo, ma non ovviabile dal momento che la posta in gioco sono vite umane. Sarà quindi necessario che l’uso di armi autonome si uniformi al rispetto dei principi ormai cristallizzati nel I Protocollo Addizionale alle Convenzioni di Ginevra del 1977 sulla conformità di qualsiasi arma alla disciplina di diritto internazionale e in maniera ancora più stringente, alla Clausola Martens contenuta nell’art. 1.2 del preambolo, che impedisce di considerare lecito tutto ciò che non è previsto dai trattati, ivi per cui, come nel caso delle armi autonome, che ancora non rientrano in alcuna previsione normativa, l’impossibilità di considerarle consentite perché non gravate da un espresso divieto. La Martens, è dunque una sorta di paracadute che, come ha sottolineato la Corte di Giustizia Internazionale in un parere del 1996, «opera come una vera e propria rete di sicurezza per l’umanità» (7).

Il dibattito

Gran parte dei lavori che si stanno svolgendo nell’ultimo quinquennio in tema di armi autonome, si fo-

Intelligenza artificiale e armi autonome: criticità giuridiche

calizzano su ciò che è necessario fare sotto il profilo normativo e regolamentare per capire se rientrino o meno nella copertura di diritto internazionale in materia, già vigente. Si fronteggiano due schieramenti di Stati: il primo ritiene che non ci siano norme già esistenti che possano disciplinare il caso delle armi autonome, e il secondo sostiene invece che il carnet normativo attuale offra sufficiente spazio di adattamento per dispiegare i suoi effetti nel settore. Tutto ha preso le mosse nel 2013, quando il relatore speciale delle Nazioni unite sulle esecuzioni extragiudiziali, sommarie e arbitrarie, Christof Heyns, con la pubblicazione del Rapporto sui sistemi d’arma autonomi (8) ha sollevato una discussione in più sedi (accademica e diplomatica), evidenziando i molteplici fattori di criticità in gioco. Secondo il Rapporto, l’approccio allo studio per l’inquadramento normativo dell’utilizzo di LAWS deve necessariamente essere per questo multifattoriale, tenendo sì conto delle norme di diritto internazionale a presidio dell’ingaggio degli obiettivi, e quindi i già richiamati principi di proporzionalità e distinzione, ma deve in più verificare l’opportunità di rimuovere in toto la partecipazione di operatori umani nel processo decisionale. Nel rapporto, Heyns fa anche alcune considerazioni di pura opportunità strategica. L’inserimento di armi autonome creerebbe un azzeramento del costo politico dei conflitti, facilitando l’avvio di un maggior numero di campagne militari dovuto al risparmio delle spese di armamento, cui si aggiungerebbe il rischio di conflitti asimmetrici, dovuti alla possibilità di fabbricazione di armi autonome solo da parte di un ristretto numero di Stati, economicamente più attrezzati. La possibilità di fare pesanti investimenti tecnologici in alcuni blocchi geopolitici porterebbe a una preoccupante violazione dei principi di diritto internazionale che vietano l’asimmetria nei conflitti. A seguire il menzionato studio, sono stati avviati, nel biennio 2014-16, e sempre nelle cornici della Conferenza del disarmo a Ginevra e della Conferenza di riesame della Convenzione su certe armi convenzionali (CCW - Certain Conventional Weapons), una serie di lavori per la regolamentazione delle LAWS. Posto che le conferenze non hanno, per natura, alcun potere decisionale, in seno alla Quinta conferenza di riesame della CCW (anno 2016) è stato creato un gruppo di esperti governativi al fine di valutare le tecnologie emergenti nel campo delle LAWS e codificare i risultati raggiunti nelle trattative tra Stati. Il gruppo, riunitosi a partire dal 2017, si è aggiunto alle Conferenze organizzate dal CICR (Comitato Internazionale Croce Rossa) sempre sul tema. Purtroppo, anche i lavori del gruppo di esperti hanno constatato il contrapporsi dei due orientamenti in merito alla regolamentazione cui dovrebbero sottostare le LAWS (richiamare quella esistente o formularne una nuova, ad hoc), senza però pervenire alla soluzione. L’unico punto che gli esperti hanno convenuto, per facilitare la comprensione di quale disciplina sia più adeguata da adottare, è l’opportunità di spostare il focus, almeno per il momento, sull’approfondimento del requisito dell’autonomia. L’opportunità di una mancanza assoluta di controllo umano della macchina-arma è infatti il nodo centrale da analizzare. Come anche riporta la Risoluzione del Parlamento Europeo del 12 settembre 2018 sui sistemi d’arma autonomi (9), è stata introdotta a tale fine e con caratteristiche dirimenti la nozione di controllo umano significativo (CUS - Meaningful Human Control, MHC). Il controllo significativo si è mostrato come la soluzione migliore ad arginare le criticità che riguardano le ipotesi di controllo umano sulla macchina. Gli esperti governativi hanno infatti esaminato una rosa di opzioni secondo cui il contributo umano alla decisione della macchina può essere di diversi tipi, ciascuno in relazione alle conseguenze giuridiche che reca in termini di imputazione delle responsabilità: essere totalmente escluso nel processo interno alla macchina, essere previsto, ma con un tempo di latenza eccessivo rispetto alla situazione reale, oppure potrebbe addirittura comportare il rischio di un c.d. bias, una sorta di «timore reverenziale», si passi il termine, dell’operatore che lo porterebbe a escludere la propria azione, confidando di più nell’operato della macchina, lasciandola agire al suo posto, senza opporvi alcun freno. La soluzione prevalsa e ritenuta più effi-

Intelligenza artificiale e armi autonome: criticità giuridiche

cace è stata, in astratto, di prevedere e assicurare, nel maggior numero di contesti, la possibilità di supervisione umana costante in una alla capacità di intervento in tempo reale, finanche di annullamento dell’azione. Questo deve intendersi per controllo significativo e su questo potrebbero ripartire i negoziati per adottare uno strumento regolatorio e vincolante in seno alla Convenzione (10). L’evidenziazione di un controllo così qualificato renderebbe possibile riassumere i principi basilari del diritto internazionale in materia di selezione dell’obiettivo, di responsabilità in caso di errore e danni, e, soprattutto, di inibizione alla macchina della possibilità di scegliere tra vita e morte dell’obiettivo. Dal rispetto di questi principi deriva la possibilità di pervenire a un regime legittimo d’imputazione della responsabilità giuridica in caso di danni, per mancato rispetto della dignità umana, per eventi dannosi eventualmente perpetrati in conflitto. Come si vede, gli studi del gruppo di esperti governativi sono per lo più mirati a formulare una norma che assicuri il rispetto del nesso di causalità tra azione umana ed evento, in relazione all’uso di LAWS. Solo un tale sistema renderebbe lecita, sotto i profili giuridici ed etici, l’autonomia dell’arma. Sulla scia di questi studi, nel 2018, al termine dell’incontro, gli esperti hanno elaborato i 10 Possible Guiding Principles(11)tra i quali i principi 2 e 3 che mettono nero su bianco l’esigenza di un pacifica individuazione della responsabilità umana nell’operato della macchina. Allo scopo, sono stati evidenziati due criteri: conservare la scelta dei sistemi d’arma da impiegare in conflitto e conservare la sequenza comando-controllo senza soluzione di continuità. Il tema del riconoscimento di responsabilità in caso di errore è infatti centrale, ma purtroppo è proprio il vuoto giuridico che rimane più difficile da colmare, a dispetto dello sviluppo di tali tipi di armi che continua invece a procedere spedito. Va ricordato altresì quanto il concetto di comando sia fondamentale nel diritto internazionale in vigore. Tutta la disciplina che riguarda le operazioni militari, è infatti incardinata su esso al fine di individuare, con la maggior certezza possibile, l’imputabilità delle azioni al relativo soggetto agente. Esempio chiave è l’art. 29 dell’UNCLOS secondo cui una nave da guerra per essere tale, e venire riconosciuta dal diritto internazionale, necessariamente, deve essere posta sotto il comando di un Ufficiale di Marina al servizio di uno Stato e il suo equipaggio essere sottoposto alle regole della disciplina militare. Questo rende chiaro come lo sviluppo già in atto di navi da combattimento autonome destinate alle aree più difficili del mondo, in mancanza di una disciplina legale di imputabilità certa agli Stati in caso di eventuali violazioni, fa sorgere in capo a detti veicoli, una preoccupante presunzione di illiceità che le colloca al di fuori di ogni copertura legittima. Ai sensi della disciplina internazionale vigente, infatti, queste non sono classificabili come navi da guerra a causa dell’assenza del comando umano che rende impossibile attribuire la responsabilità delle azioni compiute a qualsivoglia entità statale di riferimento. Detta problematica va letta anche sotto il profilo, ancor più estremo, della repressione dei crimini di guerra da parte della Corte Penale Internazionale. Lo scoglio, difficile da arginare, è la impossibilità materiale di rinvenire nei LAWS l’elemento soggettivo del reato (mens rea), come elemento costitutivo richiesto dalla legge per la sussistenza di un delitto e la conseguente attribuzione di responsabilità penale. Ecco quindi come il concetto di controllo significativo, nel senso prima chiarito, permetterebbe di far convergere il diritto internazionale umanitario esistente e lo sviluppo delle armi in questione, legittimandone l’uso. In questo senso il CUS rappresenta il seme della speranza di una disciplina pattizia futura che regolamenti un settore così delicato da non poter in alcun modo tollerare vuoti normativi. Al momento, però, la soluzione auspicata è ancora lontana. Gli Stati sono ancora molto divisi, poiché malgrado il parere degli esperti, alcuni sono ancora fermi, addirittura, a monte del problema della definizione di autonomia, discutendo non già che tipo di assetto dare a questa forma di coesistenza tra autonomia e controllo umano, ma se essa sia davvero possibile. Gli Stati convinti degli innegabili vantaggi che comportano le LAWS (minor numero di vittime, esclusione di pre-

senza di contingenti umani in condizioni altamente stressanti), ritengono possibile una forma di coesistenza, mentre i contrari sono convinti che non sia ammissibile, né completamente possibile, utilizzando argomenti di natura anche etica. Concedere a una macchina l’uso della forza letale senza alcun controllo umano «diretto», da intendersi come la materiale possibilità per l’operatore di verificare, in prima persona, il comando di fuoco impartito dalla macchina, significa concedere a una macchina un potere inaccettabile di vita o di morte sugli uomini. Pertanto, anche il controllo che si definisce significativo, in realtà non potrà mai essere reale in quanto determinerebbe solo in modo apparente la prevalenza della volontà umana su quella della macchina e quindi non sarebbe un vero e proprio controllo in grado di garantire il rispetto del diritto internazionale. Va dato conto, nel panorama, anche di un tertium genus, seppur timido e troppo fiduciario, che non sembra per questo idoneo ad arginare le problematiche evidenziate finora sul rispetto della legge internazionale in caso di conflitto. Secondo Francia e Germania, fautori di questo orientamento, la copertura delle norme in vigore è del tutto adeguata ai nuovi sistemi LAWS e in particolare l’art. 36 del I Protocollo Addizionale alle Convenzioni di Ginevra che obbliga gli Stati parte a denunciare l’acquisizione di nuove armi, quando il loro utilizzo è incompatibile con le norme che regolano l’uso della forza nei conflitti armati. È evidente che le domande circa la difficoltà di processare un robot di guerra e imputargli la responsabilità delle azioni in conflitto rimangono senza risposta e soprattutto un tale approccio non colma lacune, anche di tipo tecnico e pratico, che potrebbero essere causa di un difetto d’imputazione di responsabilità penale. Si pensi, per esempio, a un malfunzionamento della macchina, è intuitivo che in questo caso sarebbe doppiamente difficile capire a chi addossare la responsabilità di un eccidio. Al costruttore? Allo Stato di provenienza? E ancora, si pensi al caso dell’apertura erronea di un conflitto, seguita da perdite civili e militari, che sia stata determinata, per esempio, dall’interruzione momentanea e imprevedibile della comunicazione tra operatori e macchina. Determinerebbe un vacuum inaccettabile di responsabilità che non permetterebbe di capire se l’imputabilità dell’evento dovrebbe essere rivenuta in capo a chi doveva occuparsi di garantire il funzionamento corretto dei canali di comunicazione o a coloro che avrebbero dovuto segnalare la presenza di civili per bloccare l’apertura del fuoco, se in capo ai programmatori della LAWS, se fosse colpa degli algoritmi che non erano in grado di assicurare l’individuazione corretta dei bersagli, o se, ancor di più, l’evento fosse l’effetto della combinazione di tutti o parzialmente questi elementi. Il pericolo di una spersonalizzazione giuridica ed etica nella conduzione delle ostilità in questo tipo di soluzione franco-tedesca è dav-

vero imponente. Vi è poi una posizione estrema, che va menzionata, e che propone, per contro, di elaborare uno strumento giuridico che vieti tout court studio, sviluppo e utilizzo di tali tipi di armamenti. Questa opzione incontra però l’ostilità di quanti sostengono che, qualora in un futuro che non si può dire se prossimo o remoto, i LAWS raggiungessero, grazie all’ulteriore evoluzione dell’IA, un livello di autonomia davvero affidabile ed efficace non vi sarebbe alcun motivo per vietarne l’utilizzo in conflitto con il conseguente apprezzabile risparmio di vite umane e costi bellici. Non è un caso che tra gli Stati che sostengono questo tipo di ipotesi, compaiano proprio quelli tecnologicamente più avanzati, in quanto portati a confidare nel progresso esponenziale dell’IA e alla conduzione di conflitti sempre meno invasivi. Insomma, il dibattito che è in corso nasce dalla difficoltà di trovare una sponda sicura su cui condurre le LAWS perché siano effettivamente compatibili con i diritti umani.

Ultimi sviluppi della questione in sede NATO e UE

Lo scorso giugno, nell’ambito del vertice NATO, fra i diversi punti dell’agenda, sono stati esaminati gli aspetti circa le Tecnologie Emergenti e Dirompenti (EDT - Emerging and Disruptive Technologies), di cui fanno parte le armi autonome e quelle esistenti modificabili tramite intelligenza artificiale. La NATO ha compreso che occorre assicurarsi una posizione di preminenza tecnologica nel settore che sia riconosciuta a livello globale, scongiurando di arrivare impreparati al momento in cui questi dispositivi saranno utilizzati in campo da attori terzi all’Alleanza. L’intento dei lavori è quello di stabilire alcuni punti fermi, e a carattere generale, come un principio di trasparenza che regoli e renda possibile un livello generale di visibilità su tutti gli armamenti utilizzabili in campo, da parte di tutti gli attori. Le tecnologie dovranno pertanto essere note non solo allo Stato che le usa ma anche agli avversari. Questa idea di un terreno condiviso su cui operare è stata avviata in primis dalla compagine UE la quale ha sostanzialmente ammonito che l’approccio finora concentrato solo sul concetto di autonomia e controllo, in realtà deve essere, a priori, sostenuto anche da un’accurata analisi del livello di perfezionamento tecnologico che l’IA permette di applicare all’industria militare. Cercare quindi di accertare innanzitutto quali siano le falle dell’IA e da lì partire, più consci, per esaminare le effettive possibilità di controllo umano che possono essere applicate alle macchine. Il rapporto dello Science And Technology Committee (STC) - Sub Committee on Technology Trends and Security (STCTTS) del 2019, ha rimarcato la necessità di affrontare le questioni etiche, legali e sociali legate alla conservazione di un ruolo umano in relazione all’uso della forza armata. La consapevolezza che almeno sette grandi paesi (Stati Uniti, Cina, Russia, UK, Francia, Israele e Corea del Sud)

Intelligenza artificiale e armi autonome: criticità giuridiche

stiano sviluppando armi autonome, deve portare al riconoscimento dell’urgenza di una regolamentazione comune, posto che il problema non è più aggirabile. Il riconoscimento facciale basato su algoritmi di IA, reperibili perfino in rete, la possibilità di stampa in 3D a basso costo hanno reso fantasie cinematografiche come Robocop o Terminator una temibile attualità. Quello che Foucault chiamava «biopotere», ovvero l’insieme di tecnologie, pratiche e metodi per il controllo dei corpi e della vita della popolazione è ormai realtà. Eppure, tranne un primo impulso allo studio del problema, l’UE non è riuscita a proseguire sulla strada della formulazione di una posizione precisa e dettagliata, rimanendo su principi generici che sulle prime, hanno espresso un altrettanto generico «divieto di sviluppo, produzione e impiego di armi completamente autonome che consentono di sferrare attacchi senza alcun intervento umano» privo di misure di efficacia nell’attuazione. Successivamente, a seguito del lavoro del gruppo di esperti alla quinta conferenza di riesame della Convenzione sulle CCW, ha espresso un parere ancor più vago, sostenendo che le armi autonome debbano essere disciplinate dal diritto internazionale umanitario e diritto internazionale in generale, fra l’altro rivelando un’inversione di pensiero e l’apertura rispetto al divieto assoluto originario. Anche l’Italia ha assunto un atteggiamento poco impositivo. Pur avendo partecipato alle conferenze e ai lavori del gruppo di esperti, non ha però presentato alcun documento. A differenza di altri Stati membri si è solo uniformata all’esito, più genericamente inteso, come europeo. L’intervento italiano ha sottolineato solo l’esigenza di assicurare un effettivo CUS e rigettato, allo stato attuale delle cose, una messa al bando completa e assoluta delle armi autonome. Una posizione non solo generica, ma anche sensibilmente ambigua.

Conclusioni

Se dunque l’applicazione tecnologica dell’IA all’industria militare procede spedita, lo stesso non può dirsi dell’adeguamento legislativo internazionale. Sembra che manchi ancora una coscienza matura dell’impatto travolgente che l’IA in campo militare potrebbe generare sull’intera umanità, almeno fintanto che un controllo necessario e significativo sia ancora realizzabile da parte dell’uomo sulle macchine occorre elaborare rimedi e linee guida normative efficaci. Il rischio, tutt’altro che fantascientifico, è che un giorno si invertano i ruoli, facendo sì che siano le macchine stesse a controllare che l’uomo non sbagli. E allora, non ci resta che concludere, non senza una certa inquietudine e un velo d’ironia, che la lentezza con cui procedono i lavori in materia,

Intelligenza artificiale e armi autonome: criticità giuridiche

porteranno le macchine stesse a risolvere le criticità. Se è vero, ed è vero, che ancora siamo fermi alle Leggi della Robotica elaborate, non da uno statista, bensì da uno scrittore, è proprio con le sue parole che si deve riflettere e convenire che la sfida è appena agli inizi, rispetto ai quali siamo però già, pericolosamente, indietro. Così facendo, il rischio futuro è quello di un capovolgimento dell’intera realtà in cui sarà l’uomo l’anello debole della catena, da porre sotto controllo: «La macchina sa che il dirigente ha una certa tendenza a disobbedire. È in grado di incorporare quella tendenza nei dati e di valutare con precisione fino a che punto e in che termini la disobbedienza potrebbe ripetersi. Le macchine sono robot e obbediscono alla Prima legge. Operano per il bene non del singolo individuo, bensì dell’umanità intera. Un macchina non può recare danno all’umanità, né può permettere che, a causa della propria negligenza, l’umanità patisca danno». A questo proposito, tra le diverse problematiche che sarà necessario approcciare, non si può tralasciare la questione etica che, non meno importante di quella normativa e giuridica, rischia di compromettere l’applicazione pacifica e lo sviluppo proficuo dell’IA. Illuminante, proprio negli ultimi mesi del 2021, è stata la pubblicazione del testo, oltremodo esplicativo e di pregevole approfondimento della questione, Intelligenza artificiale tra mito e realtà. Motore di sviluppo o pericolo imminente, a firma illustre di Giancarlo Elia Valori (12). Il focus della trattazione ha evidenziato come la questione abbia mutato carattere, passando da mera sfida a esigenza primaria attuale e come, pertanto, la partita si giochi sul piano dell’etica applicata quale unico campo di indagine e studio che possa condurre a proficue soluzioni. La necessità di stendere un codice etico che sia inserito nelle macchine, richiede il coinvolgimento di esperti di etica e filosofia che sappiamo affrontare l’elaborazione dei dati, l’utilizzo civile, militare e politico dell’IA sotto il profilo etico. Questioni come dignità, identità e sicurezza della persona sono inoltre da porre in relazione all’accesso equo a una serie di variabili quali risorse tecnologiche, responsabilità individuale, collettiva e, inderogabile, la libertà di ricerca. Le riflessioni, superando la naturale complessità della materia, consentono la divulgazione in modo accessibile e chiaro ai più, compresi i non addetti ai lavori, del complesso intreccio tra temi etici e tecnologici connessi all’utilizzo dell’intelligenza artificiale. Del resto, sottolinea lo stesso autore, gli sviluppi dell’intelligenza artificiale sono già arrivati a determinare cambiamenti rapidi e diffusi nell’interconnessione tra persone e sistemi tecnologici già dotati, seppur la maggioranza di noi non ne è a conoscenza, di capacità logiche e di ragionamento. Non resta quindi che adeguarsi e studiare nei dettagli l’ampia rosa di nuove possibilità di applicazione dell’IA in rapporto ai sistemi robotici, preparando così il terreno, ma anche la popolazione, a risposte davvero soddisfacenti anche sotto il profilo etico. 8

NOTE

(1) Asimov, I., Conflitto evitabile in Io, Robot, Mondadori, 1950, pag. 269. (2) Manuale di Robotica, 56° Edizione, 2058 d.C.: 1. Un robot non può recar danno a un essere umano, né permettere che, a causa della propria negligenza, un essere umano patisca danno; 2. Un robot deve sempre obbedire agli ordini degli esseri umani, a meno che contrastino con la Prima Legge; 3. Un robot deve proteggere la propria esistenza, purché questo non contrasti con la Prima o la Seconda Legge. (3) Merel, A.C., Ekelhof, «Complication of a Common Language: why it is so hard it talk about autonomous weapons», in Journal of Conflict and security law, 2017, pagg. 311-331. (4) CICR, Autonomous weapon systems: Technical, military, legal and humanitarian aspects. Expert meeting, Geneva, Switzerland, 26-28 March 2014, Ginevra, 2014, pag. 5: «Any weapon system with autonomy in its critical functions. That is a weapon system that can select (i.e. search for or detect, identify, track, select) and attack (i.e. use force against, neutralize, damage or destroy) targets without human intervention». (5) Ovvero l’apprendimento automatico profondo è la branca dell’IA che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, ossia le reti neurali artificiali. Il funzionamento permette di classificare e selezionare in autonomia una serie di dati, giudicati più rilevanti, per trarne una conclusione. Un processo simile a quello del cervello umano e della logica. È molto usato per es. nella bioinformatica. Approfondimenti in Kelleher, J.D., Mac Namee, B., D’Arcy, A., «Fundamentals of Machine Learning for Predictive Data Analytics: Algorithms, Worked Examples, and Case Studies». (6) Metodi e mezzi di guerra. Art. 35, regole fondamentali: 1.In ogni conflitto armato, il diritto delle parti in conflitto di scegliere metodi e mezzi di guerra non e( illimitato. 2.E( vietato l’impiego di armi, proiettili e sostanze nonchè( metodi di guerra capaci di causare mali superflui o sofferenze inutili. 3.E( vietato l’impiego di metodi o mezzi di guerra concepiti con lo scopo di provocare, o dai quali ci si puo( attendere che provochino, danni estesi, durevoli e gravi all’ambiente naturale. (7) Corte Internazionale di Giustizia, Legality of the threat or use of nuclear weapons, Advisory Opinion of 8 July 1996, par. 78. (8) Heyns, C., Report of the special Rapporteur on extrajudicial, summary or arbitrary executions, Consiglio dei diritti umani, UN (H/CR/23/47, 9 APRILE 2013). (9) Risoluzione (2018/2752(RSP), parr. 2-4. (10) United Nations Institute For Disarmament Research (UNIDIR), The weaponization of increasingly Autonomous Technologies: Considering how Meaningful Human Control might move the discussion forward, 2014. (11) Report of the 2018 Group of Governmental Experts on Lethal AutonomousWeapons System, 31 agosto 2018, UN DOC. CCW/GGE.2/2018/3, parte IV.A. (12) Valori, G. E., Intelligenza artificiale tra mito e realtà. Motore di sviluppo o pericolo imminente, Ed. Rubbettino, ottobre 2021.

This article is from: