62
I Quaderni della Ricerca
Manuale di InformEtica a cura di Giulia Balbo e Pietro Jarre
62
I Quaderni della Ricerca
Manuale di InformEtica a cura di Giulia Balbo e Pietro Jarre
© Loescher Editore - Torino 2022 www.loescher.it I diritti di elaborazione in qualsiasi forma o opera, di memorizzazione anche digitale su supporti di qualsiasi tipo (inclusi magnetici e ottici), di riproduzione e di adattamento totale o parziale con qualsiasi mezzo (compresi i microfilm e le copie fotostatiche), i diritti di noleggio, di prestito e di traduzione sono riservati per tutti i paesi. L’acquisto della presente copia dell’opera non implica il trasferimento dei suddetti diritti né li esaurisce. Le fotocopie per uso personale (cioè privato e individuale, con esclusione quindi di strumenti di uso collettivo) possono essere effettuate, nei limiti del 15% di ciascun volume, dietro pagamento alla S.I.A.E. del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. Tali fotocopie possono essere effettuate negli esercizi commerciali convenzionati S.I.A.E. o con altre modalità indicate da S.I.A.E. Per le riproduzioni ad uso non personale (ad esempio: professionale, economico, commerciale, strumenti di studio collettivi, come dispense e simili) l’editore potrà concedere a pagamento l’autorizzazione a riprodurre un numero di pagine non superiore al 15% delle pagine del presente volume. Le richieste per tale tipo di riproduzione vanno inoltrate a Centro Licenze e Autorizzazioni per le Riproduzioni Editoriali (CLEARedi) Corso di Porta Romana, n. 108 20122 Milano e-mail autorizzazioni@clearedi.org e sito web www.clearedi.org L’editore, per quanto di propria spettanza, considera rare le opere fuori del proprio catalogo editoriale. La fotocopia dei soli esemplari esistenti nelle biblioteche di tali opere è consentita, oltre il limite del 15%, non essendo concorrenziale all’opera. Non possono considerarsi rare le opere di cui esiste, nel catalogo dell’editore, una successiva edizione, le opere presenti in cataloghi di altri editori o le opere antologiche. Nei contratti di cessione è esclusa, per biblioteche, istituti di istruzione, musei e archivi, la facoltà di cui all’art. 71 - ter legge diritto d’autore. Maggiori informazioni sul nostro sito: www.loescher.it/fotocopie/ Ristampe 6
5
4
3
2
1
N
2028
2027
2026
2025
2024
2023
2022
ISBN 9788820138936 In alcune immagini di questo volume potrebbero essere visibili i nomi di prodotti commerciali e dei relativi marchi delle case produttrici. La presenza di tali illustrazioni risponde a un’esigenza didattica e non è, in nessun caso, da interpretarsi come una scelta di merito della Casa editrice né, tantomeno, come un invito al consumo di determinati prodotti. I marchi registrati in copertina sono segni distintivi registrati, anche quando non sono seguiti dal simbolo .
®
Nonostante la passione e la competenza delle persone coinvolte nella realizzazione di quest’opera, è possibile che in essa siano riscontrabili errori o imprecisioni. Ce ne scusiamo fin d’ora con i lettori e ringraziamo coloro che, contribuendo al miglioramento dell’opera stessa, vorranno segnalarceli al seguente indirizzo: Loescher Editore Sede operativa - Via Vittorio Amedeo II, 18 10121 Torino - Fax 011 5654200 - clienti@loescher.it Loescher Editore Divisione di Zanichelli editore S.p.A. opera con Sistema Qualità certificato secondo la norma UNI EN ISO 9001. Per i riferimenti consultare www.loescher.it
Il contenuto di questo libro non è stato approvato dalle Nazioni Unite e quindi potrebbe non riflettere la posizione ufficiale di questa organizzazione.
Coordinamento editoriale: Alessandra Nesti Realizzazione editoriale e tecnica: PhP - Grosseto Impaginazione: Silvia Filoni Copertina: Visualgrafika – Torino Progetto grafico interni: Fregi e Majuscole – Torino Progetto grafico copertina: Leftloft – Milano/New York Stampa: Tipografia Gravinese snc – Via Lombardore, 276/F, 10040 Leinì (TO)
Diritto di TDM L’estrazione di dati da questa opera o da parti di essa e le attività connesse non sono consentite, salvi i casi di utilizzazioni libere ammessi dalla legge. L’editore può concedere una licenza. La richiesta va indirizzata a tdm@loescher.it Data mining out of this work or parts thereof and connected uses are not allowed, unless for free uses permitted by law. Publisher may agree to license specific uses. The request may be sent to tdm@loescher.it
Indice Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 di Pietro Jarre
PARTE PRIMA. LETTURE . . . . . . . . . . . . . . . . . . . . . . . . 27 Il Verde e il Blu . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 di Luciano Floridi
Red Mirror - Il nostro futuro si scrive in Cina . . . . . . . . . . . . 39 di Simone Pieranni
PARTE SECONDA. INTERVENTI PANEL 1. SOCIETÀ DELL’INFORMAZIONE, ETICA E POLITICA . . . . . . . 51 È possibile moralizzare in modo democratico le tecnologie dell’informazione? . . . . . . . . . . . . . . . . . . . . . . . . . 53 di Viola Schiaffonati
L’istanza etica nel percorso: connettività, intelligenza artificiale, intelligenza collettiva . . . . . . . . . . . . . . . . . . 57 di Mario Rasetti
Il digitale e le questioni etiche globali . . . . . . . . . . . . . . . di Guglielmo Tamburrini
61
Potere computazionale e società algoritmica . . . . . . . . . . . . 65 di Massimo Durante
Questioni etiche della trasformazione digitale in un’azienda . . . . . 71 di Antonella Ambriola
Aspetti etici circa la trasparenza degli algoritmi. Esplicabilità dell’intelligenza artificiale . . . . . . . . . . . . . . . . . . . . . 75 di Paolo Merialdo
PANEL 2. SOCIETÀ, LAVORO E CITTÀ . . . . . . . . . . . . . . . . . . 79 Stato e prospettive dell’infrastruttura e dei servizi digitali nell’Italia del post-Covid . . . . . . . . . . . . . . . . . . . . . . 81 di Gianluigi Castelli
Il 5G: rischi, effetti e implicazioni etiche . . . . . . . . . . . . . . 89 di Ivan Vigolo
RenAIssance e Io “AI for Good”: la strategia italiana per l’intelligenza artificiale . . . . . . . . . . . . . . . . . . . . . . . 93 di Francesco Saverio Nucci
Diritti individuali e collettivi nella senseable city: il caso dei veicoli a guida autonoma . . . . . . . . . . . . . . . . . . . . . . 99 di Paolo Santi
3
Manuale di InformEtica
Gli algoritmi motore della trasformazione digitale: il problema della rappresentazione di regole etiche e della responsabilità morale 103 di Gianfranco Balbo
Percezione della rete e coscienza nella rete . . . . . . . . . . . . . 109 di Anna Pisterzi
PANEL 3. DATI, EDUCAZIONE E SALUTE . . . . . . . . . . . . . . . . 113 Scienza, conoscenza e decisioni: un cambio di prospettiva . . . . . 115 di Antonio Bonaldi
Big data nel mondo della salute: bene comune o interesse privato? . 121 di Sabina Leonelli
Qualità e fruibilità degli open data . . . . . . . . . . . . . . . . . 125 di Michel Noussan
La responsabilità digitale per le aziende è un obiettivo raggiungibile? 131 di Francesco Ronchi
Per un’educazione digitale consapevole . . . . . . . . . . . . . . . 135 di Alberto Rossetti
Educazione civica digitale a partire dalla scuola primaria . . . . . . 141 di Sara Capecchi
Il diritto alla formazione continua per affrontare la trasformazione digitale . . . . . . . . . . . . . . . . . . . . . . . 145 di Marco Bentivogli
PANEL 4. CHE FARE? RACCOMANDAZIONI, SUGGERIMENTI, INIZIATIVE . 151 C’è una guerra là fuori . . . . . . . . . . . . . . . . . . . . . . . 153 di Nicola Sotira
Fare della giustizia sociale la bussola della trasformazione digitale: strategia e strumenti . . . . . . . . . . . . . . . . . . . 157 di Fabrizio Barca
Officine municipali: un posto per il lavoro da remoto, la nuova forma comune dei lavori . . . . . . . . . . . . . . . . . . . . . . 163 di Giulio De Petra
Droni: etica nell’acquisizione e fruizione dei dati . . . . . . . . . . 167 di Paolo Dabove e Nives Grasso
L’approccio legale-informatico per una Corporate Digital Responsibility 171 di Valentina Frediani e Alessandro Cecchetti
Come la cultura fa vivere la Responsabilità Digitale d’Impresa (CDR) . 175 di Benjamin Mueller
Il digitale per l’uomo e non l’uomo per il digitale . . . . . . . . . . 181 di Luca Peyron
4
Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . 185 Indice dei nomi e degli argomenti . . . . . . . . . . . . . . . . . . . 189
Prefazione
Il Digital Ethics Forum (DEF) è un evento annuale promosso da Sloweb e rivolto a professori e studenti, professionisti, lavoratori, cittadini. Si riportano in questo volume le 28 relazioni dell’edizione 2020 svolta online e in collaborazione con Fondazione GCSEC di Poste Italiane e Fondazione Circolo dei Lettori di Torino. Il DEF è un evento annuale dedicato a temi dell’etica nella produzione, nella distribuzione e nell’uso delle tecnologie digitali e nell’informatica, mirato a promuovere un uso etico del web. Da questo concetto deriva l’idea del neologismo proposto nel titolo di questo volume: InformEtica. Sloweb è una associazione senza fini di lucro fondata nel 2017 per promuovere l’uso responsabile degli strumenti informatici, del web e delle applicazioni internet attraverso attività di informazione, educazione e lotta agli usi impropri – da parte di organizzazioni di ogni natura – per rendere il web più sicuro, libero, equo e etico per tutti. Sloweb sostiene che il web è uno straordinario mezzo di trasmissione del sapere, dei ricordi e delle informazioni di qualità e riconosce le enormi opportunità e il potenziale delle tecnologie digitali, anche nel facilitare l’inclusione delle persone diversamente abili, ma pure che l’uso delle tecnologie informatiche interferisce a fondo con la parte irrazionale, emotiva e inconscia della natura umana. In Sloweb consideriamo quindi sia le opportunità sia i rischi e i fenomeni sociali da valutare con attenzione e, in casi specifici, contrastare. Ci impegniamo quindi a proteggere i diritti fondamentali anche sul terreno particolare della gestione ecologica dei dati digitali delle persone: ridurre, proteggere, selezionare, possedere, cancellare e gestire la propria eredità digitale. Tutti coloro che aderiscono a Sloweb si impegnano a condividere e promuovere i principi e le iniziative dell’associazione, a supportarla economicamente e a diffondere la presenza dell’associazione in Italia e nel mondo. Alcune aziende e organizzazioni – Transiti, eMemory, Escamotages, Il Nodo Group – sostengono Sloweb, e in occasione del Digital Ethics Forum 2020 diversi sponsor e queste aziende hanno sostenuto le spese di organizzazione:
5
Manuale di InformEtica
6
CERT, di Poste Italiane, ha fornito accesso e assistenza nella gestione della piattaforma WEBEX; Colin Partners, Alan Advantage, e la Banca Credito Cooperativo di Cherasco hanno sponsorizzato l’evento con interventi e/o donazioni in denaro. UniTo, PoliTo, Città di Torino e Informatici Senza Frontiere hanno concesso il patrocinio. Gli sviluppatori di piattaforme che aderiscono a Sloweb – come www. eMemory.it – si impegnano inoltre a non trattare dati personali dei propri clienti per finalità di profilazione, o comunque al fine di consentire a altri di utilizzare tali dati a fini commerciali o pubblicitari, e si impegnano a fornire un test di controllo della comprensione da parte degli utenti delle condizioni di uso. Tra le attività svolte dal 2017 al 2021 dalla associazione ricordiamo quelle più vicine alle tematiche trattate in questo volume: Convegni di studio e fiere: nel maggio 2017, “Verso una rete responsabile”, convegno di lancio della associazione, i cui atti sono stati pubblicati in Sloweb – piccolo manuale per l’uso responsabile del web, Golem Edizioni, 2018, a cura di Pietro Jarre e Federico Bottino, con interventi di Guido Avigdor, Carlo Blengino, Pietro Calorio, Giovanna Giordano, Paolo Jarre, Jacopo Mele e Peppino Ortoleva e prefazione di Enrico Deaglio; nel novembre 2017 il convegno “Storia e memoria al tempo del web”; nel 2018 “Archivi, selezione, eredità digitale” e il Salone del libro di Torino; nel 2018 e 2019, Market Fair di Roma. A partire dal 2019 svolgiamo regolarmente corsi, conferenze e convegni su temi vari (fake news, intelligenza artificiale, comunicazione digitale, rischi e opportunità del web, propaganda sui social, hate speech), in collaborazione con svariati enti. Corsi e interventi di educazione civica digitale presso scuole e istituti: 2019-2021 presso l’istituto IPSSEOA “Pietro Piazza” di Palermo, per conto del centro Poveda e l’istituzione Teresiana; nel 2018 con gli studenti del liceo “Copernico” di Torino, per Biennale Democrazia; nel 2019 e 2020 presso il Politecnico di Torino “L’uso ecologico dei dati digitali” e “Limiti dello sviluppo digitale: tecnologici, etici, comportamentali”; “Digitale e diritto” per Fondazione Croce e Ordine Avvocati Torino, 2020; “Sulle tracce del coronavirus. App di tracciamento, strumenti e problematiche” per le Biblioteche Civiche Torinesi, in collaborazione con lo SPI-CGIL, e “Algoritmi, bias algoritmici e dati ostili” per ISMEL. Progetti: nel 2018 e 2019: “Lo smartphone non ha età” per pensionati, con Specchio dei Tempi e Escamotages, e “Educazione digitale per famiglie” per l’Educatorio della Provvidenza, quindi “Informatica per la terza età” per SPICGIL; nel 2019, “InclusiveWeb”, con APRI – Associazione Proteinopatici e Ipovedenti e Il Nodo Group. Nel 2020 e 2021 in collaborazione con Senonsainonsei e Auser, “Mi faccio in 10”, per il CEPIM – Centro Persone con Sindrome di
Prefazione
down; nel 2021 “Tempo Curioso”, per le povertà educative dei minori in Val di Susa, con molte altre organizzazioni. Con questi convegni, corsi di educazione civica digitale, istruzione sull’IA e gli algoritmi, ci siamo all’inizio rivolti ai cittadini–utenti, nelle scuole e negli uffici, quindi alla industria che produce e usa software e tecnologie digitali: dai diritti dei cittadini per un’innovazione sicura etica e sostenibile alla responsabilità dell’industria (Corporate Digital Responsibility) nella produzione e uso di prodotti e tecnologie digitali. Un digitale sostenibile equo e etico richiede molte cose, ma alla base non può certo fare a meno di una maggiore consapevolezza da parte dei tecnici sui valori che si diffondono con un certo uso delle tecnologie, sui rischi innescati quando ci si dimentica l’uomo, e si ignorano le “App Neuroni”. Tra i relatori del Digital Ethics Forum abbiamo educatori e psicologi, filosofi e informatici, perché crediamo che solo competenze complementari in ambiente aperto permettano di individuare le iniziative concrete, utili e belle, che servono per un uso responsabile da parte dell’industria, e un uso consapevole da parte dei cittadini. Sempre più sovente la nostra attività si dirige inevitabilmente verso le istituzioni e i politici preposti a rappresentare le nostre istanze. Il “campo da gioco” nella produzione, distribuzione e uso delle tecnologie digitali, e del loro impatto sociale, economico e ambientale, interessa in modo sempre più chiaro non solo i produttori, l’industria e gli utenti-cittadini, ma anche le collettività, e le loro organizzazioni, dalle classi di scuola – studenti e professori – e le istituzioni preposte, locali, nazionali e sovranazionali, Unione Europea in primis, ma non solo. Per qualche decennio l’industria si è sviluppata in modo molto libero – in una fase di liberismo estremo – fino a valicare ogni limite in quella fase concepibile di potere economico e di influenza delle masse, fino, verrebbe da dire, a chiedere di essere regolata dalle istituzioni. Governi e istituzioni varie hanno assecondato la fola che recita: “per intervenire sulle questioni digitali è necessaria una profonda, specialistica conoscenza delle tecnologie stesse”, dimenticando che ad esempio usiamo motori a combustione interna o apparati televisivi, e chiediamo migliori politiche di mobilità o democrazia dei media, senza sapere nulla del ciclo Otto o di plasma, senza che questo sia sentito come un problema. Dovremmo conoscere i meccanismi di fusione nucleare, per dire no agli armamenti nucleari? In campo digitale per molto e troppo tempo il fumo dei tecnocrati ha oscurato la luce del diritto e dei diritti umani. Gli insegnanti hanno diritto di gestire il digitale e focalizzarsi sull’impatto della didattica a distanza e sul come ridurlo, hanno il diritto di pretendere di cogliere le opportunità del digitale senza farsi e senza fare del male agli studenti, senza perdere tempo a impa-
7
Manuale di InformEtica
rare dieci diverse procedure per dieci diverse piattaforme – peraltro tutte private, sinora, e sino a quando? – e così via. Il Covid ha messo in evidenza la necessità di regole condivise per la produzione e gestione dei dati (non sono un bene collettivo come l’aria e l’acqua? Sempre di più si propone un controllo pubblico e una valutazione collettiva della “risorsa digitale”), di norme per proteggere e sviluppare nuovi diritti (disconnessione, smart working sostenibile, privacy), e a nostro avviso si propone una opportunità per ripensare il ruolo del digitale nella società: lo scopo ultimo è di accelerare i processi esistenti, inclusi quelli più dannosi per l’uomo e il pianeta, di delegare al digitale ciò che l’uomo ha timore di decidere, o di asservire il digitale alla possibilità di progresso per l’umanità intera, e non per pochi potenti? Sloweb, con il DEF e le altre attività aiuta quindi a conoscere e divulga gli elementi di base – che riguardano il presente e il futuro, senza dimenticare la storia quasi secolare dell’informatica – al proprio pubblico, fatto di studenti e professori, professionisti e impiegati, operai e cittadini in genere, ponendo l’accento su impatto e diritti, come detto rivolgendosi sempre di più, quasi inevitabilmente, verso la classe politica, che del problema è stata sinora “ignorante” in ogni senso. Ricordando la Concordia e quanto successo dieci anni fa all’Isola del Giglio, pensando alla nave delle tecnologie digitali oggi in difficoltà nei rapporti con i passeggeri, verrebbe da dire ai politici: «salite a bordo, cazzo».
8
Introduzione di Pietro Jarre
Questo Manuale di InformEtica raccoglie i testi di quasi trenta interventi e due “letture speciali” dedicati all’etica nella produzione, nella distribuzione e nell’uso delle tecnologie digitali predisposti per il Digital Ethics Forum tenutosi online nei primi giorni dell’ottobre 2020. Gli interventi in parte espongono analisi generali e in parte si riferiscono a settori specifici – l’industria, la scuola… – portando anche non pochi esempi di “soluzioni positive”, buone pratiche adottate in uffici, scuole, ospedali, per usare al meglio le opportunità offerte dalle tecnologie digitali. Il Forum si è articolato in 4 sessioni, moderate da Norberto Patrignani, Franco Marra, Lucia Confalonieri e Pietro Jarre. Sloweb, Associazione senza fini di lucro organizzatrice del Forum, si è prefissa lo scopo di raccogliere elementi di base informativi, in modo da poter divulgare conoscenza sul mondo del digitale e sulla rivoluzione digitale, e in particolare sugli aspetti di “etica” che comportano. Ai relatori abbiamo chiesto di portare quanti più esempi concreti possibile, in modo da “insegnare e educare” i partecipanti. Ogni intervento è stato seguito da alcune domande del pubblico, che hanno fornito in non poche occasioni nuovi stimoli, nonché quesiti ancora privi di risposta. Gli interventi e le domande possono essere ben accolti nell’orientamento scolastico; la consapevolezza di ciò che è avvenuto, sta avvenendo e probabilmente avverrà nel campo delle tecnologie digitali è forse oggi importante quanto la conoscenza di una lingua straniera. In questo modo lo studente, il giovane lavoratore, si orienteranno nell’ambiente di lavoro e nella società: per usare le tecnologie, e non esserne usati; per diventare protagonisti della loro vita, e non spettatori passivi. Nell’ambito della scuola secondaria di secondo grado il Manuale di InformEtica può essere quindi utilizzato con profitto sia per la definizione dei Percorsi per le Competenze Trasversali e l’Orientamento (PCTO), sia nell’applicazione della legge 20 agosto 2019, n.92, Introduzione dell’insegnamento scolastico dell’educazione civica, che prevede tra i suoi traguardi proprio l’educazione alla cittadinanza digitale.
9
Manuale di InformEtica
Per favorire educazione e divulgazione il Manuale di InformEtica è completato da una nutrita serie di “letture consigliate”, indicateci dai relatori e dai soci di Sloweb, utili per approfondire i temi trattati dal Forum, per costruire la biblioteca essenziale in ogni scuola che non può non includere testi sulle tecnologie digitali. La rivoluzione digitale interessa ogni aspetto della nostra vita, dallo studio al lavoro, alle relazioni tra le persone, e in ogni area il cambiamento pone nuovi problemi etici e mette in discussione gli approcci e le scelte che in passato si erano stabilite e consolidate per affrontare vita e morte, studio e lavoro. Se rappresentiamo su un piano il “terreno di gioco” possiamo, a nostro avviso, guardare a un campo triangolare, nel quale dovrebbero giocare lo Stato (e le varie istituzioni pubbliche locali, nazionali e non solo), l’industria delle telecomunicazioni (ICT), e gli utenti, ciascuno secondo regole proprie e condivise, che si influenzano l’un l’altro. Le tecnologie digitali si sono però sviluppate in un periodo e in territori particolari, per cui le istituzioni – in Occidente, non in Oriente – hanno faticato a tener dietro agli sviluppi tecnici. Questi sviluppi, peraltro, in quanto tali sembravano da diffondere nella società in modo automatico. Gli utenti si sono trovati sedotti e conquistati, persino portati a essere complici, a far parte in qualche modo dello stesso sistema produttivo, a produrre i dati essenziali per il successo dei prodotti dell’industria. Oggi, anche grazie a quanto fatto dall’Europa, e all’azione di educatori e associazioni di utenti, questa situazione, sbilanciata a favore dell’industria delle telecomunicazioni ICT, si sta spostando verso un punto di equilibrio tra Stato, Utenti, ICT. A proposito del rapporto tra Stato e industria, è interessante osservare quanto succede in Cina. Qui lo Stato ha protetto e lasciato libero sviluppo alla propria industria ICT per qualche anno, ma già oggi il Partito comunista riprende con determinazione il controllo statale sui dati, mentre negli USA persino la inconcepibile minaccia di Capitol Hill, generata anche dall’abuso di sistemi digitali di comunicazione, non è stata sufficiente per mettere in seria discussione il dominio delle major dell’ICT, tanto che sembra stentare l’iniziativa per rompere il monopolio del gruppo Facebook e simili. Saprà l’Europa, con il PNRR e altro, educare e proteggere gli utenti, riportando equilibrio su questo terreno di gioco? Il lettore vedrà da sé quanto questa domanda è nella mente di molti dei relatori intervenuti al Forum.
10
Chiunque oggi si occupi di intelligenza artificiale (IA) vede due cose. La prima è che l’IA sta crescendo e sviluppandosi a un ritmo mozzafiato, sia sul piano tecnologico sia su quello concettuale. La seconda, altrettanto interessante, è
Introduzione
che a qualunque piano ci si rivolga è un fiorire ovunque di questioni etiche. La quantità di informazione che facciamo circolare nel mondo è ormai quasi non misurabile… Aumenta la connettività, e anche questo è un numero da tener presente. Oggi nel mondo ci sono 7,6 miliardi di abitanti del pianeta e di questi 5,3 dispongono almeno di un cellulare.
Così Mario Rasetti, fisico nucleare, nella prima sessione del Forum. Ci auguriamo che il Manuale di InformEtica offra valida informazione e conoscenza su alcune aree e un aiuto alla formazione. Non pretende di coprire ogni aspetto, piuttosto di approfondirne alcuni, che rispondono alle domande: - Come si produce oggi il software, come si dovrebbe produrlo? - Che ruolo dovrebbero giocare lo Stato, e la politica, nell’indirizzare la produzione e l’uso delle tecnologie digitali? Guardando la Cina oggi, cosa potremmo aspettarci per l’Europa domani? - Quali impatti sociali, ambientali, economici di algoritmi, 5G, intelligenza artificiale, sono inevitabili? Come si possono democratizzare le tecnologie digitali? Quali sono i limiti sociali, ambientali, economici dello sviluppo di queste tecnologie? - I big data dovrebbero essere pubblici? - La didattica a distanza dovrebbe essere fornita tramite piattaforme pubbliche? - Come informare, educare e formare la nuova classe dirigente a tutto questo? In questa Introduzione accenniamo ad alcuni di questi aspetti, spigolando tra i molti argomenti affrontati, certi che il lettore saprà orientarsi anche grazie all’Indice dei nomi. La rivoluzione digitale è avvenuta; è un po’ come se noi fossimo sbarcati su questo pianeta, e le cose che avverranno dopo non le sappiamo, è un po’ come se fosse arrivato qualcuno su un continente sconosciuto. Oggi dobbiamo cominciare a pensare non tanto a una costante spinta alla innovazione tecnologica, ma a che cosa facciamo con questa tecnologia, quindi guardare anche ai suoi limiti, dove funziona e dove invece non funziona.
Così sintetizza il filosofo Luciano Floridi nella sua lettura basata sul libro Il Verde e il Blu, pubblicato nel 2020: dobbiamo allora conoscere, capire cosa c’è, senza aver timore di non essere dei tecnici, e dobbiamo incominciare a ragionare collettivamente, per capire come produrre e usare queste tecnologie per il futuro che vogliamo. 11
Manuale di InformEtica
I sistemi che decidono in autonomia. Le armi automatiche, la guida autonoma Una caratteristica specifica, nuova, dello sviluppo di queste tecnologie, è la rapidità con la quale evolvono, un ritmo di cambiamento senza precedenti nella storia dell’uomo. Questa rapidità ha lasciato per molto tempo spiazzate le istituzioni preposte al governo e i politici stessi, e si è aperto un divario tra la capacità di “normare” e l’ingresso delle nuove tecnologie nella vita di tutti. Il tutto si è verificato anche con il prevalere di un’ideologia tecnofila per cui tutto ciò che è tecnicamente fattibile deve essere fatto, e merita spazio nella nostra società, concetto la cui messa in discussione meriterebbe molti convegni specifici. Tutti gli interventi al Forum indicano che è necessario che oggi questo divario sia rapidamente ridotto in favore di un indirizzo di interesse collettivo a sviluppo e applicazione delle tecnologie digitali. Un settore che non per caso si è sviluppato molto rapidamente, ampliando ancora il divario tra controllo politico e collettivo e le applicazioni dell’industria ICT, è quello delle armi autonome. Le armi autonome sono le armi che si sostituiscono al militare in due funzioni fondamentali: - l’individuazione e la selezione di un obiettivo militare da trattare; - la precisione di attacco. Ne abbiamo parlato con Guglielmo Tamburrini. Lo stesso Norberto Patrignani svolge molta ricerca in questo campo, che fa un poco da apripista – per la radicalità della materia di cui tratta e le domande che pone – a molti altri. Tamburrini si è chiesto: «È possibile un’etica delle armi autonome? L’intelligenza artificiale e l’ICT in questo ambito a cosa stanno portando?». La risposta: Stanno portando sicuramente all’incremento di alcuni rischi […] sfruttando le capacità di riconoscimento percettivo e di ragionamento di questi sistemi sono state sviluppate nuove armi autonome, che sono già operative, e sono in corso moltissimi progetti di creazione di altre armi autonome. Stiamo oggi delegando la decisione dell’azione alle armi automatiche, qualcosa di moralmente molto impegnativo che genera nuove problematiche, a partire dall’interruzione della catena di comando e controllo. Passando a dei sistemi d’arma - diciamo meglio: a dei sistemi robotici e di IA dotati della capacità di attivare delle armi - una decisione molto delicata come quella di individuare e di attaccare un obiettivo militare, non nascono solo questioni di responsabilità per l’eventuale violazione del diritto internazionale umanitario e, in particolare, di quelle norme che regolano il comportamento dei belligeranti sul campo di battaglia. Nascono anche nuovi rischi per la pace e la stabilità internazionali.
12
Notiamo che problematiche in parte simili, seppur meno drammatiche, si riscontrano nell’ambito dei veicoli a guida autonoma; cosa e quanto dele-
Introduzione
gare, dove finisce la responsabilità degli uni e degli altri, come avere un approccio etico? L’intervento di Paolo Santi analizza proprio questo settore, da cui paiono emergere interessanti opportunità e domande nuove da risolvere. È probabile che anche in questo settore le migliori soluzioni si troveranno quando si rimetteranno in discussione gli obiettivi che si cerca di raggiungere uscendo dagli approcci che si danno per scontati, ad esempio: sostituire l’intelligenza e le abitudini umane con sistemi automatici, o usare le tecnologie digitali per dare una possibilità di fiorire a modelli sociali completamente nuovi e più giusti? Fabrizio Barca spiega come proprio la giustizia sociale possa essere il faro di riferimento per dare direzione alle scelte su come – e se – usare le tecnologie digitali. In questi settori, come in altri – per esempio quello del gioco d’azzardo on line – l’intervento a chiudere il divario tra Industria e Stato è più che mai urgente. Ma «come armonizzare la velocità tra aziende tecnologiche veloci e politica lenta?», ha chiesto Norberto Patrignani a Luciano Floridi, che ha risposto così: C’è una differenza di velocità ma c’è anche una differenza di ruoli. La politica (Politica con la P maiuscola) non fa imprenditoria, dà la direzione, non mi dice quanto velocemente arrivarci e come arrivarci, ma mi dice dove vuoi andare… la Politica ci dice in quale società vogliamo vivere. Come ci arriviamo e quanto velocemente ci arriviamo, questo la politica lo può agevolare, ma non è il suo compito. La Politica esorta, ad esempio, le grandi aziende ad avere un ruolo di cittadinanza che dia un ritorno sul sociale dei loro investimenti; come lo fai e quando lo fai sta a te. Quindi la differenza è tra quanto velocemente vogliamo procedere e dove vogliamo andare.
Gli algoritmi, l’infrastruttura digitale Nel rispondere alle fondamentali domande: «Possono gli algoritmi contenere pregiudizi? Come avere algoritmi etici?», la politica dovrebbe, come detto, orientare, dare direzione, fare e orientare delle scelte. Nel Forum ne hanno discusso in molti; citiamo tre relatori: Paolo Merialdo, che, ricordando il noto caso del cavallo Hans (che solo in apparenza aveva capacità di intelligenza straordinaria, in realtà rispondeva a involontari stimoli degli interroganti), sintetizza così: Il timore che abbiamo oggi […] è che alcune soluzioni di intelligenza artificiale, soprattutto quelle basate su tecniche di machine learning, possano essere dei moderni “Hans”: prendono delle decisioni che apparentemente sono corrette ma arrivano a tali risultati per il motivo sbagliato. Come è possibile?
13
Manuale di InformEtica
È semplice, i sistemi di machine learning sono dei programmi che imparano a prendere delle decisioni sulla base di esempi, quindi tutto dipende dall’input fornito, dal “cibo” con cui vengono nutriti, quindi nasce l’esigenza etica di avere una maggiore trasparenza in questi sistemi. In effetti oggi ci sono nuove tecniche, con le quali si analizza il sistema dopo la fase di apprendimento e se ne descrive il comportamento producendo quindi delle spiegazioni dei risultati. Io sono ottimista […] credo che la tecnologia stia evolvendo per dare risposta […] evolve spinta sia da motivi etici sia da motivi prettamente economici e legati al profitto.
E le istituzioni intervengono: una delle grandi direttive europee sulla intelligenza artificiale è proprio quella del diritto alla spiegazione, quando la decisione ha un impatto sulla persona. Massimo Durante: l’essere umano è straordinariamente capace di dissimulare le ragioni di una decisione e pertanto di mentire sui reali moventi che hanno portato a una determinata decisione. È molto più difficile, se non impossibile, programmare una macchina in tal senso. Credo che oggi abbiamo certamente una grande occasione per fare un’operazione di liberazione da pregiudizi, di far emergere dei pregiudizi o delle discriminazioni che prima erano perpetrate da essere umani in modo più nascosto e surrettizio e dunque meno percepibile.
Gianfranco Balbo: L’uso degli algoritmi e dell’IA è frutto del progresso tecnologico che ci permette di gestire enormi quantità di dati in un baleno… in molti casi si è già anche arrivati ad affidare grandi decisioni a strumenti di questo tipo […] qualcuno sta cominciando a pensare di sostituire anche molte altre attività umane con sistemi di questo tipo. Quando però si pensa di sostituire l’uomo con processi automatici ci si deve soffermare attentamente sul pericolo derivante dal non tenere in considerazione gli aspetti che ci rendono uomini: l’empatia, la solidarietà, tutta la sfera di emozioni che hanno un ruolo cruciale nel modo in cui l’uomo opera e prende decisioni. Si delinea così un mondo senza spazio per l’etica e la moralità, un mondo in cui io non vorrei vivere.
Ricordiamo poi e puntualizziamo con Francesco Nucci e altri che il machine learning fa correlazioni, non costruisce o trova rapporti di causa/effetto. Semplifica bene Nucci:
14
Non è che siccome il gallo canta e poi sorge il sole, il gallo che canta è la causa del sorgere del sole… noi umani abbiamo la capacità nella nostra intelligenza naturale di leggere questa differenza e vorremmo che l’intelligenza artificiale affrontasse la questione della causalità tra i dati e non solo delle relazioni.
Introduzione
Abbiamo accennato al fatto che la qualità delle scelte suggerite dagli algoritmi dipende da quella dei dati di ingresso, come per gli esseri umani. Da sempre i dati sono indispensabili per allargare i confini della nostra conoscenza e per verificare il fondamento delle nostre opinioni. Molti relatori – citiamo ad esempio Paolo Dabove e Nives Grasso su software open source, Michel Noussan sugli open data («che devono essere completi, aggiornati, chiari e leggibili») e Nicola Sotira sulle guerre digitali («con la connettività che diventa via via sempre più pervasiva, sempre presente, se connetto tutto, il problema lo diventiamo anche noi. Oggi sentiamo parlare sempre di data breach, quindi di dati trafugati, carte di credito, credenziali, ma dovremmo cominciare presto a parlare di human breach») ci spiegano gli aspetti tecnici ed etici su come si raccolgono i dati, e su come si possano o si debbano condividere in modo equo, etico e sostenibile. Qui interviene il dibattito sul 5G, che offre come noto possibilità enormi di raccolta dati, si leggano Ivan Vigolo e la proposta del citizen data lake (un serbatoio-lago per contenere i dati pubblici, a disposizione dei cittadini stessi), e Francesco Nucci su 5G e IA: «Il 5G è un fattore abilitante per l’intelligenza artificiale e viceversa», tenendo ben in mente che con il digitale la quantità dei dati stessi è aumentata appunto in modo esponenziale e continuerà a farlo, e qualcuno davvero pensa che ciò sia indiscutibilmente positivo. L’infrastruttura digitale è oggi senz’ombra di dubbio un’infrastruttura strategica, indispensabile per la vita sociale, l’economia, la sicurezza delle nazioni; della situazione italiana nel suo complesso e della necessità di considerare un intervento dello Stato in questa infrastruttura strategica riferisce con altri relatori Gianluigi Castelli.
Le due intelligenze: quella umana e quella che definiamo artificiale La discussione mette sempre più spesso in evidenza i problemi di ordine energetico – ne hanno parlato diversi relatori, e noi stessi abbiamo promosso eventi specifici in merito presso il Politecnico di Torino, cui rimandiamo – insieme a quelli di ordine etico. Oggi la discussione si focalizza molto su intelligenza artificiale e il 5G. Dal Forum sono emersi diversi interventi aperti alla prospettiva del 5G e di un uso sostenibile della intelligenza artificiale. In sintesi, potremmo dire che nulla va demonizzato, tutto va considerato con occhio critico, ma aperto. «Le situazioni in cui l’intelligenza artificiale può essere utilizzata a favore dei cittadini e su temi che colpiscono e impattano direttamente le persone sono numerosissime», sintetizza Francesco Nucci, e prosegue: «oggi si studia la “AI for Good” [come l’intelligenza artificiale impatta le città, N.d.R.]. Il concetto di AI for Good sicuramente si può legare ai 17 obiettivi di sviluppo
15
Manuale di InformEtica
sostenibile delle Nazioni Unite». Su questa eccitante prospettiva i lettori del Manuale di InformEtica troveranno un chiaro esempio negli studi svolti a Oxford, illustrati da Luciano Floridi. Un fattore sottinteso a molte di queste discussioni è quale debba essere l’ottimale rapporto tra intelligenza umana (“naturale” la definisce Nucci) e intelligenza artificiale; oggi, scontati successi e insuccessi, si tende ad abbandonare l’ingenua ipotesi di sostituire l’intelligenza umana con quella artificiale, si studia cosa far fare e cosa no ai sistemi robotici e osservazioni molto profonde si trovano nell’intervento che Don Luca Peyron ha fatto a conclusione dell’intero Digital Ethics Forum. Peyron dice: la questione di fondo che mi sembra di poter identificare è la diversità valoriale tra l’uomo e la macchina: che cosa ha più valore per noi: l’essere umano o la macchina? Tra uomo e macchina che valore diamo a uno e che valore diamo all’altra? A mio avviso l’unico modello interessante è un modello cooperativo tra uomo e macchina, che si può stabilire dopo aver ben riflettuto e considerato quattro aspetti: - la dignità dell’essere umano; - la visione del limite che l’essere umano ha; che cosa significa per noi avere dei limiti, cosa significa desiderare di superare questi limiti; - l’interpretazione che vogliamo dare del progresso… Rischiamo oggi di sovrapporre trasformazione digitale e progresso, come se solo ciò che è progresso tecnologico fosse progresso sociale… e questo è francamente preoccupante [riferendoci alla triade Stato – utenti – industria è il caso in cui l’industria ICT sottomette lo Stato e quindi anche gli utenti, N.d.R.]; - la quarta direttrice, che è un aspetto legato alla mia vocazione e al mio servizio, è una tensione alla trascendenza, dove per trascendenza non intendo solamente una dimensione religiosa o un framework spirituale, ma tre elementi che la macchina non ha: l’intenzionalità, la capacità di dare significato e la capacità di riconoscere il valore.
Molti al Forum hanno ricordato l’importanza del fattore umano, e quindi l’illusorietà di certe promesse di sistemi di sicurezza: Nicola Sotira e lo human breach, Valentina Frediani e Alessandro Cecchetti in ambito cybersecurity («relativamente agli aspetti della cybersicurezza, in un mercato che si basa sulle informazioni – non solo dati, ma informazioni in senso più ampio – c’è un elemento che non si può mai prevedere, ed è l’elemento umano. In tema di cybersicurezza ci può essere un elemento imprevedibile, impazzito, come potrebbe essere ad esempio un dipendente che fa un uso distorto o non consapevole della strumentazione elettronica o delle risorse che l’azienda mette a disposizione»). 16
Introduzione
Digitale e pandemia COVID Un’esperienza positiva interessante dell’uso dell’intelligenza umana e dei dati organizzati è stata quella della messa a sistema dei dati di contagi e decessi nei primi mesi della pandemia tra gli scienziati di molti paesi del mondo. «Durante la pandemia abbiamo visto che i dati raccolti, disseminati da persone contagiate in tutto il mondo, sono stati utilissimi per capire come si stesse sviluppando la pandemia stessa, per capire i meccanismi e i sintomi del contagio, per lavorare sui vaccini», ricorda Sabina Leonelli, che studia a Exeter, in Inghilterra, il ruolo dei big data nella ricerca scientifica, e prosegue: Questo lavoro ha dimostrato l’importanza di due fattori chiave: - Il primo fattore concerne l’importanza di quello che alcuni di noi ricercatori e accademici chiamiamo la “scienza aperta”, cioè scambiare i dati in maniera aperta e trasparente. - Il secondo fattore rilevante concerne l’importanza di creare dei modi attraverso i quali i cittadini possano partecipare nella raccolta dei dati, e anche, in un certo senso, alla loro valutazione e interpretazione, ovvero nel riportare esperienze - che diventano poi dati - che abbiano rilevanza medica, e quindi partecipare alla costruzione di conoscenze scientifiche. Con la pandemia da Coronavirus si è quindi capito che è doveroso trovare meccanismi efficienti per scambiare i dati, soprattutto i dati personali e i dati medici, ma è anche fondamentale effettuare questo scambio nel rispetto dei diritti umani e dei diritti digitali.
Un altro intervento interessante su epidemia, aspetti etici e trasformazione digitale, è quello di Antonio Bonaldi, che riflette sul ruolo tra scienza, popolazione, politica e comunicazione, concetti chiave per un buon uso delle tecnologie digitali per la comunicazione, e che conclude dicendo: chi parla in nome della scienza dovrebbe riconoscerne i limiti e abbandonare la presunzione di avere la risposta a qualunque situazione. Dovrebbe invece aiutare le persone a orientarsi tra la massa crescente di dati e informazioni che sono spesso discordanti e che bisogna interpretare. Chi detiene la responsabilità decisionale dovrebbe essere preparato a decidere in situazioni di incertezza e avere almeno un’idea di come funzionano i sistemi complessi, e promuovere quindi la cooperazione interdisciplinare.
In merito agli effetti della pandemia sulla società e il mondo del lavoro si vedano poi gli interventi di Marco Bentivogli e il suo libro Guida allo smart working che, dice l’autore, «dimostra come il digitale ha scongelato i due pilastri del lavoro e cioè il luogo di lavoro, come elemento rigido, e il tempo di lavoro, cioè l’orario, che è sempre più appannaggio di una gestione progressivamente più autonoma da parte delle persone», nonché i contributi di Giulio De Petra sulle
17
Manuale di InformEtica
Officine Municipali (“Un posto per il lavoro da remoto, la nuova forma comune dei lavori” il titolo del suo intervento), di Fabrizio Barca e di Gianluigi Castelli. Una serie di aspetti positivi e interessanti nell’uso delle tecnologie digitali rispetto alla pandemia è riportata da Simone Pieranni, sinologo: in Cina tutte le tecnologie sono state utilizzate e si è avuta la percezione che abbiano funzionato: - sono state utilizzate macchine a guida autonoma per portare cibo o materiale medico agli ospedali; - per ridurre il lavoro degli ospedali sono stati utilizzati i risponditori automatici e gli assistenti vocali che facevano 200 chiamate in cinque minuti e riuscivano quindi a chiedere la temperatura, a fare delle diagnosi e dare consigli terapeutici; - è stata diffusa una app di tracciamento simile a quella che abbiamo visto in Italia (Immuni); - sono stati impiegati robot, droni e sono state utilizzate le reti 5G, ad esempio all’interno delle ambulanze, che consentivano di inviare immediatamente dati agli ospedali in modo da velocizzare il tutto.
Le tecnologie non sono neutre: rischi e opportunità del digitale
18
Vediamo dunque che in ogni settore intervengono aspetti tecnici – con i loro rischi e opportunità – e aspetti etici e di diritto – con i loro rischi e opportunità. La tecnologia digitale può essere usata in una direzione oppure in quella opposta. Potremmo dire che poiché viene sempre usata, in una direzione o in un’altra, discutere del fatto che sia “neutra” non è particolarmente utile. Diversi interventi al Forum riportano sulle opportunità colte grazie alle tecnologie digitali a scuola (Sara Capecchi e Alberto Rossetti sulla educazione civica digitale) o in azienda (Antonella Ambriola sulla trasformazione digitale in WINDTRE, Francesco Ronchi, Valentina Frediani con Alessandro Cecchetti e Benjamin Muller sulla corporate digital responsibility, un sistema concettuale e sostanziale, fatto anche di procedure e politiche, per aiutare le aziende a usare e far usare il web in modo più equo giusto e sostenibile) e al contempo ci ricordano quanto sia necessario appunto un quadro etico e etico-giuridico, sulla privacy e non solo, perché queste applicazioni opportune non diventino minacce impreviste. Una vivida sintesi sull’impatto sociale della trasformazione digitale, di cui raccomandiamo la attenta e completa lettura, si trova nell’intervento di Fabrizio Barca “Fare della giustizia sociale la bussola della trasformazione digitale”. La tesi di fondo è che la trasformazione digitale «può sia accrescere sia ridurre le disuguaglianze», offrendo una biforcazione, e in teoria portando
Introduzione
anche a un equilibrio, ma una serie di fattori hanno invece determinato «una fortissima concentrazione della conoscenza e usi rischiosi anche per la democrazia». Tra questi si menzionano: - la prolungata disattenzione agli effetti sociali della trasformazione digitale; - la rinuncia sistematica a un controllo pubblico o collettivo (non sono la stessa cosa) delle piattaforme digitali; - il divario temporale fra benefici subito o domani e danni futuri; - l’assenza di un confronto informato; - la dissimulazione dentro la tecnicità degli algoritmi di decisioni che in realtà sono politiche.
Assumendo il punto di vista della “libertà sostanziale” delle persone e guardando alle diverse dimensioni di vita (lavoro, consumo, impresa, servizi fondamentali, ambiente, cultura e politica) si può vedere come agisce l’alternativa su cosa può andare male/cosa può andare bene dimensione per dimensione, in modo da capire come aumentare gli effetti positivi. Citiamo due esempi che interessano la formazione professionale e l’orientamento al mondo del lavoro, rimandando al testo nel Manuale: 1. Selezione del personale delle aziende: sempre di più l’uso del digitale proprio attraverso la sua capacità di previsione di correlazione delle caratteristiche degli individui e i loro risultati può discriminare in maniera oggettiva e non visibile per genere, per etnia, o per classe. Oppure, se la si usa in un altro modo può verificare che NON si discrimini per genere per etnia o per classe: straordinario potenziale di utilizzo dello stesso strumento. 2. Lavoro a distanza: può determinare attraverso lo strumento di cui stiamo parlando adesso una dilatazione incontrollata dei tempi di lavoro e una assoluta eliminazione della distanza fra tempi di vita e tempi di lavoro. Oppure di nuovo tutto il contrario: può determinare una nuova conciliazione tra i tempi di lavoro e di vita e addirittura - dal punto di vista dell’organizzazione del lavoro - una auto responsabilizzazione o il ridisegno dei flussi organizzativi dell’azienda con un aumento della responsabilità delle persone.
Digitale e società: il nostro futuro si scrive in Cina? Simone Pieranni ha svolto nel Forum una “lettura speciale” del suo libro Red Mirror illustrando in questo modo la situazione: quando i media mainstream parlano di Cina e tecnologia raccontano una distopia dove tutto ciò che accade va a comporre un quadro orrendo per i poveri cittadini cinesi, mentre in realtà in Cina si stanno sviluppando diverse tecnologie, legate soprattutto all’intelligenza artificiale, in base alle quali si sta de-
19
Manuale di InformEtica
lineando un nuovo “patto di cittadinanza” che l’Occidente o insegue o sta già praticando.
Una “AI for Good” che è già fatto concreto, quotidiano e diffuso. Pieranni prosegue così: da almeno trent’anni la Cina ha investito moltissimo in Ricerca e Sviluppo per andare ad occupare una posizione di più alto valore all’interno della filiera produttiva, esportando beni ad alto contenuto tecnologico. Questo processo è stato favorito da una serie di caratteristiche cinesi: - la guida statale - le caratteristiche territoriali - l’intervento del Partito comunista che ha bloccato l’accesso al mercato cinese dei big player internazionali per dare il tempo necessario allo sviluppo di aziende cinesi [e che oggi – 2021 – vede un ulteriore passo nell’intervento del Partito comunista a limitare grandemente le stesse aziende cinesi dell’ICT, N.d.R.] - e infine l’aspetto più importante: quello dei dati. Se i dati rappresentano infatti il “nuovo petrolio” potremmo dire che la Cina è l’Arabia Saudita dei dati. Tutte le applicazioni che sono state sviluppate in Cina sanno utilizzare al meglio i dati. L’esempio più calzante è quello di WeChat, senza la quale oggi in Cina non si può fare praticamente nulla […].
La domanda chiave di Lucia Confalonieri: «il modello che descrivi nel libro su come il Partito comunista usa il digitale in Cina è agli antipodi […] rispetto al nostro modello di rapporto tra individui e collettività, tra cittadini e Stato. Secondo te sarebbe possibile che si verificasse in Europa o in Italia?», ha ricevuto questa documentata risposta:
20
non sono pochi gli aspetti che indicano quanto ciò che sta accadendo in Cina sia rilevante per noi e potrebbe accadere anche qui da noi: - da un lato c’è un tentativo da parte di molte aziende occidentali di adottare ciò che è stato fatto in Cina come modello di business. Diverso è invece riuscire, per fortuna, a impiantare un sistema di controllo così pervasivo come quello cinese, ma teniamo conto che noi un confine lo abbiamo già varcato, ovvero accettare di essere sorvegliati 24 ore su 24 nelle nostre città per questioni di sicurezza; - dall’altro la mole dei dati che i governi oltre che le aziende oggi possono controllare è impressionante. Noi abbiamo avuto degli esempi. Basti pensare a Cambridge Analytica, per non parlare della NSA, dove gli Stati Uniti non si sono comportati in maniera troppo diversa da come si comporta il Partito comunista con i dati cinesi, con un utilizzo di dati personali per finalità politiche e non solo commerciali. In Europa il discorso è diverso perché noi abbiamo appunto, oltre a una legislazione, una concezione molto forte per la difesa dei nostri dati contro l’intrusione dei governi.
Introduzione
Democrazia e governo del digitale e dei dati Il “che fare” richiede un pensiero politico, una visione della società, e include certamente delle azioni anche quotidiane per “fare meglio”, per esempio il digital detox di cui parla Alessio Carciofi nel suo intervento al Forum. Ma il “che fare” non può non partire, appunto, da grandi visioni, anche da “sogni”, e ricordiamo quindi cosa sogna nel suo intervento al Forum Mario Rasetti: Quello che mi piace immaginare è che il mondo si stia costruendo una sorta di corteccia cerebrale. La superficie del pianeta è una grande corteccia cerebrale nella quale il gioco dei neuroni lo fanno gli esseri umani, potenziati dalle loro protesi elettroniche e capaci ormai di mettersi in contatto con una collettività immensa. Al netto di differenze di lingua, interessi, o capacità di gestire numeri così elevati, soprattutto noi occidentali, in quel bacino di più di 5 miliardi di utenti, con un telefono possiamo metterci in contatto con decine di migliaia, o centinaia di migliaia di persone. Quindi, immaginiamo una sorta di cervello in cui invece dei neuroni ci siano gli esseri umani, le nostre teste potenziate dall’elettronica: non abbiamo bisogno di fili, di assoni, perché comunichiamo con la massima velocità possibile sulla terra, come ci dice la relatività, alla velocità della luce. Siamo come dei neuroni in cui le sinapsi sono centinaia di migliaia e in cui non abbiamo neanche bisogno degli assoni poiché trasmettiamo istantaneamente.
Nella nostra realtà europea, come possiamo pensare di democratizzare le tecnologie? Viola Schiaffonati, esperta di logica e filosofia della scienza, ci dice diverse cose importanti: in primo luogo, oggi si deve superare quella che è definita visione tradizionale di responsabilità. «Oggi si deve tendere a quella che è stata chiamata responsabilità attiva, vale a dire pensare a tecnologie che sin dall’inizio, addirittura in fase di progettazione, debbano sia prevenire possibili effetti negativi sia promuovere effetti positivi». In secondo luogo, per democratizzare le tecnologie non si può prescindere dal fatto che «esiste una differenza fondamentale tra le tecnologie, le leggi e il modo in cui entrambe limitano la libertà umana. Sappiamo tutti come le leggi limitano la libertà umana, e la differenza fondamentale con le tecnologie è che le leggi sono frutto di un processo democratico – almeno idealmente – mentre i limiti imposti dal modo in cui determinate tecnologie sono progettate non sono perlopiù frutto di un processo democratico. È quindi essenziale interrogarsi sulla possibilità di trovare un modo democratico per moralizzare le tecnologie». Peraltro, a monte si tratta di verificare come governare internet e gestire i dati. Del primo tema si occupa Gianluigi Castelli, che esamina quanto fatto 21
Manuale di InformEtica
e resta da fare in Unione Europea, e quale contributo possa dare il PNRR, e ce ne educa Massimo Durante, professore di Filosofia del Diritto e Informatica: c’è un sostanziale problema di governance della società digitale derivante dal fatto che la proliferazione di attori ha reso molto più complessa la possibilità di poter governare su questa. Ciò cui ci si fa riferimento di regola in letteratura quando si parla di “internet governance” è il livello dei protocolli che storicamente è affidato alla gestione di una società di diritto privato con sede in California, che è ICANN. C’è stata una forte evoluzione recente, ricordo questo: ICANN rispondeva nei confronti di una agenzia governativa che faceva parte del ministero del commercio statunitense in base ad un contratto che ne definiva i termini di accountability. Tutto questo è stato messo in dubbio, revocato e sciolto e ora ICANN risponde nei confronti di una fantomatica società di multistakeholder i cui termini di accountability sono di fatto misteriosi; è difficilissimo dire che cosa significhi rispondere, essere accountable, nei confronti della società multistakeholder. Quello che è certo è che è cambiato il concetto di accountability: in precedenza ci si basava su un contratto, mentre oggi si usa un concetto di accountability differente dove non si capisce esattamente chi può chiedere di rendere conto di che cosa a questa società che gestisce un aspetto molto importante: quello dei protocolli.
Del secondo tema – governo dei dati – parla tra gli altri Michel Noussan: Serve che qualcuno organizzi anche a livello più alto la raccolta e l’organizzazione dei dati, perché non ci serve a nulla avere migliaia di dati open a livello comunale, se poi ogni comune si da un formato diverso da quello vicino. Al tempo stesso direi che è deleterio anche per un cittadino che magari è interessato a vedere qualcosa in un ambito specifico, e si trova inondato da questi diecimila dataset disponibili e fatica a orientarsi. Quindi è utile che ci sia una regia a livello nazionale, e internazionale in alcuni casi, che cerchi di organizzare il patrimonio di informazioni disponibili, perché se siamo inondati da informazioni poi risulta difficile capire cosa ascoltare cosa non ascoltare, e qual è veramente il messaggio che ci sta dietro.
Come si produce oggi il software, come si dovrebbe produrlo? Per scendere poi ancora più nel concreto, è importante intervenire nel processo di concezione, produzione, validazione dei prodotti delle tecnologie, dei software, delle app. Ne parlano Norberto Patrignani e Luciano Floridi, e ancora Viola Schiaffonati. Quest’ultima indica che 22
il cambio di paradigma deve avvenire su almeno tre livelli:
Introduzione
- il primo gruppo di persone coinvolto è quello dei progettisti che devono essere in grado di saper anticipare il più possibile il ruolo di mediazione, anche morale, delle tecnologie che stanno progettando. Devono quindi usare immaginazione nel progettare queste tecnologie, cercando di anticipare il loro impatto su individui e società; - il secondo gruppo di persone che deve essere chiamato a partecipare attivamente è quello degli utenti, noi tutti cittadini che dobbiamo essere molto consapevoli di questi processi, di chi decide i valori che eventualmente vengono inseriti nelle tecnologie moralizzanti; - infine ci dev’essere un ruolo attivo da parte dei decisori politici che fino adesso sono intervenuti per ri-normare a posteriori quello che già esiste. Varrebbe la pena pensare che anche i decisori politici debbano intervenire sin dall’inizio per co-progettare queste tecnologie e per tenere in considerazione eventuali problemi.
Di nuovo, la triade industria ICT (i progettisti), utenti e Stato (i decisori politici).
Qual è il ruolo della scuola nel formare e orientare? Il ruolo della scuola, nel formare e orientare, come interviene su questo terreno di gioco? Alla domanda di Norberto Patrignani («come preparare gli informatici intrecciando aspetti etici e tecnici?»), Luciano Floridi risponde: Primo, ci vuole più interdisciplinarità, insegnando un po’ di STEM (scienza, tecnologia, ingegneria e matematica) agli umanisti e insegnando un po’ di filosofia, letteratura e discipline umanistiche agli ingegneri. In Norvegia chiunque va all’università deve fare un corso obbligatorio all’inizio di metodologia scientifica e un corso di filosofia della scienza. Questa è una buona idea.
Sul punto STEM interviene poi anche Marco Bentivogli. Prosegue Floridi: L’Università NON è il luogo dove si preparano le persone a fare una specifica professione, con poche eccezioni quali avvocati, medici e ingegneri. In generale l’Università prepara sui fondamenti. È la palestra, non è dove vai a giocare. Secondo, il mondo del lavoro, dove poi vado a giocare, si deve far carico della formazione in maniera interattiva. Quando noi abbiamo un’azienda che parla con l’università dove fa formazione sui fondamenti e lo fa in quel modo un po’ più da XXI secolo (STEM per gli umanisti e discipline umanistiche per gli STEMs) e l’azienda si fa carico di quanto serve per la professionalizzazione, questo diventa un sistema in cui le persone poi si sentono in grado di poter dire “ho le competenze per affrontare qualsiasi altro lavoro”. 23
Manuale di InformEtica
Come migliorare anche a scuola la percezione della rete, la coscienza nella rete Sin dalla fondazione nel 2017 Sloweb ha coinvolto psicologi, psicoanalisti e psichiatri, per favorire un approccio non solo tecnico e non solo giuridico. Gli interventi di Alberto Rossetti, Sara Capecchi e Anna Pisterzi, insieme con altri contributi che si possono reperire in rete sul sito di Sloweb, ci ricordano quanto questi aspetti siano importanti, in primo luogo in un ambito di educazione civica digitale. Per diverse ragioni – anche legate all’uso del digitale nella comunicazione, quindi alla polarizzazione delle posizioni e all’emergere del rumore sulla riflessione – la formazione della classe dirigente è più che mai sulle spalle della scuola. Come ben illustrato in molti interventi, la classe dirigente deve non solo conoscere, ma dirigere, appunto, dare direzione allo sviluppo delle tecnologie digitali e al loro uso nella società. Ne consegue l’importanza dell’educazione civica digitale, a partire dalla formazione del corpo docente. Lo ripetiamo, non si tratta di conoscere la tecnica digitale, ma come questa si rapporta alla società, come modifica le relazioni tra gli umani e con il mondo circostante: la terra, le macchine, il mondo animale. I docenti hanno gli strumenti di base per questo apprendimento, e questo Manuale di InformEtica, ci auguriamo, sarà uno degli strumenti, e un punto di riferimento per ulteriori ricerche, e la formazione di docenti e studenti. Entrando nel merito, si chiede Alberto Rossetti: quali sono dunque i due punti conclusivi per un’educazione digitale che sia consapevole? Il primo è la conoscenza e coscienza della complessità… Bisogna portare le persone nella complessità, rendersi conto che non è solo questione di quanto tempo si passa davanti a uno smartphone… L’importante è avere la consapevolezza di quello che io – adulto – faccio là sopra, e quindi, di conseguenza trasferirla anche ai ragazzi. Il secondo punto è la riflessione iniziale dell’importanza di continuare a interrogarsi sull’educazione che viene data ai ragazzi fin da quando sono piccoli, riflettere sul fatto che non esiste una netta separazione tra un mondo digitale e un mondo analogico, ma che sempre di più viviamo in una continuità che è necessario cogliere ed è necessario portare avanti con decisione.
Citiamo poi da Anna Pisterzi:
24
Se non teniamo in debito conto il funzionamento psichico e l’adattamento che la mente umana (e il corpo con lei) sta mettendo in atto per accomodarsi all’onlife rischiamo di acuire il divario digitale e culturale nonostante gli sforzi progettuali e attuativi per colmarlo. […] la rete è un luogo straordinario che può supportare la ricerca della propria identità profonda (penso ad esempio al tema dell’identità sessuale, allo sviluppo del proprio talento, alla condivisione di cause sociali), ma anche un luogo dove il tempo viene “buttato”, un
Introduzione
immenso luna park dove farci del male o farne ad altri […] un luogo in cui la nostra mente non riesce quasi mai a riposare, tanti e tali sono gli stimoli e le interferenze, e che mette l’individuo in uno stato di tensione che oscilla tra illusione e delusione: siamo sedotti dalla possibilità di ottenere tutte le risposte bypassando la fatica di instaurare la relazione con un umano più competente e poi rimaniamo delusi dalla parzialità di risposta della macchina o sconcertati in mezzo a una babele di contenuti. È quindi necessario, oltre alla costruzione di norme internazionali che diano i confini legislativi nei quali muoversi, diffondere capillarmente a partire dalle scuole una conoscenza accessibile sui meccanismi di funzionamento della rete, sulle componenti psicologiche, sulle implicazioni neurobiologiche. Un lungo lavoro pari a quello che si fece per debellare l’analfabetismo in Italia.
Per chiudere, vogliamo citare un concetto che al Digital Ethics Forum ci ha colpito particolarmente, e di cui siamo debitori a Luciano Floridi: «l’etica si perde quando non se ne parla più. Fintanto che se ne sente l’assenza non è stata persa». Buona lettura.
25
38 93 QU AD RI C E R6 2M AN UA LE D I IN FO R M ET IC A
QUESTO VOLUME, SPROVVISTO DI TALLONCINO A FRONTE (O OPPORTUNAMENTE PUNZONATO O ALTRIMENTI CONTRASSEGNATO), È DA CONSIDERARSI COPIA DI SAGGIO - CAMPIONE GRATUITO, FUORI COMMERCIO (VENDITA E ALTRI ATTI DI DISPOSIZIONE VIETATI: ART. 21, L.D.A.). ESCLUSO DA I.V.A. (DPR 26-10-1972, N.633, ART. 2, 3° COMMA, LETT. D.). ESENTE DA DOCUMENTO DI TRASPORTO.
Manuale di InformEtica
Il Manuale di InformEtica – con gli interventi predisposti per l’edizione 2020 del Digital Ethics Forum promosso dalla Associazione Sloweb – si apre con due letture di riferimento importanti per il contesto occidentale e per quello globale, e riporta poi ventotto interventi utili per un’informazione di base sui temi dell’etica del digitale. Gli interventi prendono le mosse dalle analisi generali sui temi della democrazia e del digitale – la trasparenza degli algoritmi, il ruolo dell’intelligenza artificiale e le nuove questioni etiche che emergono, le opportunità e i rischi di big data e open data; riferendosi a esempi concreti – lo stato delle infrastrutture digitali, l’avvento del 5G, l’opportunità e difficoltà di digitalizzazione delle aziende. Il Manuale spiega come le grandi domande trovino nelle diverse dimensioni sociali delle soluzioni a volte soddisfacenti. Illustra quindi come di fronte alle scelte che il digitale offre si debba operare con criteri chiari ed espliciti, perché sono sempre possibili strade alternative; così anche nella ricerca, nello studio e nella didattica. Il Manuale si chiude con una sezione dedicata al “che fare” a scuola, con due interventi dedicati agli aspetti psicologici connessi all’uso/abuso del web, e al “che fare” nella società ai tempi della pandemia e nel dopo, e nelle aziende, con tre interventi specifici sull’emergere di politiche di responsabilità digitale aziendale. La pandemia ha reso ancora più acuta la necessità di difendere i diritti, siano essi consolidati o appena emergenti sul piano del digitale. La diffusione di questo Manuale in aziende, uffici, scuole, organizzazioni di categoria e sindacati vuole sensibilizzare e fornire linee guida per un digitale etico, proprio dove vengono formati, educati, gestiti studenti, lavoratori, aziende e comunità. Giulia Balbo è consulente di comunicazione digitale. Durante gli studi in media e comunicazione ha sviluppato un interesse per la comprensione delle dinamiche e dei meccanismi che governano il digitale. Questo indirizzo si è approfondito man mano con l’attività lavorativa, trovando sbocco in particolare nella collaborazione con l’associazione Sloweb. Pietro Jarre è ingegnere e imprenditore. Ha fondato l’associazione Sloweb e le piattaforme eMemory, eLegacy e MailRake per la protezione del diritto al possesso dei dati personali e la promozione di comportamenti e iniziative etiche per un uso più responsabile di prodotti e strumenti digitali in azienda, comunità e famiglia. Con Federico Bottino ha curato il libro Sloweb - Piccola guida all’uso consapevole del web, Golem Edizioni, Torino 2018.
€ 11,50 3893 MANUALE DI INFORMETICA