N° 14 — Luglio 2021
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
L’era della disinformazione Come social media, algoritmi e nostre vulnerabilità cognitive amplificano la diffusione di informazioni false e teorie del complotto, mettendo a rischio la società
Le menzogne sono vecchie quanto il mondo. Ma mai come nei tempi recenti sembrano essere un pericolo esiziale per la nostra società. Notizie false, cattiva informazione e teorie del complotto oggi si diffondono con una facilità e una pervasività mai osservate prima. E la fonte può essere un comune cittadino come anche alcune tra le personalità più potenti della Terra. I social media offrono un palcoscenico potenzialmente globale a chiunque abbia qualcosa da dire, senza distinzioni di status e a prescindere dal contenuto di quelle affermazioni. Nella creazione di questa era della disinformazione, un ruolo importante è giocato anche da alcune nostre vulnerabilità cognitive, sapientemente sfruttate dagli algoritmi che governano molti dei social media e che mostrano agli utenti contenuti che confermano la propria visione del mondo. Sembra di vivere in una spirale senza fine, destinata al peggio. Eppure qualche soluzione inizia a emergere all’orizzonte, tra tecnologie e fattore umano.
Indice 3
L’era della (dis)informazione di Walter Quattrociocchi
10 Click, bugie e videotape di Brooke Borel
16 Un nuovo disordine mondiale di Claire Wardle
22 Perché ci fidiamo delle bugie di Cailin O’Connor e James Owen Weatherall
27 Più disattenzione che mala fede dietro la diffusione di fake news
30 L’economia dell’attenzione di Filippo Menczer e Thomas Hills
38 Gli algoritmi e la polarizzazione di Walter Quattrociocchi
43 Come combattere la disinformazione su COVID-19 di Kathleen Hall Jamieson
50 Attivismo per la verità di Joan Donovan
di David Rand, Gordon Pennycook
In copertina imaginima/iStock (texture mappa mondiale, NASA)
LE SCIENZE S.p.A. Sede legale Via Cristoforo Colombo, 90 - 00147 Roma Capitale Sociale Euro 103.400,00 i.v. R.E.A. Roma n. 1038183 - Codice fiscale e Iscriz. Registro Imprese di Roma 00882050156 Partita IVA: 00882050156
I quaderni de Le Scienze Testata giornalistica plurisettimanale registrata Tribunale di Roma N. 88 Data Registrazione: 13 giugno 2019 Direttore responsabile: Marco Cattaneo Responsabile del trattamento dati: il responsabile del trattamento dei dati raccolti in banche dati di uso redazionale è il direttore responsabile a cui è possibile rivolgersi scrivendo a privacy@lescienze.it per i diritti previsti dal Regolamento (UE) 2016/679 sulla protezione dei dati personali. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Consiglio di Amministrazione: Corrado Corradi (presidente), Michael Keith Florek (vice presidente), Gabriele Acquistapace, David Blancato, Markus Bossle
2
I quaderni
L’era della (dis)informazione L’espansione dei social media ha un lato oscuro, ovvero la diffusione pervasiva e senza freni di informazioni false e teorie del complotto, che potrebbe mettere a rischio la società
Il complotto dei complotti. Scie di condensazione formatesi dopo il passaggio di aerei sul cielo della Toscana. In una delle teorie complottiste più popolari, quella delle scie chimiche, le scie di condensazione contengono sostanze chimiche o biologiche la cui presenza è volutamente nascosta alla popolazione. (Carlo Nannipieri/iStock)
di Walter Quattrociocchi Vi è mai capitato di essere a cena con amici o familiari, magari anche con un certo livello di istruzione, e che l’argomento di conversazione fosse centrato sull’ultima notizia letta su Internet, per esempio su come il cambiamento climatico sia indotto dalle scie chimiche o sui vantaggi della medicina alternativa? Oppure seguire in televisione argomentazioni di noti comici o cantanti, senza le più basilari nozioni di statistica o economia, diventati all’improvviso fini analisti economico-politici che palesano quanto signoraggio bancario e Nuovo Ordine Mondiale stiano attentando alla società? Che cosa è cambiato nel nostro modo di informarci e quindi di costruirci un’opinione? Quale ruolo hanno i social media nella diffusione e nella popolarità di tesi alternative e complottiste?
La scienza se ne sta occupando. Di recente sono state sviluppate tecniche che hanno permesso di studiare le dinamiche sociali a un livello di risoluzione elevato sfruttando la grande mole di dati dei social media. Inoltre in un rapporto del 2013 sui rischi globali il World Economic Forum, un’organizzazione internazionale indipendente che discute i problemi più pressanti del mondo, mostra che uno dei temi più interessanti e allo stesso tempo tra i più pericolosi per la società, al pari del terrorismo, riguarda la viralità legata a informazioni infondate o false. Il Web ha cambiato il modo in cui le persone si informano, interagiscono tra loro, trovano amici, argomenti e comunità di interesse, filtrano informazioni e formano le proprie opinioni. Questo scenario, unito all’analfabetismo funzionale, ovvero l’incapacità di comprendere
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
3
I quaderni
efficacemente un testo (in Italia riguarda quasi la metà della popolazione tra i 15 e i 65 anni, secondo l’Organisation for Economic Cooperation and Development, OECD) e all’esposizione selettiva dei contenuti, guidata principalmente dal pregiudizio di conferma (il cosiddetto confirmation bias) a determinati contenuti può creare veri e propri fenomeni di massa attorno a informazioni false. Dallo studio anatomico di queste dinamiche sociali emergono sia un quadro allarmante sia una inadeguatezza di fondo delle soluzioni, in particolare quelle algoritmiche e meccaniche, pensate per arginare la formazione, diffusione e rinforzo di narrative fasulle, o misinformation. Nel 2009 David Lazer della Harvard University e colleghi hanno pubblicato su «Science» l’articolo Computational Social Science, che ha sancito la nascita del nuovo campo di ricerca. Tramite un approccio basato sui dati, questa disciplina tende a unire matematica, statistica, fisica, sociologia e informatica, e ha lo scopo di studiare i fenomeni sociali in maniera quantitativa sfruttando le tracce digitali che lasciamo sui vari social media come Facebook, Twitter, YouTube e così via. Gli utenti nel cyberspazio selezionano, condividono, commentano e lasciano traccia delle proprie azioni; questo ha reso possibile lo studio della società a un livello di risoluzione senza precedenti, che va molto oltre la mera e pura speculazione. Lungo questa linea sono stati fatti notevoli progressi riguardo alla comprensione della diffusione e del consumo delle informazioni, del loro effetto sulla formazione delle opinioni e su come le persone si influenzino a vicenda.
La diffusione della bufala del senatore Cirenga. I nodi sono gli utenti, gli archi rappresentano la relazione di condivisione. Al centro c’è l’origine, poi i livelli di diffusione. I colori indicano la polarizzazione dell’utente, ovvero la preferenza per uno specifico contenuto: in giallo utente che segue fonti main stream, in verde discussione politica, in rosso fonti alternative, in blu i troll. (Cortesia dell’autore)
Nonostante la speculazione positivistica basata sull’assunto dell’essere umano razionale, lo studio quantitativo di questi fenomeni ha accesso spie in direzione contraria. In un contesto informativo non filtrato, l’essere umano prende tutto ciò che più gli aggrada ed è conforme al proprio pensiero (confirmation bias, appunto) alimentando la formazione di argomentazioni strampalate che vanno a sostegno delle narrazioni più disparate. Per esempio, nel caso della narrazione fruttariana si sostiene che i nostri antenati non fossero onnivori ma frugivori, nonostante prove empiriche e pitture rupestri indichino l’esatto contrario. Per non parlare di altre leggende metropolitane come i microchip sottocutanei o i finti sbarchi sulla superficie della Luna che sono gli argomenti forti di noti parlamentari. Questo scenario, così fortemente disintermediato e guidato dai gusti di massa, è in grado di generare fenomeni virali su vasta scala che influiscono notevolmente sulla percezione pubblica di questioni anche importanti come salute, politica economica, geopolitica. E può causare fenomeni bizzarri. Per esempio, lo scorso anno negli Stati Uniti una banale esercitazione militare denominata Jade Helm 15 è diventata sul Web la prova di un incombente colpo di Stato ordito dall’Amministrazione del presidente Barack Obama. La notizia è stata creduta al punto che il governatore del Texas Greg Abbott ha deciso nel dubbio di allertare la Guardia Nazionale. Senza uscire dai confini Italiani, abbiamo il caso della citazione erroneamente attribuita all’ex presidente della repubblica Sandro Pertini e più volte smentita dalla stessa
A ciascuno il suo Come accennato, nel 2013 il World Economic Forum ha catalogato la diffusione massiva di informazioni fasulle (massive digital misinformation) come una delle minacce più serie per la società. Questo dipende principalmente dal fatto che nel Web il paradigma di produzione e consumo dei contenuti è fortemente disintermediato. Tutti possono pubblicare la loro versione e opinione su qualunque tematica, senza che poi ci sia un’effettiva verifica sulla fondatezza o quantomeno sulla sostenibilità di quello che è stato pubblicato. I contenuti fruibili sono prodotti dagli stessi fruitori e la veridicità come anche l’utilità delle informazioni sono asservite alle necessita del singolo utente che cerca spesso conferme coerenti a un suo sistema di credenze già strutturato e consolidato. Su Facebook proliferano le pagine su megacomplotti mondiali, scie chimiche, signoraggio bancario, correlazione tra vaccini e autismo, diete fruttariane, fino alle mirabolanti teorie sull’energia infinita che ci viene «astutamente» tenuta nascosta dalle grandi multinazionali a tutela dei loro interessi finanziari. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
4
I quaderni
L’esplosione dei social media Ormai i social media sono parte integrante della nostra quotidianità, con un incessante aumento del numero di utenti. Secondo il rapporto Digital, Social & Mobile in 2015 dell’agenzia We Are Social il numero di utenti attivi su Internet ha superato i 3 miliardi, arrivando al 42 per cento della popolazione mondiale. Riguardo ai social media, oggi gli utenti attivi sono più di 2 miliardi (29 per cento della popolazione mondiale). Nonostante il digital divide, grande piaga del nostro paese, l’Italia risulta molto attiva. Gli utenti
attivi sono il 60 per cento della popolazione. Se guardiamo il tempo trascorso on line si vede che in Italia l’accesso a Internet da desktop si attesta sui valori della media mondiale, mentre quello legato alla navigazione da dispositivi mobili è decisamente inferiore (2,2 ore al giorno, contro una media di 2,7 ore). Gli italiani trascorrono 6,7 ore al giorno su Internet (tra dispositivi mobili e desktop), e 2,5 ore sono dedicate all’uso di canali social contro una media mondiale di 2,4 ore; per avere un termine di paragone, in Francia
informazioni e come si formano e rinforzano le opinioni in un cyberspazio fortemente disintermediato dove i contenuti vengono immessi e fruiti senza alcun controllo. In un primo lavoro, Collective attention in the age of (mis)information, pubblicato su «Computers in Human Behavior» nel 2015, ci siamo concentrati sulla fruizione di informazioni qualitativamente differenti: fonti di informazione ufficiali, fonti di informazione alternativa e quelle dei movimenti politici. Le prime si riferiscono a tutti i quotidiani e agenzie che fanno informazione a copertura nazionale nel panorama italiano (indicate come mainstream). Le seconde riguardano invece le fonti di informazione che si autoproclamano promotrici di tutto quello che l’informazione manipolata nasconde agli utenti. L’ultima categoria riguarda movimenti e gruppi politici che fanno del Web uno strumento di mobilitazione politica. Il lavoro di censimento, soprattutto delle fonti alternative, è stato lungo e certosino. Abbiamo raccolto e verificato manualmente varie indicazioni da utenti e da gruppi Facebook attivi nello smascherare le bufale (Protesi di Complotto, Bufale un tanto al chilo, La menzogna diventa verità e passa alla Storia). Dalle 50 pagine Facebook censite abbiamo analizzato il comportamento on line di più di due milioni di utenti italiani che hanno interagito con le loro informazioni su una finestra temporale di sei mesi, da settembre 2012 a febbraio 2013. I risultati hanno mostrato che informazioni qualitativamente diverse presentano caratteristiche molto simili in termini di durata, numero di utenti che vi interagiscono e persistenza degli utenti. Informazioni
Fondazione Pertini: «Quando il governo non fa ciò che il popolo vuole va cacciato con le mazze e con le pietre». Questa citazione è stata usata come simbolo evocativo per la «protesta dei forconi» ed è finita sui manifesti di una convocazione a una manifestazione nazionale contro il governo «corrotto» nel 2013. Altro esempio interessante è il caso del senatore Cirenga, menzionato in un post ironico che a dicembre 2012 è diventato virale su Facebook. Cirenga avrebbe partorito una fantomatica proposta di legge per stanziare 134 miliardi di euro con cui aiutare i parlamentari a trovare un lavoro in caso di non rielezione. La notizia apparsa su Facebook era stata ideata come scherzo, tanto che nel testo che accompagnava l’immagine si leggeva: «È solo colpa del popolo caprone che l’ha votata ma che ha soprattutto condiviso questa immane boiata falsa che solo dei boccaloni come voi potevano reputare vera». L’unica traccia dell’esistenza del senatore Cirenga è una pagina Facebook classificata come «personaggio inventato». Non sono rari i messaggi di utenti indignati che ancora oggi lasciano sulla pagina del finto senatore commenti relativi alla fantomatica proposta. Vero o falso, non importa Al laboratorio di computational social science dell’Istituto IMT Alti Studi Lucca studiamo le dinamiche del contagio sociale e la fruizione dei contenuti sui vari social network come Facebook, YouTube e Twitter. Il gruppo di ricerca è composto da due fisici (Guido Caldarelli e Antonio Scala), uno statistico (Alessandro Bessi), una matematica (Michela Del Vicario) e due informatici (Fabiana Zollo e l’autore di questo articolo). Nello specifico studiamo la viralità delle Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
la media è di 2 ore, mentre in Spagna di 1,9. ll 60 per cento degli italiani accede regolarmente a Internet e gli account attivi sui canali social sono 28 milioni, di cui 22 milioni accedono da dispositivi mobili: quest’ultimo dato, ovvero l’accesso a canali social da mobile, è quello che ha visto il maggior incremento negli ultimi mesi. Possiamo affermare quindi che in Italia c’è una propensione sempre più grande a interagire in mobilità e in maniera attiva con i contenuti a cui è possibile accedere on line.
5
I quaderni
dai quotidiani nazionali, dalle fonti alternative e dedicate alla discussione politica riverberano allo stesso modo e non mostrano sostanziali differenze di fruizione sui social media. Per esempio, su tutte le categorie l’attenzione media che un post riceve è di 24 ore.
ATTIVITÀ DI COMMENTO
Complottisti manipolati Tra le varie forme di espressione che troviamo su Facebook sono particolarmente interessanti i troll, all’inizio intesi come utenti a caccia della rissa sul Web, che tra commenti irriverenti e oppositivi cercano di creare scompiglio. Ultimamente questa figura, stimolata dall’enorme eterogeneità di gruppi e interessi che invadono il Web, si è evoluta in qualcosa di più articolato. Dove c’è una dinamica sociale che calca troppo la mano e diventa estremista su un qualsiasi aspetto, compare la controparte troll che ne fa la parodia. Pagine che scimmiottano il comportamento dei sostenitori di movimenti politici nostrani (esilarante è Siamo la Gente, il Potere ci temono); pagine che pubblicano sempre la stessa foto di cantanti famosi in barba alla retorica della viralità dei contenuti, altre che postano foto di Ebola con i gattini, o altre ancora che fanno parodia dell’estremismo vegano. Tra i vari oggetti di scherno non mancano le teorie del complotto con post che parlano di abolire le leggi della termodinamica in Parlamento o che ritengono che da una recente analisi sulla composizione chimica delle scie chimiche emerga la presenza del sildenafil citrato, ovvero il principio attivo del Viagra. Questi contenuti parodistici e caricaturali si sono rivelati fondamentali per i nostri studi, perché ci hanno permesso di misurare le abilita di fact checking degli internauti nostrani. Essendo concepiti a scopo parodistico, sono intenzionalmente falsi e veicolano contenuti paradossali; ci hanno permesso quindi di misurare fino a che punto il confirmation bias sia determinante nella scelta dei contenuti. Più precisamente, per verificare potenziali attitudini derivanti dall’esposizione continua a tipi specifici di contenuto, sempre nello studio su «Computers in Human Behavior» abbiamo diviso gli utenti, categorizzandoli in base al tipo di informazione preferita tenendo conto della percentuale di like su un unico tipo di informazione, e ne abbiamo misurato le interazioni con uno specifico set, circa 5000, di informazioni troll. Poco sorprendentemente abbiamo trovato che i follower di informazione alternativa, coloro cioè che sono particolarmente attenti all’informazione alternativa, sono i più proni a mettere like e condividere informazioni troll, esattamente con la stessa modalità con cui consumano le altre. Questo risultato è particolarmente interessante perché porta in evidenza quello che poi abbiamo chiamato
140.057
9,71%
Commenti totali
90,29% Da utenti esposti a notizie scientifiche
0,92%
648.183 Commenti totali
99,08% Da utenti esposti a notizie alternative
Su notizie scientifiche
Diversità. Gli utenti che parlano di notizie alternative sono più attivi (sopra) rispetto a quelli che discutono di scienza (in alto). Danilo Sossi (su indicazione dell’autore)
«il paradosso del complottista»: quelli più attenti alla «manipolazione» perpetrata dai mezzi di comunicazione «manipolati» sono i più proni a interagire con fonti di informazioni intenzionalmente false, e quindi potenzialmente anche i più proni a essere manipolati. Casse di risonanza Il fatto che informazioni diverse siano consumate allo stesso modo pone sostanzialmente due ipotesi: che le informazioni siano trattate indistintamente da tutti gli utenti a prescindere dal tipo di contenuto; che esistano gruppi di interesse focalizzati su specifici contenuti e che il loro comportamento sia universale rispetto alla tipo di contenuto e narrativa scelti. Quest’ultima è la più affascinante, perché ripropone il concetto di esposizione selettiva (confirmation bias) e l’idea che il Web, avendo facilitato l’interconnessione tra persone e l’accesso ai contenuti, abbia di fatto messo il turbo alla
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Su notizie alternative
6
I quaderni
Vaccinazione all’ambulatorio dell’Azienda sanitaria locale RM E, a Roma. (Mimmo Frassineti/AGF)
complottiste, sono da attribuirsi a un modo «quasi religioso» di pensare i processi. Un po’ come quando all’alba dell’umanità si attribuiva una natura divina alle tempeste, ora succede lo stesso davanti ai processi intricati della globalizzazione e del processo tecnologico. Interagendo con i vari gruppi on line attivi nel debunking di informazioni false, ovvero la smentita di queste informazioni false basata su conoscenze acquisite con il metodo scientifico, abbiamo definito l’insieme delle pagine Facebook da esplorare. Nel dettaglio, l’analisi fa riferimento a 73 pagine, di cui 39 complottiste e 34 scientifiche, per un totale di più di un milione di utenti italiani di Facebook in una finestra temporale di cinque anni, tra il 2010 e il 2014 per la precisione. I risultati dello studio, Science vs conspiracy: collective narratives in the age of misinformation pubblicato su «PLoS ONE», hanno mostrato che nel Facebook nostrano il numero di utenti che segue fonti di informazione complottista è tre volte quello delle informazioni scientifiche e che entrambe sono assai focalizzate. Emerge chiaramente che gli utenti si aggregano intorno a narrative specifiche e raramente escono da quella echo chamber. Informazioni verificate e non verificate vengono fruite allo stesso modo e in maniera mutualmente esclusiva. Questa caratteristica dell’interazione sociale su Facebook sembra avere un ruolo importante nella diffusione dei rumor falsi. Esaminando 4709 informazioni mirate a imitare satiricamente le teorie complottiste con tratti palesemente assurdi (Viagra nelle scie chimiche, per esempio) ne emerge che gli utenti più proni a interagire con questi contenuti (80 per cento) siano coloro che consumano principalmente informazioni filo-complottiste che non sono verificate.
formazione delle echo chamber, comunità che condividono interessi comuni, selezionano informazioni, discutono e rinforzano le proprie credenze attorno a una narrazione del mondo condivisa. Quindi un secondo passaggio è stato confrontare il comportamento degli utenti esposti a fonti di informazione scientifica con quelli che seguono solitamente fonti di informazione alternativa e filo complottista. La scelta è peculiare: le fonti differiscono per avere o meno un mittente, un responsabile del messaggio. L’informazione scientifica fa riferimento a studi generalmente pubblicati da riviste scientifiche, di cui si conoscono autori, istituzioni e così via. Nell’informazione complottista, invece, il frammento di informazione è formulato in modo da contenere l’incertezza che poi genera. Si tratta sempre di notizie riferite a qualche piano segreto e volutamente celato al grande pubblico. Altra differenza sostanziale, a prescindere dalla veridicità dell’informazione riportata dalle due tipologie di fonti, è che sono narrative agli antipodi tra di loro. La prima si basa su un paradigma razionale che (quasi sempre) cerca evidenze empiriche. La seconda – riprendendo la definizione di Cass Sunstein della Harvard University e autore di importanti libri sulle dinamiche sociali del complottismo, che a sua volta riprende il filosofo Karl Popper – si riferisce a un insieme di credenze che sono il risultato di un processo di causazione che porta ad attribuire gli eventi a un motore intenzionale. Il pensiero complottista ricalca l’incapacità di attribuire a conseguenze avverse un determinante casuale (forze di mercato, pressione evolutiva, complessità); sono caratteristiche che secondo Martin Bauer, psicologo sociale alla London School of Economics e studioso delle dinamiche Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
7
I quaderni
Altra caratteristica interessante è che gli utenti focalizzati principalmente su informazioni complottiste tendono a diffondere di più, tramite la condivisione con i propri amici le informazioni complottiste. A questo punto ci siamo chiesti se questa forte polarizzazione degli utenti che seguono fonti complottiste oppure scientifiche si riflettesse anche sulle amicizie virtuali. Quindi, esaminando più da vicino questa echo chamber abbiamo ricostruito la rete sociale dei due gruppi e abbiamo scoperto una regolarità statistica sorprendente: al crescere del numero di like su uno specifico tipo di narrativa aumenta linearmente la probabilità di avere una rete sociale virtuale composta solo da utenti con lo stesso profilo. Ovvero, più si è esposti a uno specifico tipo di narrazione, più aumenta la probabilità che tutti gli amici di Facebook abbiano la stessa attitudine al consumo di informazioni. Le implicazioni di queste caratteristiche della rete sociale che si vede divisa in gruppi omogenei in base al tipo di contenuto fruito è fondamentale soprattutto per la comprensione della viralità dei fenomeni. Questi gruppi omogenei tenderanno a escludere tutto quello che non è coerente con la propria narrazione del mondo. Quindi è una struttura che facilita il rinforzo e facilita la selezione dei contenuti per confirmation bias.
Scienza
Polarizzazione. Prendendo gli utenti che seguono generalmente fonti scientifiche oppure complottiste gli autori hanno ricostruito la loro rete di amicizie, ottenendo un’immagine chiara delle echo chamber: in rosso gli utenti generalmente esposti a fonti di informazione scientifica e in blu gli utenti esposti a fonti di informazione complottista. (Cortesia dell’autore)
Tribù separate A partire da questa ultima osservazione la ricerca è proseguita esaminando gli effetti delle campagne di informazione che mirano a correggere la diffusione delle informazioni false nei social media. In uno studio pubblicato negli atti della conferenza «Social Informatics» e intitolato Social determinants in the age of misinformation abbiamo confrontato tra gli utenti generalmente esposti a fonti di informazione complottista, quelli che sono stati esposti a post di debunking e quelli che invece non lo sono stati. Nello specifico abbiamo misurato la persistenza, cioè la probabilità di continuare a mettere like su uno specifico tipo di contenuto nel tempo, per gli utenti esposti e per quelli non esposti a campagne di informazione mirate a smentire informazioni false. I risultati hanno mostrato che per gli utenti esposti a debunking la probabilità di continuare a interagire con informazioni complottiste è circa il 30 per cento più elevata rispetto ai non esposti. In parole povere, cercare di convincere un sostenitore delle scie chimiche che queste non esistono produce un effetto di rinforzo della sua credenza che si manifesta in una maggiore interazione con le fonti di informazione erronee. Abbiamo verificato le stesse dinamiche nel contesto del Facebook statunitense su 55 milioni di utenti e abbiamo trovato sostanzialmente le stesse dinamiche. Gli utenti sono polarizzati, si informano e formano la propria
opinione secondo un processo cognitivo che evita il conflitto a favore delle informazioni a sostegno della propria credenza. Il principale motore per la diffusione dei contenuti sembra proprio l’omofilia. Gli utenti condividono principalmente i contenuti da altri utenti con un profilo simile. Quest’ultimo risultato, pubblicato a gennaio 2016 sui «Proceedings of the National Academy of Sciences» con il titolo The spreading of misinformation on line, è molto interessante perché ci ha permesso di sviluppare modelli predittivi, basati sulla meccanica dei fluidi percolativi, che ci permettono con buona approssimazione di calcolare la dimensione dei fenomeni virali. Con un altro lavoro, Emotional dynamics in the age of misinformation pubblicato a settembre 2015 su «PLoS ONE», sempre esaminando l’insieme dei dati degli studi precedenti con le fonti di informazione complottista e scientifica, attraverso tecniche di sentiment analysis, ovvero algoritmi che con un dovuto allenamento sono in grado di fornire con buona approssimazione il sentimento espresso dagli utenti nei commenti ai post, troviamo che più lunga è la discussione più si va verso un sentimento negativo. Questo vale sia per chi fruisce fonti di informazione complottista sia informazione scientifica, anche se i
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Complotti
8
I quaderni
complottisti sembrano tendenzialmente più negativi. In ogni caso, una discussione prolungata su un post sembra produrre una degenerazione negativa. In pratica è come se gli utenti coinvolti si influenzassero negativamente, tendendo a esprimere sentimenti negativi al crescere della discussione.
il corpus. Infatti, quanto maggiore è l’attività dell’utente, tanto maggiore sarà la sua tendenza ad abbracciare tutto il corpus complottista a prescindere dal topic specifico. In breve, una volta dentro l’echo chamber si tenderà ad assorbirne tutti i contenuti proposti. Fine dell’era dell’informazione? Le dinamiche sociali che emergono dai nostri studi evidenziano in modo chiaro le problematicità relative alla formazione e all’emergenza di narrazioni su fatti e fenomeni potenzialmente erronei nei social media. La selezione dei contenuti avviene per pregiudizio di conferma, ovvero per confirmation bias, e questo porta alla formazione di gruppi solidali su specifici temi e narrazioni che tendono a rinforzarsi e allo stesso tempo ignorare tutto il resto. Nella maggior parte dei casi la discussione degenera in un litigio tra estremisti dell’una o dell’altra visione, e si fomenta quindi la polarizzazione. Questo contesto rende di fatto molto difficile informare correttamente e, come conseguenza, fermare una notizia infondata diventa di fatto impossibile. La bufala del senatore Cirenga è stata pubblicata in un moto di indignazione su Twitter qualche mese fa da un noto attore. Il problema della disinformazione sui social media è molto sentito, al punto che Facebook ha introdotto la possibilità per gli utenti di segnalare informazioni false, mentre Google sta studiando un metodo per considerare l’affidabilità delle pagine nella classifica dei risultati da mostrare all’utente. In ogni caso, a valle dei nostri studi emergono forti dubbi sulla efficacia di soluzioni algoritmiche e ingegneristiche che i grandi colossi del Web stanno applicando. Probabilmente per molto tempo ancora le nostre cene saranno allietate da infuocate discussioni sull’ultimo megacomplotto mondiale ordito dai rettiliani o da interessanti disquisizioni sui potenti effetti della nuova dieta a base di acqua, ghiaia e capesante che spopola sul Web. L’importante è diffondere quello che ci viene tenuto nascosto, poi che sia vero o falso poco importa. Che sia il caso di cambiare la dicitura di era dell’informazione in era della credulità?
Dentro la cassa Finora ci siamo focalizzati sul comportamento della echo chamber guardandola dall’esterno, e abbiamo trovato che i contenuti sono selezionati per confirmation bias e che altre informazioni sono ignorate o trattate in maniera antagonista. Le comunità che si aggregano attorno ad argomenti specifici di cui condividono la narrazione (come i complottisti) tendono a confrontarsi al loro interno per stabilire i principi di causazione e trovando spiegazioni a fenomeni ritenuti interessanti. In generale, diversi studi sulle dinamiche del pensiero complottista suggeriscono che questa narrazione è variegata e spesso ha l’obiettivo di identificare la paura di quello che non si conosce o più in generale di convogliare sentimenti di ansia e paranoia su oggetti e storie specifiche. Una società aperta e globalizzata tende discutere e cerca spiegazioni ai fenomeni che la riguardano come per esempio la multiculturalità, la maggiore complessità del circuito finanziario su scala globale, il progresso tecnologico. Purtroppo, però, la complessità dei fenomeni a volte fa preferire all’utente, a prescindere dal livello di istruzione, una spiegazione più compatta, che identifichi chiaramente un oggetto da colpevolizzare, per esempio il riscaldamento globale indotto dalle scie chimiche o i disagi della globalizzazione indotti dai piani segreti dei rettiliani. Mettendo il focus all’interno della echo chamber complottista nostrana troviamo che gli utenti tendono ad abbracciare le tesi più variegate al crescere della loro attività on line. Attraverso algoritmi di automatic topic extraction, ovvero tecniche informatiche che servono a raggruppare i contenuti on line in base ai temi trattati analizzandone il testo, applicati al corpus del Facebook italiano sul versante complottista, troviamo che i topic appartengono fondamentalmente a quattro classi specifiche: dieta, ambiente, salute e geopolitica. Questo risultato è abbastanza in linea con altri paesi; nello specifico abbiamo visto che gli stessi argomenti sono presenti anche negli Stati Uniti, anche se in quel caso c’è anche una forte attenzione a UFO e alieni. In Trend of Narrative in the Age of Misinformation, pubblicato su «PLoS ONE», abbiamo mostrato che la fruizione, nonché la viralità, dei post legati a questi temi è fortemente correlata al punto che al crescere dell’attività dell’utente si tenderà ad abbracciare indistintamente tutto
L’autore Walter Quattrociocchi coordina il Laboratorio di computational social science all’Istituto IMT Alti Studi di Lucca. I suoi studi si concentrano sulla caratterizzazione quantitativa delle dinamiche sociali, spaziando dalla dinamica delle opinioni alla diffusione delle informazioni, con enfasi su nascita, fruizione e diffusione delle narrative on line e contagio sociale.
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Le Scienze, n. 570, febbraio 2016 9
I quaderni
Click, bugie e videotape L’intelligenza artificiale sta mettendo alla portata di tutti la possibilità di manipolare audio e video. Il rischio più grande è che la gente non creda più a nulla
Illustrazione di Taylor Callery
di Brooke Borel
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
Lo scorso aprile, su Internet è apparso un nuovo video di Barack Obama. Il filmato mostrava sullo sfondo la bandiera degli Stati Uniti e quella presidenziale e sembrava simile a tanti dei suoi discorsi precedenti. In giacca scura e camicia immacolata, Obama guardava dritto nella telecamera le Scienze
sottolineando le sue parole con le mani tese in avanti: «Il presidente Trump è uno stronzo fatto e finito». E proseguiva, senza l’ombra di un sorriso. «Ora, vedete, io non direi mai una cosa del genere. Almeno non in un discorso pubblico. Ma qualcun altro sì». L’immagine sullo
10
I quaderni
schermo si divideva in due parti e rivelava l’attore Jordan Peele. Obama non aveva detto niente: il prodotto univa il video vero di un discorso di Obama all’audio interpretato da Peele. Il messaggio andava avanti con le due immagini fianco a fianco mentre Peele, come un ventriloquo digitale, continuava a mettere parole in bocca all’ex presidente. In quest’era di fake news, il video era un messaggio di pubblica utilità prodotto da BuzzFeed News che metteva in luce la possibile applicazione di una nuova tecnologia di intelligenza artificiale (IA) che potrebbe significare per l’audio e il video ciò che Photoshop ha rappresentato per le immagini digitali: la possibilità di manipolare la realtà. I risultati sono ancora abbastanza rudimentali. Se si guarda e si ascolta bene, la voce di Obama è un po’ nasale e per qualche istante la sua bocca, fusa con quella di Peele, finisce fuori posto. Ma questa tecnologia in rapida evoluzione, pensata per i montatori cinematografici di Hollywood e i progettisti di videogiochi, getta lunghe ombre nella mente di alcuni esperti di sicurezza e studiosi di comunicazione. Forse la prossima generazione di questi strumenti renderà possibile la creazione di falsi convincenti a partire da zero, senza bisogno di modificare video esistenti, come nel discorso di Obama, ma creando scene che non sono mai avvenute. Le conseguenze sulle informazioni disponibili all’opinione pubblica e sul dibattito pubblico potrebbero essere profonde. Immaginiamo per esempio l’impatto che potrebbe avere un video falso che rovinasse la reputazione di un politico durante una competizione elettorale a due in cui tra i contendenti c’è uno scarso distacco. Oppure che cosa succederebbe se un altro falso video attaccasse l’amministratore delegato di una società la sera prima di un’offerta pubblica di acquisto. Un gruppo potrebbe mettere in scena un falso attacco terroristico e far sì che sia ripreso dai mezzi di comunicazione, innescando una risposta militare immediata e impulsiva. E anche se poi si rivelasse che un certo video virale era falso, la gente smetterebbe di credere che era vero? Ma c’è una prospettiva anche peggiore: che cosa succederebbe se l’idea stessa della pervasività di notizie e video falsi ci facesse smettere di credere a gran parte di ciò che vediamo e sentiamo, comprese le notizie vere? Molti esperti riconoscono il rischio di un abuso indiscriminato di queste tecnologie. Ma mentre si fissano su «soluzioni accattivanti per smentirle e diffondere la verità, dedicano pochissimo tempo a capire se tutto ciò ha qualche effetto sulle convinzioni della gente riguardo alla validità dei video fake», afferma Nate Persily, professore di diritto alla Stanford University. Tra le altre cose, Persily studia il modo in cui Internet influenza la democrazia e fa parte di un numero sempre maggiore di esperti che sostengono che la diffusione virale della disinformazione non si può fermare soltanto con soluzioni tecniche. Servirà Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
il contributo di psicologi, esperti di scienze sociali e di comunicazione per aiutare a capire come la tecnologia sarà accolta nel mondo reale. «Dobbiamo farlo subito – sostiene Persily – perché adesso, per forza di cose, sono i tecnologi a guidare la discussione» su che cosa è possibile fare con i video generati con la IA. La nostra fiducia in istituzioni democratiche come il governo e il giornalismo sta già scemando. Oggi che i social media sono un canale di distribuzione dominante per le informazioni, per i creatori di fake news è ancora più facile sfruttarci. E in assenza di una strategia unitaria per affrontare una tecnologia sempre più sofisticata, la nostra fragile fiducia collettiva è ancora più a rischio. Inizi innocui Gli inizi del percorso che porta ai video falsi risalgono agli anni sessanta, quando furono create le prime CGI, le immagini generate al computer. Negli anni ottanta questo genere di effetti speciali si è affermato definitivamente e da allora la tecnologia si è evoluta dai film di fantascienza e Forrest Gump che stringeva la mano a John Kennedy nel 1994 fino alla resurrezione di Peter Cushing e Carrie Fisher in Rogue One. L’obiettivo è sempre stato «creare un mondo digitale in cui fosse possibile raccontare qualsiasi storia», afferma Hao Li, professore assistente alla cattedra di informatica alla University of Southern California e amministratore delegato di Pinscreen, una start-up che si occupa di realtà aumentata. «Come facciamo a creare qualcosa che sembri reale, ma dove in realtà tutto è virtuale?». All’inizio buona parte della grafica era prodotta da artisti che usavano i computer per generare un modello tridimensionale e poi lo decoravano a mano con texture e altri dettagli, un processo lento, che era impossibile riprodurre su larga scala. Una ventina di anni fa, alcuni studiosi di computer vision iniziarono a pensare alla grafica in modo diverso: anziché sprecare tempo sui singoli modelli, perché non insegnare ai computer a crearli a partire dai dati? Nel 1997 gli scienziati della Interval Research Corporation di Palo Alto, in California, svilupparono Video Rewrite, un software che tagliava filmati esistenti e li rimontava. E fecero un video di JFK che diceva «Non ho mai incontrato Forrest Gump». Poco tempo dopo i ricercatori del Max-Planck-Institut für biologische Kybernetik di Tubinga, in Germania, insegnarono a un computer a estrarre elementi da un insieme di 200 scansioni 3D di volti per crearne uno nuovo. Più di recente, il passo avanti più significativo nella relazione tra computer vision, dati e automazione è probabilmente avvenuto nel 2012, con i progressi di un tipo di IA chiamato deep learning, o apprendimento profondo. A differenza dei lavori degli anni novanta, che usavano dati statici e non miglioravano mai, il deep learning si adatta e
11
I quaderni
si perfeziona nel tempo. Questa tecnica riduce gli oggetti, per esempio un volto, a pacchetti di dati, spiega Xiaochang Li, del Max-Planck-Institut für Wissenschaftsgeschichte di Berlino: «Ora gli ingegneri dicono: non vogliamo più creare modelli delle cose. Costruiremo modelli di ciò che non sappiamo di una cosa e faremo girare i dati per coglierne i pattern». Il deep learning usa strati di semplici formule matematiche chiamati reti neurali, che migliorano via via le proprie capacità di svolgere un compito. Per esempio è possibile insegnare a un programma di deep learning a riconoscere i volti umani mostrandogli centinaia o migliaia di fotografie e dicendo in pratica ogni volta «questo è un volto» o «questo non è un volto». Alla fine, incontrando una persona nuova, il programma sarà in grado di riconoscere gli elementi che compongono i lineamenti umani e di affermare, su base statistica, che «anche questo è un volto». Poi è arrivata la capacità di creare volti che sembrassero veri usando strumenti di deep learning chiamati reti generative. La logica è la stessa: gli esperti addestrano le reti con centinaia o migliaia di immagini, ma stavolta la rete segue gli elementi ricavati dagli esempi per creare un volto nuovo. Oggi alcune aziende stanno applicando lo stesso principio ai suoni. Quest’anno Google ha presentato Duplex, un assistente virtuale alimentato da IA basato su un software chiamato WaveNet, che può fare una telefonata passando per una persona vera, con tanto di tic verbali come «ehm» e «ah». In futuro, il video fake di un politico potrebbe non aver più bisogno di appoggiarsi all’imitazione di attori come Peele. Nell’aprile 2017 Lyrebird, una start-up canadese, ha pubblicato campioni di audio con voci tanto simili a quelle di Obama, Trump e Hillary Clinton da essere inquietanti. Ma per addestrare le reti generative servono enormi quantità di dati, il che può richiedere una notevole quantità di lavoro umano. Il passo successivo per migliorare i contenuti virtuali è stato insegnare alle IA ad addestrarsi da sole. Nel 2014 alcuni ricercatori dell’Università di Montreal hanno fatto esattamente questo con una rete antagonista generativa o GAN (dall’inglese generative adversarial network), che mette due reti neurali a conversare tra loro. La prima rete è un generatore, che crea immagini false; la seconda è un discriminatore, che impara a distinguere tra vero e falso. Praticamente senza supervisione umana, le reti si addestrano a vicenda mettendosi in competizione: il discriminatore spinge il generatore a creare falsi sempre più realistici, e il generatore continua a cercare di ingannarlo. Le GAN possono creare ogni genere di cose. All’Università della California a Berkeley, alcuni ricercatori ne hanno costruita una che può trasformare immagini di cavalli in quelle di zebre, o dipinti impressionisti come quelli di Monet in scene ben definite e con un realismo di tipo fotografico. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Poi, lo scorso maggio, ricercatori del Max-Planck-Institut für Informatik di Saarbrücken, in Germania, e alcuni loro colleghi, hanno presentato un «deep video» che usa un tipo di GAN e permette a un attore di controllare la bocca, gli occhi e i movimenti del volto di un’altra persona in un video preregistrato. Per il momento il deep video funziona solo in modalità ritratto, cioè quando una persona guarda direttamente la telecamera. Se l’attore si muove troppo, il video che ne risulta contiene manipolazioni digitali evidenti, per esempio pixel sfumati attorno al volto. Le reti GAN non sono ancora capaci di produrre scene video complesse indistinguibili da quelle catturate in un filmato vero, e a volte producono risultati bizzarri, come una persona con un bulbo oculare che le spunta dalla fronte. Ma a febbraio i ricercatori della NVIDIA hanno trovato un modo per far sì che le GAN creino volti con una risoluzione incredibilmente alta, iniziando l’addestramento con fotografie relativamente piccole e poi aumentando la risoluzione un po’ alla volta. E il gruppo di Hao Li alla University of Southern California ha usato le GAN per ottenere immagini realistiche di pelle, denti e bocche, tutte cose notoriamente difficili da ricostruire digitalmente. Nessuna di queste tecnologie è facile da usare per i non esperti, ma l’esperimento di BuzzFeed mostra quello che potrebbe essere il nostro futuro. Il video è stato generato con un programma gratuito chiamato FakeApp, che usa il deep learning ma non le reti GAN. I video così prodotti sono chiamati deepfake, una sincrasi di «deep learning» e «fake», e devono il nome a un utente del sito web Reddit, uno dei primi ad adottare il sistema e a usare questa tecnologia per inserire i volti di personaggi famosi in filmati porno. Da allora i dilettanti di tutto il Web hanno usato FakeApp per creare innumerevoli video, per la maggior parte abbastanza innocui, per esempio aggiungendo l’attore Nicolas Cage in una serie di film nei quali non ha recitato o incollando il volto di Trump sul corpo della cancelliera tedesca Angela Merkel. Più sinistre sono le implicazioni: adesso che la tecnologia è stata democratizzata, potrebbe usarla praticamente chiunque abbia un computer. Condizioni per fake news Gli esperti temono già da tempo che il tipo di montaggi consentito dai computer possa rovinare la realtà. Già nel 2000 un articolo pubblicato su «MIT Technology Review» e dedicato a prodotti come Video Rewrite avvertiva che «non basta più vedere per credere» e che un’immagine apparsa «al telegiornale della sera potrebbe anche essere un falso, una creazione delle nuove velocissime tecnologie di manipolazione dei video». Diciotto anni più tardi, non sembra che i video fake abbiano inondato i telegiornali. Produrne uno di qualità davvero buona è ancora difficile,
12
I quaderni
La tecnologia sviluppata inizialmente per creare scene virtuali nei film (in alto) è cresciuta fino a diventare uno strumento che si può usare per fare video falsi (sotto) allo scopo di diffondere disinformazione. (In alto, fotogramma tratto da Forrest Gump, Paramount Pictures, 1994; sotto, fotogramma tratto da You Won’t Believe What Obama Says In This Video!, Monkeypaw Productions e Buzzfeed, 17 aprile 2018)
e soprattutto non è alla portata di tutti. BuzzFeed ci ha messo 56 ore a creare il video di Obama, con l’aiuto di un montatore cinematografico professionista. Il modo in cui consumiamo le informazioni, però, è cambiato. Oggi solo circa metà degli statunitensi adulti segue le notizie in televisione, mentre due terzi ricevono almeno una parte di informazione dai social media, secondo il Pew Research Center. Internet ha permesso il proliferare di fonti di notizie che si rivolgono a un pubblico di nicchia, tra cui siti web estremamente faziosi che alimentano intenzionalmente la rabbia senza lasciarsi limitare dagli standard tradizionali del giornalismo. Il Web premia contenuti virali che possiamo condividere più rapidamente che mai, afferma Persily. E sui piccoli schermi dei cellulari i difetti dei video fake sono meno visibili che sulla TV del soggiorno. La questione centrale è che cosa succederebbe se diventasse virale un video deepfake con implicazioni sociali o politiche di rilievo. Dato che si tratta di una frontiera così nuova e ancora poco studiata, la risposta semplice è che non lo sappiamo, afferma Julie Carpenter, ricercatrice che studia l’interazione uomo-robot presso l’Ethics + Emerging Sciences Group, con sede alla California State Polytechnic University a San Luis Obispo. Ma potremmo scoprirlo Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
prestissimo, dato che sono molte le elezioni importanti in arrivo a livello internazionale. Abbiamo già assistito alle conseguenze negative dell’incontro tra connettività e disinformazione. Le fake news, testi inventati scritti per assomigliare a veri contenuti giornalistici e diventare virali, sono state ampiamente discusse in occasione delle elezioni presidenziali del 2016 negli Stati Uniti. Secondo una ricerca condotta in collaborazione tra la Princeton University, il Dartmouth College e l’Università di Exeter, nel Regno Unito, circa uno statunitense su quattro ha visitato un sito di fake news nelle cinque settimane tra il 7 ottobre e il 14 novembre 2016, soprattutto partendo dal proprio profilo Facebook. Per di più, il 2016 ha rappresentato un punto particolarmente basso nella fiducia del pubblico nel giornalismo: secondo una stima, appena il 51 per cento dei democratici e il 14 per cento dei repubblicani sosteneva di avere fiducia nei mezzi di comunicazione. La ricerca sulle fake news scritte è ancora limitata, ma alcuni studi indicano che vedere un’informazione falsa una sola volta è sufficiente per farla apparire plausibile in seguito, come spiega Gordon Pennycook, professore associato alla cattedra di comportamento organizzativo 13
I quaderni
dell’Università di Regina, nel Saskatchewan, in Canada. Il motivo non è chiaro, ma potrebbe dipendere dalla «fluidità», afferma Pennycook, o dalla «facilità con cui elaboriamo l’informazione». Se sentiamo Obama che si riferisce a Trump usando una parolaccia e in seguito vediamo un altro falso in cui Obama chiama Trump con epiteti osceni, siamo pronti a credere che sia reale perché ci è familiare. Secondo uno studio del Massachusetts Institute of Technology, che ha seguito 126.000 storie su Twitter tra il 2006 e il 2017, siamo anche più portati a condividere le notizie false che quelle vere, e in particolar modo le notizie false che riguardano la politica, che si diffondono di più e più rapidamente rispetto a quelle sul denaro, sui disastri naturali o sul terrorismo. Lo studio suggeriva che la gente desideri qualcosa di nuovo. In generale, le fake news fanno leva sulle nostre emozioni e sulla nostra identità personale, spingendoci a reagire prima di aver avuto la possibilità di elaborare l’informazione e di decidere se valga abbastanza da diffonderla. Più un contenuto ci sorprende, ci spaventa o ci fa arrabbiare, più siamo portati a condividerlo. Indizi inquietanti suggeriscono che il video sia particolarmente adatto ad alimentare la paura. «Quando si elabora un’informazione visiva, la si ritiene più vicina a sé in termini di spazio, tempo o gruppo sociale», spiega Elinor Amit, professore associato alla cattedra di scienze cognitive, linguistiche e psicologiche alla Brown University, il cui lavoro punta a scoprire le differenze nei modi in cui ci relazioniamo al testo e alle immagini. Amit ipotizza che si tratti di una distinzione di origine evolutiva: lo sviluppo del sistema visivo è venuto prima del linguaggio scritto, e per scoprire i pericoli immediati ci affidiamo di più ai sensi. In effetti i falsi video hanno già colpito qualche campagna politica. A luglio Allie Beth Stuckey, conduttrice televisiva di «Conservative Review», ha pubblicato su Facebook un’intervista con Alexandria Ocasio-Cortez, candidata democratica per la città di New York al Congresso degli Stati Uniti. Non si trattava di un video deepfake, ma di un rimontaggio all’antica, che mescolava un’intervista vera a domande nuove, in modo da far sembrare abborracciate le risposte di Ocasio-Cortez. A seconda delle convinzioni politiche dello spettatore, il video poteva essere interpretato come un caso di diffamazione oppure, come Stuckey avrebbe affermato in seguito per difendersi, come satira. In ogni caso, nel giro di una settimana contava 3,4 milioni di visualizzazioni e più di 5000 commenti. Alcuni spettatori sembravano convinti che Ocasio-Cortez avesse fatto un pasticcio durante un’intervista vera. «Oddio! Non sa che rispondere, né come», scriveva uno. «Che stupida». Anche il fatto che tutto questo sia preoccupante fa parte del problema. Il nostro cupo rimuginare può fare più Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
male alla società dei video in sé. Per esempio i politici, se fossero filmati mentre fanno davvero qualcosa di male, potrebbero seminare il dubbio affermando che si tratta di video contraffatti. Sapere che è possibile produrre falsi convincenti potrebbe erodere la nostra fiducia in tutti i mezzi di comunicazione, sostiene Raymond J. Pingree, professore associato di comunicazione di massa alla Louisiana State University. Pingree studia quanto la gente ha fiducia nella propria capacità di distinguere ciò che è vero da ciò che non lo è e quanto ciò influisca sulla disponibilità a partecipare al processo politico. Quando un individuo perde quella fiducia, si lascia ingannare più facilmente da bugiardi e imbroglioni, sostiene, e «questo può far sì che la gente smetta di voler cercare la verità». Una partita a rimpiattino Per un esperto di informatica, spesso la soluzione a un problema è semplicemente una maggiore quantità di informatica. Anche se i problemi in questione sono molto più complessi dei bachi nel codice, nel settore si ritiene che si possano creare algoritmi in grado di rilevare i falsi. «Sicuramente contro questo problema si possono fare progressi dal punto di vista tecnico», sostiene R. David Edelman, della Internet Policy Research Initiative del MIT. Edelman, che è stato consigliere tecnico di Obama alla Casa Bianca, è rimasto impressionato dai video falsi dell’ex presidente. «Io lo conosco, ho scritto discorsi per lui. E non saprei distinguere tra il video vero e quello falso», afferma. Ma mentre lui può essere ingannato, continua Edelman, un algoritmo potrebbe accorgersi di «tic rivelatori e firme digitali» invisibili all’occhio umano. Finora le soluzioni si dividono in due categorie. Una punta a dimostrare che un video è vero integrandovi una firma digitale, simile ai complessi sigilli, ologrammi e altri elementi usati per impedire il lavoro dei falsari di banconote. Ogni telecamera digitale avrebbe una firma unica, teoricamente difficile da copiare. La seconda strategia prevede di segnalare automaticamente i video fake per mezzo di strumenti di rilevamento. Il programma che più spinge per la creazione di strumenti del genere è sviluppato dalla Defense Advanced Research Projects Agency (DARPA), si chiama Media Forensics, o MediFor, ed è partito nel 2015, non molto tempo dopo che un canale televisivo russo aveva trasmesso immagini satellitari false di un aereo da caccia ucraino che abbatteva il volo Malaysia Airlines 17. In seguito, un gruppo di investigatori internazionali avrebbe determinato che in realtà l’aereo era stato abbattuto da un missile russo. Quelle immagini satellitari non erano state generate con il deep learning, ma la DARPA ha visto la rivoluzione in arrivo e ha deciso di cercare un modo per combatterla, come spiega David Doermann, ex direttore di progetto di MediFor. MediFor segue tre approcci generali, che si possono
14
I quaderni
automatizzare con il deep learning. Il primo esamina l’impronta digitale informatica di un video alla ricerca di anomalie, il secondo si accerta che il video segua le leggi della fisica, per esempio che la luce del Sole cada esattamente come avverrebbe nel mondo reale, e il terzo controlla dati esterni, come le condizioni meteo nel giorno in cui si dice che il video sia stato filmato. La DARPA intende unire questi sistemi di rilevamento in un unico strumento che esprimerà con un punteggio la probabilità che un video sia falso. Queste strategie possono limitare il volume dei falsi, ma la realtà sarà ancora quella di una partita a rimpiattino, con i falsari impegnati a imitare le filigrane digitali o a costruire strumenti di deep learning per ingannare i sistemi di rilevamento. «È un gioco in cui non possiamo vincere», ammette Alexei Efros, professore di informatica e ingegneria elettrica all’Università della California a Berkeley, che collabora con MediFor. «Possiamo solo renderlo sempre più difficile da giocare per i cattivi». E comunque ci vorranno decenni prima che questi strumenti siano pronti, spiega Hany Farid, professore di informatica al Dartmouth College. Dato che la qualità dei video falsi continua ad aumentare, l’unica soluzione tecnica esistente è affidarsi a esperti di scienza digitale forense come Farid, che afferma: «In tutto il mondo, le persone con cui si può parlare di questo argomento si contano letteralmente sulle dita di una mano. Io sono una di quelle persone. Non posso competere con Internet». Salvare la realtà Anche se alla fine ciascuno di noi potrà usare sistemi di rilevamento per analizzare Internet, ci sarà sempre uno sfasamento tra bugie e verità. Questa è una delle ragioni per cui fermare la diffusione di video falsi è una sfida per il settore dei social media. «È tanto un problema di distribuzione quanto un problema di creazione», afferma Edelman. «Se un video deepfake cade nella foresta, nessuno lo sente a meno che Twitter e Facebook non facciano da cassa di risonanza». Quando si parla di contenere la diffusione virale di informazioni false, non è chiaro quali siano gli obblighi di legge per le aziende che gestiscono i social media né se sia possibile regolamentare il settore senza calpestare la libertà di parola. Alla fine Mark Zuckerberg, l’amministratore delegato e fondatore di Facebook, ha ammesso che in qualche modo la sua piattaforma ha contribuito alla diffusione di fake news, anche se ci sono voluti più di dieci mesi dalle elezioni del 2016 prima che facesse questa ammissione. Facebook, in fin dei conti, è stato progettato perché gli utenti continuino a consumare e a diffondere contenuti, preferendo ciò che è popolare a ciò che è vero. Con i suoi oltre due miliardi di
utenti attivi al mese, è una vera e propria polveriera per chi vuole far deflagrare una storia falsa perfetta per farne infuriare i fruitori. Zuckerberg ha poi promesso di prendere provvedimenti. Ha scaricato parte del lavoro sugli utenti, chiedendo loro di classificare le fonti di informazione in base alla loro affidabilità (cosa che alcuni hanno interpretato come un modo per il portale di evitare le proprie responsabilità), e ha intenzione di usare la IA per segnalare le informazioni tendenziose. Per quanto riguarda i dettagli, l’azienda ha tenuto la bocca cucita. Alcuni esperti di informatica esprimono dubbi sull’approccio IA: come Farid, secondo il quale le promesse sono «spettacolarmente ingenue». Pochi ricercatori indipendenti hanno potuto studiare il modo in cui le fake news si diffondono su Facebook, perché gran parte dei dati rilevanti sono secretati. In ogni caso, nemmeno tutti gli algoritmi e i dati del mondo ci salveranno dalle campagne di disinformazione se gli esperti che creano la tecnologia per produrre video falsi non si confrontano con il modo in cui i loro prodotti saranno usati e abusati quando escono dal laboratorio. «Questa – afferma Persily – è la mia richiesta: che gli studiosi di scienze esatte che fanno questo lavoro siano affiancati da psicologi, esperti di scienze politiche ed specialisti di comunicazione, che studiano questi argomenti da tempo». Finora questo genere di collaborazione è raro. Lo scorso marzo, tuttavia, il Center for Artificial Intelligence della Finlandia ha annunciato un programma che inviterà psicologi, filosofi, esperti di etica e altri ad aiutare chi fa ricerca sulla IA a capire le implicazioni sociali più ampie del proprio lavoro. E in aprile Persily e Gary King, ricercatore di scienze politiche alla Harvard University, hanno lanciato la Social Data Initiative, un progetto che per la prima volta permetterà agli esperti di scienze sociali di avere accesso ai dati di Facebook, così che possano studiare il diffondersi delle informazioni false. Con un vuoto di responsabilità agli alti livelli, l’onere di scoprire ed eliminare i video falsi ricade sui giornalisti e sui cittadini investigatori. Verso la fine del video fake di Obama e Peele, i due uomini dicono: «Andando avanti, dobbiamo essere più attenti a quello a cui crediamo su Internet. In questo momento storico dobbiamo affidarci a fonti di informazione affidabili». Quel video sarà anche stato un falso, ma diceva la verità.
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
L’autrice Brooke Borel è giornalista e autrice del libro The Chicago Guide to Fact-Checking. Recentemente ha fatto una gara di verifica delle fonti contro un sistema di IA e ha vinto con un margine preoccupante. Le Scienze, n. 604, dicembre 2018
15
I quaderni
Illustrazione di Wesley Allsbrook
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
Un nuovo disordine mondiale La nostra propensione a condividere contenuti senza riflettere è sfruttata per diffondere disinformazione di Claire Wardle
le Scienze
16
I quaderni
Come studiosa dell’impatto della cattiva informazione sulla società, spesso mi trovo a desiderare che i giovani imprenditori della Silicon Valley, che ci hanno dato modo di comunicare così in fretta, fossero stati obbligati a simulare uno scenario da 11 settembre con le loro tecnologie prima di schierarle sul mercato. Una delle immagini più significative di quella giornata mostra un folto gruppo di newyorkesi con lo sguardo fisso verso l’alto. La forza di quella fotografia è che conosciamo l’orrore di cui sono testimoni. È facile immaginare che, oggi, in quella scena quasi tutti avrebbero in mano uno smartphone. Qualcuno filmerebbe ciò che vede per pubblicarlo su Twitter e Facebook. Alimentate dai social media, voci non confermate e cattive informazioni dilagherebbero. Prolifererebbero i messaggi di odio contro la comunità musulmana, ipotesi e rabbia crescerebbero sotto la spinta degli algoritmi in risposta a livelli senza precedenti di condivisioni, commenti e «mi piace». Agenti stranieri della disinformazione amplificherebbero le divisioni, scavando fossati tra le comunità e seminando il caos. E intanto le persone rimaste bloccate ai piani alti delle torri trasmetterebbero in diretta i loro ultimi momenti. Sottoporre la tecnologia a qualche stress test nel contesto dei peggiori momenti della storia avrebbe potuto evidenziare quello che scienziati sociali e propagandisti sanno da molto tempo: gli esseri umani sono programmati per rispondere a detonatori emotivi e a condividere cattive informazioni se confermano i loro pregiudizi e convinzioni. Invece i progettisti delle piattaforme social erano fervidamente convinti che l’essere connessi avrebbe favorito la tolleranza e contrastato l’odio. Non avevano capito che la tecnologia non avrebbe cambiato quello che fondamentalmente siamo; non avrebbe potuto fare altro, invece, che adattarsi ai caratteri già esistenti degli esseri umani. Su Internet la cattiva informazione è in circolazione dalla metà degli anni novanta. Ma nel 2016 diversi eventi hanno chiarito che sono emerse forze più oscure: automazione, messaggi altamente profilati e coordinamento hanno alimentato campagne informative progettate per manipolare l’opinione pubblica su larga scala. I primi a dare l’allarme sono stati alcuni giornalisti delle Filippine, quando Rodrigo Duterte è arrivato al potere sull’onda di un’intensa attività su Facebook. Poi ci sono stati i risultati inattesi del referendum sulla Brexit nel Regno Unito e delle elezioni di novembre negli Stati Uniti; tutto questo ha spinto i ricercatori a studiare in modo sistematico i modi in cui l’informazione era stata usata come arma. Negli ultimi tre anni la discussione sulle cause dell’inquinamento del nostro ecosistema dell’informazione si è concentrata quasi interamente su quello che hanno fatto (o non fatto) le società tecnologiche. Ma è Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
un’ossessione semplicistica. C’è una rete complessa di mutamenti sociali che rende le persone più suscettibili a cattiva informazione e complotti. La fiducia nelle istituzioni diminuisce per sconvolgimenti politici ed economici, tra cui spiccano le disuguaglianze di reddito, che aumentano costantemente. Gli effetti del cambiamento climatico sono sempre più pronunciati. Le tendenze migratorie globali fanno temere mutamenti irreversibili delle comunità. La crescita dell’automazione suscita la paura di perdere il lavoro e la privacy. Gli attori malintenzionati che vogliono accentuare le tensioni capiscono queste tendenze della società, e progettano contenuti con cui sperano di suscitare l’ira o l’entusiasmo degli utenti presi di mira in modo che il pubblico diventi il messaggero. L’obiettivo è indurre gli utenti a usare il proprio capitale sociale per rinforzare e dare credibilità il messaggio iniziale. La maggior parte di questi contenuti non è fatta per indirizzare le persone in una particolare direzione, ma per creare confusione, per sovrastare e minare alle fondamenta le istituzioni della democrazia, dal sistema elettorale al giornalismo. E sebbene si stia facendo molto per preparare l’elettorato degli Stati Uniti alle elezioni del 2020, i contenuti fuorvianti e complottisti non sono nati con la campagna presidenziale del 2016 e non finiranno con la prossima. Gli strumenti per manipolare e amplificare i contenuti diventano sempre più economici e accessibili, e di pari passo diventerà sempre più facile trasformare in un’arma gli utenti stessi, facendone inconsapevoli agenti della disinformazione. L’arma del contesto In generale, il linguaggio usato per discutere della cattiva informazione è troppo semplicistico. Ricerca e interventi efficaci richiedono definizioni chiare, eppure molti usano un’espressione problematica come fake news. Usato da politici in tutto il mondo per attaccare la libera stampa, fake news è un termine pericoloso. Ricerche recenti mostrano che il pubblico lo collega sempre di più con i mezzi di comunicazione dominanti. Spesso diventa un termine per descrivere cose che sono diverse tra loro, tra cui menzogne, voci non confermate, burle, cattiva informazione, complotti e propaganda, ma spesso nasconde le sfumature e la complessità. Molti di questi contenuti non fingono neppure di essere notizie, ma compaiono sotto forma di «memi», in video e post su social media come Facebook e Instagram. Nel febbraio 2017 ho definito sette tipi di «disturbi informativi» nel tentativo di evidenziare lo spettro di contenuti usato per inquinare l’ecosistema dell’informazione. Comprendono, tra l’altro, la satira, che non mira a causare un danno ma che potenzialmente può ingannare; i contenuti inventati, che sono falsi al 100 per cento e sono progettati per ingannare e provocare un 17
I quaderni
La fisica è la più matura delle scienze, e per i fisici la verità è un’ossessione. C’è un universo reale là fuori. Il miracolo centrale è che ci sono leggi semplici, espresse nel preciso linguaggio della matematica, che possono descriverlo. Detto questo, i fisici non trafficano in certezze, ma in gradi di confidenza. Abbiamo imparato la lezione; più volte, nella storia, abbiamo trovato che un principio che pensavamo centrale per la descrizione ultima della realtà non andava affatto bene. Per capire come funziona il mondo, abbiamo teorie e facciamo esperimenti per metterle alla prova. Storicamente, il metodo funziona. I fisici, per esempio, hanno previsto l’esistenza della particella chiamata bosone di Higgs nel 1964, costruito il Large Hadron Collider (LHC) al CERN tra la fine degli anni novanta e i primi anni duemila e trovato la prova fisica dell’esistenza dell’Higgs nel 2012. Altre volte non possiamo costruire un esperimento: è troppo grande o costoso, o sarebbe impossibile con le tecnologie attuali. Così escogitiamo esperimenti mentali che ci allontanino dell’infrastruttura delle leggi matematiche e dei dati sperimentali esistenti. Eccone uno: il concetto di spazio-tempo è accettato fin dai primi del Novecento. Ma più è piccolo lo spazio che si vuole osservare, più potente deve essere la risoluzione. È per questo che LHC ha una circonferenza di 27 chilometri: per produrre le enormi energie necessarie per sondare le minuscole distanze tra le particelle. Ma a un certo punto succede qualcosa di brutto. Mettiamo una quantità di energia così grande per osservare un frammento così piccolo di spazio che in realtà creiamo un buco nero. Il tentativo stesso di vedere che cosa c’è all’interno rende impossibile farlo, e la nozione di spazio-tempo va in mille pezzi.
danno; la falsificazione del contesto, in cui si condividono contenuti autentici corredandoli di informazioni contestuali false. Sempre nello stesso anno, qualche mese dopo, insieme a Hossein Derakhshan, un giornalista che si occupa di tecnologia, abbiamo pubblicato un rapporto in cui abbiamo descritto le differenze tra disinformazione (disinformation), cattiva informazione (misinformation) e mala-informazione (malinformation). Le persone che diffondono disinformazione – contenuto intenzionalmente falso e pensato per procurare un danno – sono spinte da tre motivazioni: fare soldi, avere un’influenza politica, interna o estera; causare problemi per il piacere di farlo. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
In ciascun momento della storia possiamo capire alcuni aspetti del mondo ma non possiamo capire tutto. Quando un cambiamento rivoluzionario porta qualche elemento in più nel quadro generale, dobbiamo riconfigurare quello che sapevamo. Il vecchio fa ancora parte della verità, ma deve essere ripreso e reinserito nel quadro generale in un modo nuovo. Nima Arkani-Hamed è professore della School of Natural Sciences dell’Institute for Advanced Studies di Princeton, in New Jersey; testo raccolto da Brooke Borel
Le persone che diffondono cattiva informazione (misinformation) – contenuti falsi o fuorvianti, ma senza che chi li condivide se ne renda conto – sono mosse da fattori socio-psicologici. Gli utenti «mettono in scena» la propria identità sulle piattaforme social per sentirsi connessi «agli altri»: che siano partiti politici, genitori no-vax, attivisti impegnati sul cambiamento climatico, o esponenti di una data religione o gruppo etnico. Cruciale è il fatto che la disinformazione diventa cattiva informazione quando le persone la condividono senza rendersi conto della sua falsità. Abbiamo poi coniato un nuovo termine, malinformation, o mala-informazione, per indicare le informazioni autentiche 18
I quaderni
Illustrazione di Bud Cook
Un fisico teorico in cerca di risposte
Per capire e studiare l’ecosistema delle informazioni nella sua complessità, c’è bisogno di un linguaggio comune. L’uso diffuso di termini semplicistici come fake news cela distinzioni importanti e denigra il giornalismo. E dà troppa importanza alla distinzione tra «vero» e «falso», mentre l’informazione di disturbo è in genere, in varia misura, «fuorviante».
Cattiva informazione Errori involontari come imprecisioni in titoli, date, statistiche e traduzioni, o satira presa per verità.
Fonte: Information Disorder: Toward An Interdisciplinary Framework For Research And Policymaking, di C. Wardle e H. Derakhshan, Consiglio d’Europa, ottobre 2017
ma condivise con l’obiettivo di procurare un danno. Un esempio si è avuto quando agenti russi si sono introdotti abusivamente nella posta elettronica del Comitato nazionale del Partito democratico degli Stati Uniti (o Democratic National Committee) e della campagna di Hillary Clinton e hanno fatto trapelare al pubblico dettagli dei messaggi per danneggiare la reputazione di entrambi. Seguendo la cattiva informazione in otto elezioni in varie parti del mondo dal 2016 a oggi, ho osservato un cambiamento nelle tattiche e nelle tecniche. La disinformazione più efficace è sempre stata quella che contiene un nucleo di verità, e in effetti la maggior parte del contenuto oggi disseminato non è falso ma fuorviante. Invece di inventare storie di sana pianta, chi opera per influenzare le persone ricontestualizza informazioni autentiche e usa titoli iperbolici. In questa strategia contenuti autentici sono collegati a temi o persone polarizzanti. Dato che i malintenzionati sono sempre un passo (o svariati passi) più avanti rispetto agli strumenti di moderazione delle piattaforme, adesso stanno facendo passare la disinformazione emotiva per satira, in modo che non venga sottoposta ai processi di verifica dei fatti. Qui è il contesto, più che il contenuto, a diventare un’arma. Il risultato è generare caos in modo intenzionale. Prendiamo come esempio un video manipolato di Nancy Pelosi, la presidente della Camera dei Rappresentanti degli Stati Uniti, che è circolato lo scorso maggio. Era una ripresa autentica, ma un agente della disinformazione l’ha rallentata e poi ha postato il risultato, in cui sembrava che Pelosi biascicasse le parole. Come era nelle intenzioni, qualcuno ha subito ipotizzato che la presidente fosse ubriaca, e il video si è diffuso sui social media. Poi è stato ripreso dai media tradizionali, e così sarà senz’altro arrivato anche a persone che altrimenti non lo avrebbe mai visto. Alcune ricerche hanno trovato che le tradizionali segnalazioni giornalistiche dei contenuti fuorvianti possono potenzialmente fare danni ulteriori. Il nostro cervello è fatto in modo da ricorrere a euristiche (o scorciatoie mentali) quando deve dare giudizi di credibilità. Come risultato, Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
E DI NUOCERE ION Z EN
Mala-informazione Deliberata divulgazione di Disinformazione informazioni private Contenuto costruito non nel pubblico ad arte interesse ma per o deliberatamente interessi personali o di manipolato. Invenzione aziende (per esempio, deliberata di voci il «revenge porn»). o complotti. Modifica deliberata di contesto, data o periodo di contenuti autentici.
ripetizione e familiarità sono due dei meccanismi più efficaci per inculcare narrazioni fuorvianti, anche quando le persone hanno ricevuto informazioni contestuali che spiegano perché dovrebbero sapere che una narrativa non è vera. I malintenzionati lo sanno bene: nel 2018 Whitney Phillips, una studiosa dei mezzi di comunicazione, ha pubblicato un rapporto per il Data & Society Research Institute che esplora le tecniche usate da chi cerca di spingere narrazioni false e fuorvianti per incoraggiare i giornalisti a occuparsi proprio di quelle narrative. Eppure, secondo un altro rapporto dell’Institute for the Future solo il 15 per cento dei giornalisti degli Stati Uniti ha seguito corsi di formazione su come trattare responsabilmente la cattiva informazione. Oggi una sfida centrale per i giornalisti e per chi è incaricato di verificare i fatti (fact checker) – e per chiunque abbia un ampio seguito, come politici e influencer – è capire come sbrogliare e sfatare falsificazioni come il video della Pelosi senza dare ancora più ossigeno al contenuto iniziale. I memi: un potente strumento di cattiva informazione Nel gennaio 2017 il programma radiofonico della statunitense NPR This American Life ha intervistato un gruppo di sostenitori di Donald Trump in uno dei suoi eventi inaugurali, chiamato DeploraBall. Quelle persone erano state coinvolte pesantemente nell’uso dei social media per sostenere Trump. Parlando della sua sorprendente ascesa, uno degli intervistati ha spiegato: «Lo abbiamo portato al potere a forza di memi… Abbiamo diretto la cultura». La parola «meme» è stata coniata nel 1976 dal biologo Richard Dawkins nel libro The Selfish Gene [la prima edizione italiana, titolo Il gene egoista, è del 1979, N.d.R.] per descrivere «un’unità di trasmissione culturale o un’unità di imitazione»: un’idea, un comportamento o uno stile che si diffonde rapidamente attraverso una cultura. Da qualche decennio, però, la parola è usata per descrivere un tipo di contenuti on line, in genere audiovisivi e costruiti secondo uno specifico modello estetico combinando 19
I quaderni
Grafica di Jen Christiansen.
TÀ LSI A F
INT
Tre disturbi dell’informazione
Creazione Quando il messaggio viene progettato
Produzione Quando il messaggio viene convertito in prodotto per i media
Distribuzione Quando il prodotto viene distribuito ai destinatari o reso pubblico
Ripro duz
ion
e
Fonte: Information Disorder: Toward An Interdisciplinary Framework For Research And Policymaking, di C. Wardle e H. Derakhshan, Consiglio d’Europa, ottobre 2017
immagini colorate e sorprendenti con blocchi di testo. Spesso un meme fa riferimento ad altri elementi culturali o mediatici, talvolta in modo esplicito, ma di solito implicitamente. Questa caratteristica di logica implicita – un cenno e un ammiccamento a una conoscenza condivisa su una persona o un evento – è quello che rende il meme impattante. L’entimema è un tecnica retorica in cui l’argomentazione è fatta in assenza di premesse certe o di conclusioni. Spesso non sono esplicitati riferimenti chiave (a notizie recenti, dichiarazioni di politici, campagne pubblicitarie o tendenze culturali più ampie), forzando chi guarda ad arrivare al punto per conto suo. Il lavoro in più richiesto a chi guarda è una tecnica persuasiva perché spinge una persona a sentirsi in sintonia con gli altri. Se poi un meme prende in giro o invoca sdegno a spese di un altro gruppo, le associazioni diventano ancora più forti. La natura apparentemente giocosa di questi formati visivi significa che i memi non sono stati riconosciuti da gran parte della ricerca e della politica come efficaci veicoli di disinformazione, complotto od odio. Eppure la cattiva informazione è tanto più efficace quanto più viene condivisa, e i memi tendono a essere assai più condivisibili dei testi. L’intera narrativa è visibile nel vostro flusso di informazioni, non serve fare clic su un link. Un libro del 2019 di An Xiao Mina, Memes to Movements, delinea come i memi stanno cambiando proteste sociali e dinamiche di potere, ma questo atteggiamento di seria considerazione è relativamente raro. In effetti, molti post e annunci su Facebook collegati alle elezioni dei 2016 e generati dai russi erano memi. Ed erano centrati su candidati polarizzanti, come Bernie Sanders, Hillary Clinton e Donald Trump, e politiche polarizzanti, come il diritto alle armi e l’immigrazione. Gli sforzi dei russi hanno spesso mirato a gruppi specifici per etnia o religione, come il movimento Black Lives Matter o i Cristiani evangelici. Quando è stato pubblicato l’archivio dei memi su Facebook generati da russi, alcuni commenti Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
La diffusione di informazioni false o fuorvianti è spesso un processo dinamico. Inizia quando un agente di disinformazione confeziona un messaggio che provochi più danni possibile, per esempio organizzando proteste nel mondo reale che mettono pubblicamente in conflitto gruppi opposti. Nella fase successiva, l’agente produce pagine dedicate all’«evento» su Facebook. I link sono proposti alle comunità che potrebbero esserne incuriosite. Chi vede l’evento ignora la falsità delle sue premesse e lo condivide con la sua comunità, usando il proprio quadro di riferimento. Poi questa forma di riproduzione continua.
si sono concentrati sulla mancanza di raffinatezza dei memi stessi e sul loro impatto. Ma le ricerche hanno mostrato che quando le persone hanno paura le narrazioni ultrasemplificate, le spiegazioni complottiste e i messaggi che demonizzano altri diventano assai più efficaci. Quei memi hanno fatto quanto bastava per spingere le persone a cliccare sul pulsante «condividi». Piattaforme tecnologiche come Facebook, Instagram, Twitter e Pinterest hanno un ruolo significativo nell’incoraggiare questi comportamenti umani perché sono progettate per sollecitare prestazioni. Rallentare per verificare se un certo contenuto è vero prima di condividerlo è assai meno persuasivo rispetto al ribadire alla propria «audience» su queste piattaforme che si ama o si odia una certa politica. Il modello di business di tante di queste piattaforme è legato a una prestazione identitaria del genere perché spinge a trascorrere più tempo sui loro siti. Oggi i ricercatori costruiscono tecnologie per tracciare i memi anche quando passano da una piattaforma social all’altra. Ma si può studiare solo quello che è accessibile, e i dati dei post visivi di numerose piattaforme non sono messi a disposizione dei ricercatori. In più le tecniche per studiare i testi, come quelle per il trattamento del linguaggio naturale, sono assai più avanzate di quelle per le immagini o i video. Questo vuol dire che la ricerca dietro le soluzioni che si stanno preparando è sproporzionatamente rivolta verso tweet a base testuale, siti web o articoli pubblicati via URL e la verifica delle affermazioni dei politici. Anche se alle aziende tecnologiche sono attribuite molte colpe, e per buone ragioni, esse sono anche il prodotto dell’ambiente commerciale in cui operano. Non saranno gli aggiustamenti degli algoritmi, gli aggiornamenti delle linee guida per la moderazione dei contenuti o le multe degli enti regolatori, da soli, a migliorare il nostro ecosistema delle informazioni al livello richiesto. Partecipare alla soluzione In un sano ambiente informativo concepito come 20
I quaderni
Grafica di Jen Christiansen.
Dalla disinformazione alla cattiva informazione
bene comune le persone sarebbero comunque libere di esprimere quello che vogliono; ma l’informazione pensata per fuorviare, incitare odio, rinforzare tribalismi o provocare danni concreti non verrebbe amplificata dagli algoritmi. Questo significa che non le sarebbe permesso di finire tra i trend di Twitter o YouTube. Né sarebbe scelta per apparire tra i feed di Facebook, le ricerche su Reddit o i primi risultati di Google. Fino a quando non sarà risolto il problema dell’amplificazione, gli agenti della disinformazione useranno come arma proprio la nostra disponibilità a condividere senza pensare. Di conseguenza, un ambiente informativo così pieno di disturbi richiede che ognuno di noi riconosca di poter diventare un vettore nella guerra dell’informazione, e sviluppi un insieme di capacità e abilità con cui muoversi nella comunicazione on line e in quella off line. Attualmente le conversazioni sulla consapevolezza del pubblico sono spesso centrate sull’educazione ai mezzi di comunicazione, spesso in una cornice paternalistica per cui il pubblico avrebbe solo bisogno che gli si insegni a consumare l’informazione con intelligenza. Sarebbe meglio invece spingere gli utenti a sviluppare «muscoli» cognitivi nello scetticismo emotivo e ad addestrarsi a resistere all’assalto dei contenuti pensati espressamente per scatenare le paure e i pregiudizi più bassi. Chiunque usi i siti web che facilitano le interazioni sociali farebbe bene a imparare come funzionano, e in particolare come gli algoritmi determinano quello che vedono gli utenti, dando «priorità ai post che innescano conversazioni e interazioni significative tra gli utenti», per citare un aggiornamento di Facebook del gennaio 2018 su come funzionano le sue classifiche. Raccomanderei anche che si provasse, almeno una volta, a pubblicare un annuncio a pagamento su Facebook. Il processo con cui si organizza una campagna pubblicitaria può aiutare a capire quanto siano dettagliate le informazioni disponibili. È possibile mirare a categorie assai specifiche, per esempio le donne tra i 32 e i 42 anni di età, che abitano nella zona di Raleigh-Durham in North Carolina, hanno bambini in età prescolare, hanno una laurea, sono ebree e apprezzano la senatrice Kamala Harris. Il network vi permette addirittura di testare queste pubblicità in ambienti che consentono di fallire privatamente. Con questo tipo di «pubblicità nascosta», un’organizzazione può indirizzare post solo a determinate persone, senza pubblicarli sulla propria pagina. Questo rende difficile per ricercatori e giornalisti tracciare quali messaggi mirati siano inviati a quali gruppi, il che è assai preoccupante nei periodi elettorali. Gli eventi di Facebook offrono un altro canale di manipolazione. Uno dei casi più allarmanti di interferenza straniera in un’elezione negli Stati Uniti è una manifestazione avvenuta a Houston, in Texas, ma Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
orchestrata da troll (agenti provocatori) con base in Russia. Avevano aperto due pagine Facebook che sembravano autenticamente statunitensi. Una, «Heart of Texas», che si diceva filo-secessionista, ha lanciato un «evento» da tenersi il 21 maggio 2016, con lo slogan «Fermiamo l’islamizzazione del Texas». L’altra pagina, «United Muslims of America», ha convocato una propria iniziativa di protesta, con lo slogan «Salviamo il sapere islamico» nello stesso posto e alla stessa ora. Il risultato è che due gruppi di persone sono scesi in strada a protestare l’uno contro l’altro, mentre i veri organizzatori si congratulavano fra loro per essere riusciti ad amplificare le tensioni esistenti a Houston. Un’altra popolare tattica di disinformazione è chiamata «astroturfing». Inizialmente il termine era legato a persone che scrivevano false recensioni di prodotti on line o provavano a far sembrare una comunità più numerosa di quanto fosse in realtà. Oggi campagne automatizzate usano programmi o un sofisticato coordinamento di appassionati sostenitori e troll pagati, o entrambi i mezzi, per dare la sensazione che una persona o una politica goda di un forte sostegno dal basso. Facendo in modo che alcuni hashtag siano tra i trend di Twitter, sperano che messaggi particolari siano raccolti dai mezzi di comunicazione professionali e indirizzano l’amplificazione per attaccare e ridurre al silenzio specifiche persone od organizzazioni. Capire che ognuno di noi è soggetto a queste campagne – e potrebbe parteciparvi inconsapevolmente– è un primo passo cruciale per contrastare chi cerca di capovolgere un senso di realtà condivisa. Ma la cosa più importante, forse, è che l’accettazione della vulnerabilità della nostra società a un’amplificazione fabbricata appositamente deve avvenire con calma e buon senso. Diffondere paure serve solo ad alimentare nuovi complotti e a far diminuire ancora di più la fiducia nelle fonti di informazione di qualità e nelle istituzioni della democrazia. Non ci sono soluzioni definitive per impedire che le narrazioni diventino armi; dobbiamo invece adattarci a questa nuova normalità. Proteggersi dal Sole è un’abitudine che la società ha sviluppato nel tempo e ha adeguato con la disponibilità di nuova conoscenza scientifica; per costruire la giusta resilienza a un ambiente informativo pieno di disturbi bisogna pensare nello stesso modo.
L’autrice Claire Wardle è la direttrice per gli Stati Uniti dell’organizzazione no profit First Draft, dove fa ricerca, dirige progetti e cura iniziative di formazione su come riconoscere e affrontare la cattiva informazione. È stata research fellow dello Shorenstein Center on Media, Politics and Public Policy della Harvard University. Le Scienze, n. 615, novembre 2019
21
I quaderni
Perché ci fidiamo delle bugie L’informazione sbagliata più efficace comincia con granelli di verità
Illustrazione di Lisk Feng
di Cailin O’Connor e James Owen Weatherall
Verso la metà dell’Ottocento un bruco grande come un dito umano cominciò a diffondersi nel nord-est degli Stati Uniti. Questa comparsa del bruco del pomodoro fu seguita da racconti spaventosi di intossicazioni letali e aggressioni verso le persone. Nel luglio 1869 i giornali della regione lanciarono avvertimenti sull’insetto, raccontando che a Red Creek, nello Stato di New York, dopo un contatto con la creatura una bambina era «caduta in preda agli spasmi, conclusi con la morte». Quell’autunno il «Syracuse Standard» pubblicò il resoconto Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
di un tale dottor Fuller, che aveva trovato un esemplare davvero enorme del bruco. Il medico avvertì che l’insetto era «velenoso come un serpente a sonagli» e sostenne di essere a conoscenza di tre morti provocate dal suo veleno. Anche se il bruco è così vorace da spogliare una pianta di pomodori in pochi giorni, per gli esseri umani è innocuo. Gli entomologi lo sapevano da decenni quando Fuller pubblicò il suo drammatico racconto, e le sue affermazioni furono derise dagli esperti. Allora perché le voci continuarono a circolare sebbene la verità fosse
22
I quaderni
già a portata di mano? Le persone imparano tramite la socialità. Ricaviamo gran parte delle nostre convinzioni dalla testimonianza di altre persone fidate, come insegnanti, genitori, amici. Questa trasmissione sociale della conoscenza è alla base della cultura e della scienza. Ma, come dimostra la storia del bruco, ha un enorme punto debole: a volte le idee che diffondiamo sono sbagliate. Negli ultimi cinque anni sono stati messi a fuoco i modi in cui la trasmissione sociale della conoscenza può ingannarci. La cattiva informazione condivisa sui social media ha alimentato un’epidemia di false credenze, con la diffusione di convinzioni errate su argomenti che vanno dalla frequenza dei brogli elettorali alla possibilità che la strage nella scuola elementare di Sandy Hook, in Connecticut, sia stata una messinscena, fino alla sicurezza dei vaccini. Gli stessi meccanismi di base che diffusero la paura del bruco del pomodoro hanno ora intensificato, e in alcuni casi provocato, una profonda sfiducia del pubblico nei confronti delle istituzioni di base della società. Una conseguenza è la più grave epidemia di morbillo dell’ultima generazione. In questo caso il termine «cattiva informazione» può sembrare inadatto. D’altronde molte delle attuali false credenze più dannose ricevono la spinta iniziale da atti di propaganda e disinformazione, deliberatamente ingannevoli e concepiti per provocare danni. Ma uno dei motivi per cui propaganda e disinformazione sono così efficaci nell’epoca dei social media è il fatto che chi le subisce le condivide tra amici e conoscenti di cui ha la fiducia e non ha intenzione di ingannare nessuno. I social media trasformano la disinformazione in cattiva informazione. Per cercare di capire come le false credenze possano sopravvivere, molti teorici della comunicazione ed esperti di scienze sociali hanno concepito modelli in cui la diffusione delle idee è equiparata a un contagio epidemico. Per applicare modelli matematici bisogna simulare una rappresentazione semplificata delle interazioni sociali umane usando un algoritmo, e poi studiare queste simulazioni per imparare qualcosa sul mondo reale. In un modello di contagio, le idee sono come virus che passano da una mente all’altra. Si comincia con una rete, formata da nodi e linee che indicano rispettivamente gli individui e le connessioni sociali. Si semina un’idea in una «mente» per vedere come si diffonde in base a varie ipotesi sulla modalità di trasmissione. I modelli del contagio sono estremamente semplici, ma sono stati usati per spiegare schemi di comportamento sorprendenti, come l’epidemia di suicidi che si dice travolse l’Europa nel 1774 dopo la pubblicazione di I dolori del giovane Werther di Goethe, o quando nel 1962, negli Stati Uniti, decine di operai tessili riferirono di soffrire di nausea e torpore dopo essere stati punti da un insetto immaginario. E possono spiegare anche come alcune false Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
credenze si propagano su Internet. Prima delle ultime elezioni presidenziali negli Stati Uniti, su Facebook è apparsa un’immagine di un giovane Donald Trump con una citazione: Trump avrebbe detto che, se si fosse candidato alla presidenza, l’avrebbe fatto nel Partito repubblicano, perché è formato «dall’elettorato più stupido». Non è chiaro chi sia stato il «paziente zero», ma sappiamo che il meme è passato rapidamente da un profilo all’altro. La veridicità del meme è stata presto verificata e smentita: già a ottobre 2015 il sito web di fact checking Snopes ha riferito che la citazione era stata inventata. Ma, come nel caso del bruco del pomodoro, divulgare la verità non ha cambiato il modo in cui si diffondono le voci. Una sola copia del meme è stata condivisa oltre mezzo milione di volte. Via via che nuove persone lo condividevano, le loro false credenze hanno infettato i loro amici, che a loro volta le hanno trasmesse a nuove aree della rete. È per questo che molti memi ampiamente condivisi sembrano immuni al fact checking e al debunking. Le persone che hanno condiviso il meme di Trump non hanno fatto altro che fidarsi dell’amico da cui l’avevano ricevuto, invece di verificare personalmente. Tirare fuori i fatti non serve, se nessuno si preoccupa di controllarli. Si potrebbe pensare che qui il problema sia la pigrizia o l’ingenuità, e che quindi la soluzione consista solo nel migliorare l’istruzione o le capacità di pensiero critico. Ma non è del tutto corretto. A volte le false credenze persistono e si diffondono addirittura nelle comunità in cui tutti si impegnano a fondo per scoprire la verità, raccogliendo e condividendo prove. In questi casi il problema non è la fiducia sconsiderata, ma qualcosa di molto più profondo. Prove affidabili La pagina Facebook «Stop Mandatory Vaccination» ha più di 140.000 follower. I suoi moderatori pubblicano periodicamente materiale presentato in modo da dimostrare a questa comunità che i vaccini sono dannosi o inutili. Nelle pagine di altri gruppi Facebook, migliaia di genitori preoccupati fanno domande e danno risposte sulla sicurezza dei vaccini, spesso condividendo saggi scientifici e pareri legali che sostengono le attività contro le vaccinazioni. Chi partecipa a queste comunità on line è molto interessato a sapere se i vaccini sono dannosi, e cerca attivamente di scoprire la verità. Eppure arriva a conclusioni pericolosamente sbagliate. Come è possibile? Per rispondere a questa domanda il modello del contagio è inadeguato. Ci serve invece un modello che sia in grado di rappresentare i casi in cui le persone adottano convinzioni in base alle prove che raccolgono e condividono. Inoltre il modello deve cogliere innanzitutto perché queste persone sono stimolate a cercare la verità. Nelle questioni di salute, agire in base a convinzioni erronee può costare caro. Se i vaccini sono sicuri ed efficaci (e lo sono) e i genitori non
23
I quaderni
In statistica di solito non vediamo tutto l’universo, ma solo una fetta. E in genere è una fettina che potrebbe raccontare una storia diversa rispetto a un’altra. Cerchiamo di passare da queste fettine a una verità più grande. Secondo molti, quell’unità di base della verità è il valore p, una misura statistica di quanto sia sorprendente ciò che vediamo nella nostra fettina, se valgono le nostre ipotesi sull’universo in generale. Ma non credo che sia corretto. Il concetto di significatività statistica si basa su una soglia arbitraria applicata al valore p, e potrebbe avere poco a che fare con la significatività effettiva o scientifica. È fin troppo facile scivolare in uno schema di pensiero che attribuisce un significato a quella soglia arbitraria: ci dà un senso di sicurezza illusorio. Ed è fin troppo facile anche nascondere dietro quel p molti peccati scientifici. Un modo per rafforzare il valore p sarebbe uno spostamento culturale verso la trasparenza. Se, oltre a indicare il valore p, illustriamo anche come l’abbiamo ottenuto – per esempio l’errore standard, la deviazione standard o altri parametri dell’incertezza – possiamo far capire meglio che cosa significa quel numero. Più informazioni pubblichiamo, più difficile è nascondersi dietro quel valore p. Non so se ci riusciremo. Ma credo che dovremmo provarci.
fanno vaccinare i figli, espongono sia i figli sia le persone immunodepresse a un rischio non necessario. Se i vaccini non sono sicuri, come hanno concluso i partecipanti a quei gruppi Facebook, allora i rischi vanno nell’altra direzione. Significa che è essenziale scoprire dove sta la verità, e agire di conseguenza. Per capire meglio questo comportamento, nella nostra ricerca ci siamo basati su un contesto di struttura epistemologica delle reti, introdotto vent’anni fa da alcuni economisti per studiare la diffusione sociale delle credenze in una comunità. I modelli di questo tipo sono divisi in due parti: un problema e una rete di individui (o «agenti»). Il problema comporta la scelta di un’opzione tra due: potrebbero essere «vaccinare» e «non vaccinare» i propri figli. Nel modello gli agenti hanno le loro credenze su quale sia la scelta migliore. Secondo alcuni la vaccinazione è sicura ed efficace, secondo altri provoca l’autismo. Le credenze degli agenti ne determinano il comportamento: chi ritiene che le vaccinazioni sono sicure sceglie di farle. A sua volta, il loro comportamento ne determina le credenze. Quando gli agenti fanno vaccinare i figli e vedono che non succede niente di male, si convincono ancora di più che le vaccinazioni sono effettivamente sicure. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Nicole Lazar, professoressa di statistica all’Università della Georgia; testo raccolto da Brooke Borel
La seconda parte del modello è una rete che rappresenta i collegamenti sociali. Gli agenti possono imparare non solo dalla propria esperienza con le vaccinazioni, ma anche da quelle dei loro vicini. Così la comunità di un individuo è molto importante nel determinare quali convinzioni finirà per adottare. La struttura epistemologica delle reti coglie alcune caratteristiche essenziali che mancano ai modelli di contagio: le persone raccolgono dati intenzionalmente, li condividono e poi subiscono gli effetti delle cattive credenze. Queste scoperte hanno qualcosa di importante da insegnarci sulla diffusione sociale della conoscenza. La prima cosa che impariamo è questa: lavorare insieme è meglio che da soli, perché un individuo che si trova di fronte a un problema come questo ha buone probabilità di adottare prematuramente la teoria peggiore. Per esempio, potrebbe osservare un bambino che manifesta l’autismo dopo essere stato vaccinato e concludere che i vaccini non sono sicuri. Tendenzialmente, in una comunità le convinzioni sono variegate. Alcuni sperimentano un’azione, altri un’azione diversa. Grazie a questa diversità, in genere si raccolgono prove a sufficienza per formare buone credenze. Nemmeno questo vantaggio di gruppo però garantisce 24
I quaderni
Illustrazione di Bud Cook
Come cerca le risposte un’esperta di statistica
che gli agenti imparino la verità. Le vere prove scientifiche sono probabilistiche. Per esempio, alcuni non fumatori si ammalano di cancro ai polmoni, e alcuni fumatori invece no. Significa che alcuni studi sui fumatori non troveranno un legame con il cancro. Allo stesso modo, sebbene non esista alcun legame statistico tra vaccini e autismo, alcuni bambini vaccinati sono autistici. Così alcuni genitori osservano che i figli iniziano a manifestare i sintomi dell’autismo dopo avere ricevuto le vaccinazioni. Può bastare una serie di prove fuorvianti di questo tipo per indurre in errore un’intera comunità. Nella versione più semplice del modello, l’influenza sociale fa sì che le comunità raggiungano un consenso. Decidono che le vaccinazioni o sono sicure o sono pericolose. Ma questo non corrisponde a quello che vediamo nel mondo reale. Nelle comunità vere assistiamo alla polarizzazione: un disaccordo insanabile sull’opportunità di vaccinare. A nostro avviso, al modello di base mancano due ingredienti essenziali: fiducia sociale e conformismo. La fiducia sociale è determinante per le convinzioni quando le persone considerano alcune fonti di prove più attendibili di altre. È quello che vediamo quando gli antivax si fidano più delle prove condivise dai membri della loro comunità che di quelle presentate dai Centers for Disease Control and Prevention o altri enti di ricerca medica. Questa sfiducia può avere moltissime cause, per esempio precedenti esperienze negative con i medici, o il timore che le autorità sanitarie non abbiano a cuore gli interessi delle persone. In alcuni casi questa sfiducia può essere giustificata, visti i numerosi medici e ricercatori che ignorano i problemi legittimi dei pazienti, in particolare delle donne. Il risultato finale però è che gli antivax non imparano proprio da chi raccoglie le prove migliori sull’argomento. Nelle versioni del modello in cui gli individui non si fidano delle prove portate da chi ha convinzioni molto diverse, vediamo che le comunità si polarizzano e chi ha idee scadenti non riesce ad acquisirne di migliori. Il conformismo invece è la tendenza ad agire come le altre persone della propria comunità. Il bisogno di conformarsi è profondamente radicato nella psiche umana, e può portarci a commettere azioni che sappiamo essere dannose. Quando aggiungiamo al modello il conformismo vediamo che emergono gruppi chiusi di agenti con credenze false. Il motivo è che agenti collegati al mondo esterno non trasmettono le informazioni in contrasto con le convinzioni del gruppo, e di conseguenza molti suoi componenti non vengono mai in contatto con la verità. Il conformismo può contribuire a spiegare perché gli antivax tendano a concentrarsi in certe comunità. In alcune scuole private e semiprivate della California meridionale, la percentuale di bambini vaccinati non supera le poche decine. E queste percentuali sono estremamente basse anche tra gli immigrati somali a Minneapolis e gli ebrei Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
ortodossi a Brooklyn, due comunità in cui di recente sono scoppiate epidemie di morbillo. Per intervenire sullo scetticismo nei confronti dei vaccini bisogna tenere conto sia della fiducia sociale sia del conformismo. Probabilmente limitarsi a condividere nuove prove con gli scettici è inutile, a causa dei problemi di fiducia. E a causa del conformismo potrebbe essere difficile convincere membri fidati della comunità a sostenere pubblicamente le vaccinazioni. L’approccio migliore consiste nel trovare persone che hanno abbastanza in comune con le rispettive comunità da suscitare fiducia. Per esempio, a Brooklyn un rabbino potrebbe essere efficace come ambasciatore dei vaccini, mentre nella California meridionale per questo ruolo potrebbe essere più indicata un’attrice come Gwyneth Paltrow. Fiducia sociale e conformismo sono due dei motivi per cui nelle reti sociali possono emergere opinioni polarizzate. Ma almeno in alcuni casi, come la comunità somala del Minnesota e quelle di ebrei ortodossi a New York, la storia è più complessa. Entrambi i gruppi sono stati presi di mira da sofisticate campagne di disinformazione, progettate dagli antivax. Operazioni di influenza Le nostre convinzioni sul mondo determinano come votiamo, che cosa compriamo e chi ammiriamo. Di conseguenza ci sono molti gruppi e individui ricchi e potenti che hanno interesse a influenzare le credenze del pubblico, comprese quelle sui dati di fatto scientifici. Secondo un’idea ingenua, quando l’industria cerca di influenzare le credenze scientifiche, non fa altro che assoldare scienziati corrotti. Può darsi che a volte succeda così. Ma uno studio accurato dei casi storici dimostra che ci sono strategie molto più raffinate – e probabilmente più efficaci – adottate da industria, nazioni e altri gruppi. Il primo passo per proteggerci da questo tipo di manipolazione è capire come funzionano queste campagne. Un esempio classico è l’industria del tabacco, che negli anni cinquanta mise a punto nuove tecniche per contrastare il crescente consenso sui danni mortali del fumo. Negli anni cinquanta e sessanta il Tobacco Institute pubblicava «Tobacco and Health», una newsletter bimestrale che riferiva solo le ricerche scientifiche secondo cui il tabacco non era dannoso, o che mettevano in evidenza l’incertezza sui suoi effetti per la salute. I pamphlet adottano quella che abbiamo definito condivisione selettiva. Questo metodo consiste nel prendere ricerche scientifiche autentiche e indipendenti, e selezionarle presentando solo le prove a favore della posizione che si preferisce. Usando varianti dei modelli descritti in precedenza, abbiamo sostenuto che la condivisione selettiva può essere incredibilmente efficace nell’influenzare quello che un pubblico di non addetti ai
25
I quaderni
lavori arriva a credere sui dati di fatto scientifici. In altre parole, soggetti motivati possono usare granelli di verità per dare un’impressione di incertezza o perfino convincere le persone di affermazioni false. La condivisione selettiva è da tempo uno strumento essenziale nell’armamentario degli antivax. Prima della recente epidemia di morbillo a New York, un’organizzazione che si definisce Parents Educating and Advocating for Children’s Health (PEACH) ha prodotto e distribuito un pamphlet di 40 pagine intitolato The Vaccine Safety Handbook. Le informazioni condivise – quando erano precise – erano molto selezionate, e si concentravano su una manciata di studi scientifici che lasciavano intuire rischi collegati ai vaccini, mentre davano un’attenzione minima ai numerosi studi che ne dichiaravano la sicurezza. Il manuale PEACH era particolarmente efficace perché abbinava la condivisione selettiva alla retorica. Raccoglieva la fiducia degli ebrei ortodossi facendo leva sull’appartenenza alla comunità e metteva in risalto gli aspetti che probabilmente avrebbero suscitato più preoccupazione in quel pubblico. Selezionava con cura fatti sui vaccini destinati a provocare il disgusto di quel target specifico; per esempio diceva che alcuni contenevano gelatina derivata dai maiali. Consapevolmente o no, il pamphlet era concepito in modo da sfruttare la fiducia sociale e il conformismo, proprio i meccanismi cruciali per la creazione della conoscenza umana. Peggio ancora, i propagandisti sviluppano costantemente metodi sempre più sofisticati per manipolare le credenze del pubblico. Negli ultimi anni abbiamo visto i diffusori della disinformazione lanciare nuovi sistemi – come bot su Twitter, troll pagati e account di amici hackerati o copiati – per dare l’impressione che alcune false credenze siano ampiamente condivise, anche dai vostri amici e da altre persone con cui vi identificate. Secondo un articolo pubblicato nel 2018 su «American Journal of Public Health», questa disinformazione è stata distribuita da account collegati a operazioni russe di influenza che cercano di amplificare il dissenso negli Stati Uniti e usare come arma una questione di salute pubblica. Questa strategia lavora per cambiare le opinioni non tramite argomentazioni razionali o prove, ma manipolando la diffusione sociale di conoscenza e credenze. La raffinatezza degli sforzi per diffondere informazioni sbagliate solleva un problema preoccupante per la democrazia. Tornando all’esempio del morbillo, in molti Stati i bambini possono essere esonerati dall’obbligo vaccinale in base a «credenze personali». E questo nel 2015 ha scatenato una polveriera in California, in seguito a un’epidemia di morbillo provocata da bambini non vaccinati in visita a Disneyland. L’allora governatore Jerry Brown ha firmato una nuova legge, la SB277, che ha annullato l’esenzione. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Gli antivax hanno subito avviato l’iter per indire un referendum per abrogare la legge. Se fossero riusciti a raccogliere 365.880 firme (sono arrivati solo a 233.758), la possibilità di esonero dall’obbligo di vaccinazione per credenze personali sarebbe stata oggetto di referendum, il cui risultato sarebbe stato influenzato proprio da campagne di disinformazione come quelle che in molte comunità hanno provocato il crollo della percentuale di bambini vaccinati. Per fortuna il tentativo non è riuscito. Ma bisogna riflettere sul fatto che centinaia di migliaia di californiani abbiano sostenuto un referendum su una questione dalle conseguenze rilevanti per la salute pubblica, in cui i dati di fatto sono chiari, ma fortemente fraintesi da alcuni gruppi di attivisti. C’è un motivo per cui ci interessa adottare politiche che tengano conto nel modo migliore delle prove disponibili e reagiscano alle nuove informazioni affidabili. Come è possibile proteggere il benessere pubblico quando così tanti cittadini sono fuorviati su dati di fatto? Difficilmente chi agisce in base a cattive informazioni raggiunge gli obiettivi che desidera, allo stesso modo le società che adottano politiche basate su false credenze hanno poche probabilità di arrivare ai risultati voluti e previsti. Il modo per rispondere a una domanda che riguarda fatti scientifici – i vaccini sono sicuri ed efficaci? – non consiste nel metterla ai voti in una comunità di profani, soprattutto se subiscono pesanti campagne di disinformazione. Abbiamo invece bisogno di un sistema che non solo rispetti procedure e istituzioni della scienza rigorosa considerandola come il miglior modo che abbiamo di imparare la verità sul mondo, ma che rispetti anche i valori alla base della democrazia, che impedirebbero a un singolo gruppo, come gli scienziati, di dettare le politiche. Non abbiamo una proposta di sistema di governo che riesca a bilanciare perfettamente queste esigenze contrastanti. Ma pensiamo che sia fondamentale separare meglio due questioni sostanzialmente diverse: quali sono i fatti, e che cosa dobbiamo fare alla luce dei fatti? Gli ideali democratici impongono che entrambi gli aspetti richiedano sorveglianza pubblica, trasparenza e responsabilità. Ma è solo il secondo – quali decisioni prendere in base ai fatti – che va messo ai voti.
Gli autori Cailin O’Connor è professoressa associata di logica e filosofia della scienza all’Università della California a Irvine. James Owen Weatherall è professore di logica e filosofia della scienza nella stessa università. Le Scienze, n. 209, novembre 2019 26
I quaderni
Più disattenzione che mala fede dietro la diffusione di fake news La maggior parte delle persone che condivide notizie false o fuorvianti sui social media non lo fa quasi mai per faziosità o con intenzioni distruttive, ma perché si affida all’emozione e non si ferma a chiedersi se sono vere e se provengono da una fonte affidabile. A dimostrarlo è una ricerca che suggerisce anche un nuovo modo – oltre alla verifica dei fatti, che rimane fondamentale – per limitare la diffusione delle “bufale”
franckreporter/iStock
di David Rand e Gordon Pennycook
Fake news e disinformazione sono una fonte di preoccupazione costante fin dalle elezioni presidenziali statunitensi del 2016. Malgrado la maggiore consapevolezza e un (apparente) interesse delle aziende di social media, il problema sembra tutt’altro che risolto. Basti pensare alla proliferazione di contenuti falsi su COVID-19, con la loro probabile influenza sulla scelta di vaccinarsi, e alla disinformazione sulle elezioni presidenziali del 2020, che ha avuto quasi certamente un ruolo cruciale Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
nell’assalto a Capitol Hill dello scorso 6 gennaio. Si è tentati di concludere che viviamo in un mondo di “post-verità”, in cui la gente è incapace di distinguere fra la finzione e i fatti, o li ignora volontariamente e condivide falsità in piena consapevolezza. Non è una questione oziosa: se fosse davvero così, le nostre democrazie sarebbero in serio pericolo, e forse l’unica opzione che avremmo sarebbe quella di accettare (e perfino sollecitare) una stretta censura delle falsità da parte dei gestori dei social media.
27
I quaderni
Sigrid Olsson/AGF
Un problema di attenzione Per fortuna un nuovo lavoro pubblicato su “Nature” mette in discussione questo modo di vedere. La nostra ricerca mostra che la maggior parte di noi non desidera condividere informazioni inesatte (anzi, l’80 per cento circa degli intervistati considera molto importante condividere on line solo contenuti corretti), e in molti casi nel complesso riesce a distinguere abbastanza bene le notizie fondate da quelle false e fuorvianti (iper faziose). Stando ai risultati ottenuti, non sono le scelte di parte a impedire di distinguere i contenuti veri da quelli falsi, ma piuttosto la solita vecchia pigrizia mentale. Si crede nelle fake news quando ci si affida a intuizioni ed emozioni personali, e quindi non si riflette abbastanza su ciò che si sta leggendo: un problema più che esacerbato dai social media, che si scorrono in fretta e distraggono con una valanga di informazioni e notizie mescolate a contenuti emotivamente coinvolgenti (foto di bambini, video di gatti eccetera). Ciò significa che l’ascesa della disinformazione on line non è un problema dovuto a un cambiamento nel nostro atteggiamento nei confronti della verità quanto a un cambiamento più sottile nell’attenzione che le accordiamo. C’è una forte disconnessione tra ciò che la gente crede e ciò che condivide. Per esempio, in uno studio è stato chiesto ad alcuni partecipanti di condividere vari titoli di notizie, e ad altri di giudicarne l’accuratezza. Abbiamo scoperto Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
che i titoli infondati condivisi erano il 50 per cento in più dei titoli falsi valutati come corretti. La domanda quindi è: perché? La risposta è ovvia: le piattaforme dei social media sono, appunto, sociali. Concentrano la nostra attenzione sugli aspetti sociali: quante interazioni otterranno i nostri post, quanto piaceranno ai nostri amici, cosa lasciano trapelare della nostra identità, e così via. Queste considerazioni possono distrarci al punto da tralasciare di soffermarci sull’attendibilità della notizia prima di condividerla, un atteggiamento senz’altro favorito dagli algoritmi che governano questi mezzi di comunicazione, che sono ottimizzati per ottenere una massima interazione e non certo la verità. Un approccio alternativo Ma c’è una buona notizia! Se l’impostazione attuale dei social media distoglie l’attenzione dalla correttezza, allora un’impostazione alternativa potrebbe riportarla verso la verità. Con un approccio di questo tipo faremmo un passo cruciale nella lotta alla disinformazione on line. A differenza dei consueti approcci educativi e della verifica dei fatti (che, sia chiaro, resta fondamentale), degli stimoli che spingano a riflettere sull’attendibilità di una notizia non richiedono specialisti di verifiche al passo con il flusso continuo di menzogne prodotte. Né serve che gli utenti investano
28
I quaderni
grandi quantità di tempo a interagire con strumenti educativi: per spostare l’attenzione sulla veridicità può bastare una semplice domanda. Abbiamo effettuato un ampio esperimento pratico su Twitter, che è consistito nell’inviare un semplice richiamo alla correttezza a oltre 5000 utenti che di recente avevano condiviso link da Breitbart o Infowars [testate online della destra americana estrema o alternativa, NdT.]. Il nostro intervento non forniva informazioni nuove, né invitava esplicitamente a essere più accurati o attenti alle fake news. Ci siamo limitati a chiedere l’opinione dei partecipanti sulla correttezza di una singola notizia non politica. Il nostro scopo non era ottenere una risposta, ma ricordare con la domanda il concetto di correttezza delle informazioni (che, come abbiamo visto, la grande maggioranza delle persone ritiene importante). Abbiamo scoperto che quella sola domanda migliorava la qualità media delle fonti condivise successivamente dagli utenti su Twitter. Per esempio, nelle 24 ore successive riduceva la frazione di retweet contenenti link a Breibart, e aumentava la percentuale di retweet a siti come il “New York Times” e la CNN. Altri esperimenti basati su sondaggi hanno evidenziato risultati simili. Per esempio, in uno studio di approfondimento con i ricercatori di Jigsaw, una filiazione di Google, abbiamo scoperto che anche molti altri approcci volti a spostare l’attenzione sulla correttezza aumentano in modo efficace la qualità delle notizie condivise. L’effetto vale anche per notizie su COVID-19 e per quelle politiche, e riguarda tanto i democratici quanto i repubblicani. È evidente che i richiami alla correttezza non basteranno a risolvere il problema della disinformazione. Ma rappresentano un nuovo strumento su cui le piattaforme possono far leva per giocare d’anticipo invece di limitarsi al ruolo di inseguitori verificando i fatti solo dopo che sono stati condivisi, o censurandoli solo quando la situazione è sfuggita di mano. Per questo nuovo approccio serve però un nuovo modo di considerare il problema, accettando il fatto che è legato alla psicologia degli utenti, spesso spinta alle sue estreme conseguenze proprio dai social media. Ciò significa che per progettare interventi efficaci bisognerà tenere conto della psicologia e delle scienze cognitive. I richiami alla correttezza dell’informazione non valgono solo per i social media. Anche organizzazioni civiche e no profit potrebbero applicare questo metodo, per esempio con pubblicità mirate a far comparire i richiami soprattutto a quegli utenti più a rischio di condividere fake news (anziani, o chi frequenta noti siti di disinformazione), un approccio che abbiamo sviluppato in collaborazione con Reset, iniziativa gestita da Luminate. Anche ciascuno di noi, come singolo cittadino, può contribuire a migliorare la natura del dialogo on line in
due modi: diffondendo l’idea che spesso ci disinteressiamo dell’accuratezza delle informazioni, e che è importante fermarsi a riflettere sulla verità di una notizia prima di condividerla; e naturalmente facendolo noi stessi quando condividiamo un contenuto con il mondo. Viviamo in un’epoca in cui la disinformazione è un problema grave che riguarda quasi tutti, anche molti di coloro che (involontariamente) la condividono. Noi stessi, ricercatori che si occupano dell’argomento, siamo caduti nella trappola e abbiamo condiviso contenuti inaccurati senza riflettere. Comprendere che si tratta più di un problema di disattenzione che di un cattivo comportamento volontario, fa apparire meno minaccioso il futuro, ci aiuta a guardare oltre l’illusione che i cittadini dall’altra parte siano sempre solo o stupidi o malintenzionati, e ci guida alla ricerca di soluzioni concrete.
Gli autori David Rand è docente di gestione della scienza e di scienze cognitive al MIT. Gordon Pennycook è assistant professor di scienze del comportamento alla University of Regina’s Hill/Levene Schools of Business (L’originale di questo articolo è stato pubblicato su “Scientific American” il 17 marzo 2021. Traduzione di Antonio Casto, editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) www.lescienze.it, 12 aprile 2021
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
29
I quaderni
L’economia dell’attenzione di Filippo Menczer e Thomas Hills
Illustrazione di Cristina Spanò
Capire come algoritmi e manipolatori sfruttano le nostre vulnerabilità cognitive ci permette di reagire
Partiamo da un esempio: quello di Andy, una persona che ha paura di contrarre COVID-19. Dato che non può leggere tutti gli articoli che vede sull’argomento, si affida ai suggerimenti degli amici più fidati. Quando uno di loro sostiene su Facebook che la paura della pandemia è un’esagerazione, Andy all’inizio rifiuta l’idea. Poi però l’albergo in cui lavora chiude i battenti, e con il suo impiego a rischio Andy inizia a chiedersi quanto sia davvero grave la minaccia del nuovo virus. Dopotutto nessuno di quelli che conosce è morto. Un collega segnala un articolo in cui si afferma che lo «spauracchio» di COVID è stato creato da Big Pharma in collusione con alcuni politici corrotti, una tesi che si sposa bene con la sfiducia che Andy prova nei confronti del governo. Una ricerca sul Web lo porta ben presto ad articoli che sostengono che COVID-19 sia non più grave dell’influenza. Su Internet, Andy entra a far parte di un gruppo di persone che sono state licenziate o temono di esserlo e nel giro di poco tempo si ritrova, come molti di loro, a chiedersi: «Ma quale pandemia?». Quando scopre che numerosi suoi nuovi amici intendono Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
partecipare a una manifestazione per chiedere la fine delle misure restrittive anti-COVID, decide di unirsi a loro. In quella grande protesta quasi nessuno indossa la mascherina, e neppure Andy lo fa. Quando sua sorella gli chiede com’è andata la manifestazione, Andy condivide la convinzione che ormai è diventata parte della sua identità: COVID è una bufala. Questo esempio illustra bene il campo minato dei pregiudizi cognitivi. Preferiamo le informazioni che provengono da persone di cui ci fidiamo, dal nostro cosiddetto endogruppo. Prestiamo più attenzione e siamo più portati a condividere le informazioni che riguardano un rischio, nel caso di Andy il rischio di perdere il lavoro. Cerchiamo e ricordiamo cose che si adattano bene con quello che già sappiamo e capiamo. Questi bias sono prodotti del nostro passato evolutivo e per decine di migliaia di anni ci sono stati utili. Le persone che si comportavano seguendo questi bias (per esempio evitando la riva dello stagno, con la sua vegetazione incolta, dove qualcuno aveva detto di aver visto una vipera) avevano
30
I quaderni
maggiori probabilità di sopravvivere rispetto alle persone che non lo facevano. Le tecnologie moderne stanno però amplificando questi bias in modi dannosi. I motori di ricerca indirizzano Andy verso siti web che infiammano i suoi sospetti e i social media lo mettono in contatto con persone che la pensano come lui, alimentando le sue paure. A peggiorare le cose ci sono i bot, ovvero account automatici che sui social media fanno finta di essere persone vere e proprie, permettendo ad altri soggetti, sia quelli che si sbagliano in buona fede sia quelli con intenzioni ostili, di sfruttare la vulnerabilità di Andy. Ad aggravare il problema c’è la proliferazione di informazioni on line. Vedere e produrre blog, video, tweet e altre unità di informazione chiamate meme è diventato così semplice ed economico che il mercato dell’informazione ne è inondato. Poiché non siamo in grado di elaborare tutto questo materiale, permettiamo ai nostri bias cognitivi di decidere a che cosa dovremmo prestare attenzione. Queste scorciatoie mentali influiscono in modo dannoso su quali informazioni cerchiamo, capiamo, ricordiamo e ripetiamo. Comprendere queste vulnerabilità cognitive e il modo in cui gli algoritmi le usano o le manipolano è diventata una necessità urgente. All’Università di Warwick, nel Regno Unito, e all’Observatory on Social Media (OSoMe, da pronunciarsi come la parola inglese awesome, che significa «fantastico») dell’Università dell’Indiana a Bloomington, negli Stati Uniti, i nostri gruppi di ricerca stanno usando esperimenti cognitivi, simulazioni, tecniche di data mining e intelligenza artificiale per capire le vulnerabilità cognitive degli utenti dei social media. Conoscenze ottenute da ricerche di psicologia sull’evoluzione dell’informazione effettuate a Warwick contribuiscono a determinare la progettazione di modelli informatici sviluppati a Bloomington, e viceversa. Stiamo sviluppando anche strumenti analitici e di machine learning (apprendimento automatico) per combattere la manipolazione dei social media. Alcuni di questi strumenti sono già usati da giornalisti, organizzazioni della società civile e singole persone per individuare utenti fittizi, tracciare la diffusione di false narrazioni e favorire l’alfabetizzazione mediatica. Facili bersagli della polarizzazione L’eccesso di informazioni ha generato una forte competizione per ottenere l’attenzione delle persone. L’economista e psicologo Herbert A. Simon, vincitore di un premio Nobel, osservava: «Quello che l’informazione consuma è abbastanza ovvio: consuma l’attenzione di chi la riceve». Una delle prime conseguenze della cosiddetta economia dell’attenzione è la perdita dell’informazione di alta qualità. Il gruppo di ricerca dell’OSoMe ha dimostrato questo risultato con un insieme di semplici simulazioni. Ha rappresentato gli utenti dei social media come Andy, Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
detti agenti, sotto forma di nodi in una rete di individui che si conoscono on line. In ciascun passo temporale della simulazione un agente può generare un meme oppure condividerne uno che ha visto in un feed di notizie. Per simulare i limiti di attenzione, gli agenti possono vedere solo un certo numero di contenuti, partendo dalla cima del loro feed. Lasciando continuare la simulazione per un grande numero di passi, Lilian Weng dell’OSoMe ha scoperto che, dato che l’attenzione degli agenti era ridotta, la propagazione dei meme arrivava a riflettere la stessa distribuzione di legge di potenza esistente sui social media veri: la probabilità che un meme fosse condiviso un certo numero di volte era pari circa all’inverso della potenza di quel numero. Per esempio, la probabilità che un meme fosse condiviso tre volte era inferiore di circa nove volte rispetto alla probabilità che fosse condiviso una volta sola. Questo schema di popolarità dei meme, una sorta di «chi vince piglia tutto» in cui la maggior parte dei contenuti è a malapena notata mentre alcuni rari casi sono disseminati ampiamente, non si può spiegare con il fatto che alcuni siano più accattivanti o in qualche modo abbiano maggior valore: nel mondo della simulazione i meme non avevano alcuna qualità intrinseca. La viralità era semplicemente il risultato delle conseguenze statistiche della proliferazione di informazioni in una rete sociale di agenti caratterizzati da un’attenzione limitata. Anche quando gli agenti condividevano in via preferenziale i meme di qualità più alta, la ricercatrice Xiaoyan Qiu, che in quel periodo lavorava all’OSoMe, ha osservato uno scarso miglioramento nella qualità complessiva dei meme più condivisi. I nostri modelli hanno rivelato che anche quando desideriamo vedere e condividere informazioni di alta qualità, la nostra incapacità di vedere tutto quello che c’è sui nostri feed ci porta inevitabilmente a condividere cose parzialmente o completamente false. I bias cognitivi peggiorano di molto il problema. In una serie di studi rivoluzionari nel 1932, lo psicologo Frederic Bartlett raccontò ad alcuni volontari una leggenda dei nativi americani a proposito di un giovane uomo che sente grida di guerra e, inseguendole, si ritrova dentro una battaglia onirica che alla fine porta alla sua morte vera. Bartlett chiese ai volontari, che non erano nativi americani, di ripetere quella storia piuttosto confusa dopo intervalli di tempo crescenti, da pochi minuti fino a qualche anno dopo. Scoprì che, con il passare del tempo, i soggetti tendevano a distorcere le parti della storia che culturalmente erano più distanti da loro e quindi quelle componenti erano smarrite del tutto oppure trasformate in cose più familiari. Oggi sappiamo che la nostra mente fa così in continuazione: corregge la nostra comprensione delle nuove informazioni in modo che si adattino a quello che già sappiamo. Una conseguenza di questo cosiddetto bias di conferma è che 31
I quaderni
Sovraccarico di informazioni Spesso i nostri feed sui social media sono così pieni che molti di noi riescono a vedere solo i primi contenuti,da cui poi scegliamo che cosa condividere o ritwittare. Alcuni ricercatori dell’Observatory on Social Media (OSoMe) di Bloomington, negli Stati Uniti, Pochi Il carico di informazioni è basso e la qualità delle informazioni condivise è alta
hanno generato una simulazione che tiene conto di questa limitata capacità di attenzione. Ciascun nodo di questo modello rappresenta un utente, collegato da linee ad amici o follower, che ricevono i contenuti che quell’utente condivide. I ricercatori hanno scoperto che
via via che aumenta il numero di meme presenti in rete (verso destra), crolla la qualità di quelli che si propagano di più (i cerchi diventano più piccoli). In altre parole, il sovraccarico di informazioni da solo basta a spiegare come possano diventare virali le fake news.
Numero di meme diversi in gioco
Tanti Il carico di informazioni è alto e la qualità delle informazioni condivise è bassa
Colori diversi rappresentano meme diversi Meme A Meme B Meme C
Ciascun pallino rappresenta un account sui social media
La dimensione dei pallini indica la qualità dell’ultimo meme condiviso Alta Bassa
Le linee rappresentano i collegamenti tra account
Fonte: Limited Individual Attention and Online Virality of Low-Quality Information, di Qiu, X. e altri, in «Nature Human Behaviour», Vol. 1, giugno 2017.
spesso le persone cercano, ricordano e comprendono le informazioni che più corroborano quello in cui già credono. Questa tendenza è estremamente difficile da correggere. Diversi esperimenti hanno dimostrato ripetutamente che anche quando si trovano di fronte a informazioni equilibrate che contengono prospettive diverse, le persone tendono a trovare prove a sostegno di quello in cui già credono. E quando si mostrano le stesse informazioni a individui che hanno convinzioni divergenti su argomenti con forte carica emotiva, come per esempio il cambiamento climatico, entrambe le parti diventano ancora più convinte delle rispettive posizioni iniziali. A peggiorare le cose, i motori di ricerca e le piattaforme di social media offrono raccomandazioni personalizzate che si basano sulle enormi quantità di dati che hanno sulle preferenze passate dei singoli utenti. Nei nostri feed danno la priorità a quelle informazioni con cui saremo più probabilmente d’accordo (indipendentemente da quanto siano estreme) e ci proteggono da quelle informazioni che potrebbero farci cambiare idea. Questo ci rende facili bersagli della polarizzazione. Di recente Nir Grinberg e i suoi collaboratori alla Northeastern University hanno dimostrato che i conservatori statunitensi sono più ricettivi Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
alla disinformazione, però la nostra analisi sul consumo di informazioni di bassa qualità su Twitter dimostra che questa vulnerabilità c’è lungo tutto lo spettro delle posizioni politiche, fino a entrambe le estremità, e che nessuno ne è del tutto al riparo. Addirittura la nostra capacità di accorgerci dei tentativi di manipolazione on line è influenzata dalla nostra appartenenza politica, anche se non in modo simmetrico: gli utenti repubblicani hanno maggiori probabilità di scambiare i bot che promuovono idee conservatrici per esseri umani, mentre i democratici hanno maggiori probabilità di scambiare gli utenti umani conservatori per bot. Greggi social A New York, un giorno dell’agosto 2019, alcune persone iniziarono a scappare da quelli che sembravano colpi di arma da fuoco. Altre persone seguirono le prime, alcune gridando «Sparano!». Solo più tardi si sarebbe scoperto che i colpi erano causati dal ritorno di fiamma di una motocicletta. In una situazione del genere, correre subito e fare domande solo in un secondo momento può essere una buona idea. In assenza di segnali chiari, il nostro cervello usa le informazioni che ha a proposito della folla per 32
I quaderni
Inquinamento da bot I bot, ovvero account automatici che fingono di essere utenti umani, riducono di molto la qualità dell’informazione sui social network. In una simulazione al computer, alcuni ricercatori dell’OSoMe hanno inserito nel social network alcuni bot (modellizzati
come agenti che twittano solo meme di qualità zero e si ritwittano solo a vicenda). In questo modo gli scienziati hanno scoperto che quando meno dell’1 per cento degli utenti umani segue i bot, la qualità dell’informazione è alta (a sinistra); invece quando la percentuale di
Basso
Livello di infiltrazione dei bot
Quando l’infiltrazione dei bot è bassa, la qualità generale delle informazioni condivise è alta
infiltrazione dei bot supera l’1 per cento l’informazione di bassa qualità si propaga in tutta la rete (a destra). Nelle reti sociali vere possono bastare pochi voti positivi dati dai bot quando un contenuto è stato pubblicato da poco per far diventare virale una fake news. Alto Quando l’infiltrazione dei bot è alta, la qualità generale delle informazioni condivise è bassa
La sfumatura di colore rappresenta la qualità delle informazioni condivise
Ciascun pallino rappresenta un account sulle reti sociali
Alto Basso
I pallini gialli sono bot (account automatici)
La dimensione dei pallini rappresenta l’influenza (numero di follower autentici) Le linee e la vicinanza tra pallini rappresentano i collegamenti tra account
determinare le azioni più appropriate, un po’ come avviene nel comportamento dei pesci in un banco o degli uccelli in uno stormo. Questo conformismo sociale tende a pervadere ogni cosa. In un interessante studio del 2006 che ha coinvolto 14.000 volontari sul Web, Matthew Salganik, all’epoca alla Columbia University, e i suoi colleghi hanno scoperto che quando possono vedere quali canzoni scaricano gli altri utenti le persone finiscono per scaricare musica simile. Inoltre, quando i volontari erano divisi in gruppi «sociali», in cui potevano vedere le preferenze degli altri membri del loro circolo ma non avevano alcuna informazione a proposito degli esterni, le scelte dei vari gruppi si differenziavano rapidamente. Invece le scelte dei gruppi «non sociali», in cui nessuno sapeva niente delle scelte altrui, rimanevano relativamente stabili. In altre parole i gruppi sociali producono una pressione così forte verso il conformismo che riesce a superare le preferenze individuali e, amplificando quelle che in una fase iniziale sono differenze casuali, può portare gruppi separati a differenziarsi fino all’estremo. I social media seguono una dinamica simile. Confondiamo la popolarità con la qualità e finiamo per copiare i Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Grafico di Filippo Menczer
I pallini rosa sono account autentici
Alto Basso
comportamenti che vediamo. Esperimenti condotti su Twitter da Bjarke Mønsted e suoi colleghi alla Technical University of Denmark e all’University of Southern California indicano che le informazioni si trasmettono per «contagio complesso»: quando siamo esposti ripetutamente a un’idea, in genere da molte fonti diverse, è più probabile che la facciamo nostra e la condividiamo. Questo bias sociale è ulteriormente amplificato da quello che gli psicologi chiamano effetto della «mera esposizione»: quando una persona è esposta ripetutamente agli stessi stimoli, per esempio a certi volti, inizia ad apprezzare quegli stimoli di più rispetto a quelli con cui è entrata in contatto meno spesso. Questi bias si traducono in un desiderio irresistibile di prestare attenzione alle informazioni che diventano virali: se tutti ne parlano, deve essere qualcosa di importante. Oltre a mostrarci cose che si conformano alle nostre opinioni, le piattaforme di social media come Facebook, Twitter, YouTube e Instagram mettono in cima i contenuti più popolari e ci fanno vedere quante persone hanno messo like e hanno condiviso un certo contenuto. Pochi di noi si rendono conto che queste indicazioni non implicano una valutazione indipendente di qualità. 33
I quaderni
Uno studio che ha analizzato gli utenti di Twitter valutandone l’inclinazione politica ha scoperto che sia i liberali sia i conservatori finiscono per condividere informazioni da siti che pubblicano ripetutamente notizie con bassi livelli di affidabilità (identificate come tali da esperti di fact-checking indipendenti). Tuttavia gli utenti conservatori sono leggermente più suscettibili a condividere fake news. Su questo grafico sono riportati più di 15.000 utenti Twitter. La dimensione di ciascun pallino rappresenta il numero di account (da 1 a 429) che condividono le stesse coordinate in termini di posizione politica e disinformazione 1
Alto Percentuale di tweet per utente usati per condividere link da fonti poco affidabili Basso Rischio di diffusione della disinformazione
Vulnerabilità alle fake news
100
75
50
25
0 Estremamente liberale
Centrista
Estremamente conservatore
Posizione politica dell’utente (dedotta a partire dall’insieme di fonti di notizie condivise dall’utente)
429
Grafico di Jen Christiansen; fonte: Dimitar Nikolov e Filippo Menczer (dati)
In effetti, i programmatori che progettano gli algoritmi che calcolano la classifica dei meme sui social media presumono che la «saggezza della folla» identifichi rapidamente i contenuti di alta qualità e usano la popolarità come indicatore approssimativo della qualità. La nostra analisi di enormi quantità di dati anonimi sui clic mostra che tutte le piattaforme (social media, motori di ricerche e siti di notizie) ci presentano in modo preferenziale informazioni da un esiguo sottoinsieme di fonti popolari. Per capirne il motivo abbiamo creato un modello che riproduce come queste piattaforme combinano gli indicatori di qualità e di popolarità nel determinare le loro classifiche. In questo modello gli agenti con attenzione limitata (quelli che vedono solo un certo numero di contenuti in cima al loro feed) hanno anche più probabilità di cliccare sui meme che la piattaforma ha messo più in alto nella classifica. Ogni contenuto è dotato di una qualità intrinseca, come pure di un livello di popolarità determinato da quante volte qualcuno lo ha cliccato. Un’altra variabile tiene traccia di quanto la classifica sia basata sulla popolarità piuttosto che sulla qualità. Le simulazioni condotte con questo modello rivelano che questi bias insiti negli algoritmi di solito sopprimono la qualità dei meme anche in assenza di bias umani. Anche quando vogliamo condividere le informazioni migliori, gli algoritmi finiscono per portarci fuori strada. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Camere dell’eco La maggior parte di noi non crede di seguire il gregge. Tuttavia il nostro bias di conferma ci porta a seguire quelli che sono simili a noi, in una dinamica che è volte è chiamata omofilia: la tendenza delle persone che la pensano allo stesso modo a instaurare un rapporto tra loro. I social media amplificano l’omofilia, perché permettono agli utenti di modificare la struttura della propria rete sociale seguendo qualcuno, togliendo l’amicizia a qualcun altro e così via. Il risultato è che le persone finiscono per separarsi in grandi comunità dense e sempre più disinformate, spesso definite camere dell’eco. All’OSoMe abbiamo studiato l’emergere delle camere dell’eco con un’altra simulazione, chiamata EchoDemo. In questo modello ciascun agente ha un’opinione politica, rappresentata da un numero che va da –1 (liberale, per esempio) a +1 (conservatore). Nei post dei vari agenti si riflettono queste inclinazioni. Gli agenti sono inoltre influenzati dalle opinioni che vedono nei loro feed e possono decidere di non seguire più gli utenti con opinioni diverse dalle loro. Partendo inizialmente da reti e opinioni casuali abbiamo scoperto che l’influenza sociale abbinata alla possibilità di non seguire più qualcuno accelera di molto la formazione di comunità polarizzate e separate. In effetti su Twitter le camere dell’eco relative alle opinioni politiche sono così estreme che è possibile prevedere con un alto livello di accuratezza la posizione politica di singoli
34
I quaderni
utenti: ciascuno ha le stesse opinioni della maggioranza dei suoi contatti. Questa struttura a compartimenti è efficiente nel diffondere l’informazione all’interno di una comunità mentre allo stesso tempo isola quella comunità rispetto ad altri gruppi. Nel 2014 il nostro gruppo di ricerca è stato oggetto di una campagna di disinformazione secondo cui facevamo parte di un progetto politico che aveva l’obiettivo di sopprimere la libertà di parola. Questa falsa accusa si è diffusa in modo virale nella camera dell’eco conservatrice, mentre gli articoli dei cacciatori di bufale che la confutavano si trovavano soprattutto nella comunità liberale. Purtroppo questa separazione tra fake news e articoli che le confutano è la norma. I social media possono anche aumentare la nostra negatività. In un recente studio in laboratorio, Robert Jagiello, anche lui a Warwick, ha osservato che le informazioni socialmente condivise non solo rinforzano i nostri bias ma diventano anche più resistenti alla correzione. Jagiello ha studiato come le informazioni passano da una persona all’altra in una cosiddetta catena di diffusione sociale. Nell’esperimento, la prima persona della catena leggeva una serie di articoli sull’energia nucleare oppure sugli additivi alimentari. I brani erano stati scelti in modo che fossero equilibrati, includendo informazioni positive (per esempio sul calo dell’inquinamento da anidride carbonica, oppure sull’aumento del periodo di conservazione degli alimenti) che altrettante informazioni negative (per esempio sul rischio di meltdown nucleare o sui possibili danni alla salute causati dagli additivi). La prima persona nella catena di diffusione sociale faceva conoscere gli articoli alla seconda, questa ne parlava con la terza e così via. Abbiamo osservato un aumento complessivo della quantità di informazioni negative via via che si procedeva lungo la catena: è quella che si dice l’amplificazione sociale del rischio. Inoltre un lavoro di Danielle J. Navarro e colleghi all’Università del Nuovo Galles del Sud, in Australia, ha scoperto che in una catena di diffusione sociale le informazioni sono maggiormente suscettibili di distorsione da parte delle persone con i bias più estremi. Peggio ancora, la diffusione sociale rende le informazioni negative anche più «appiccicose». Quando in seguito Jagiello ha presentato alle persone che componevano quelle catene di diffusione sociale le informazioni originali e bilanciate (le informazioni che aveva letto la prima persona della catena), quelle stesse informazioni hanno aiutato poco nel ridurre l’atteggiamento negativo dei soggetti. L’informazione passata tramite le persone non era diventata solo più negativa, ma anche più resistente al cambiamento. Uno studio effettuato nel 2015 dai ricercatori dell’OSoMe Emilio Ferrara e Zeyao Yang ha analizzato i dati empirici relativi a un «contagio emotivo» di questo genere su Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Twitter e ha scoperto che le persone sovraesposte ai contenuti negativi tendono a condividere post negativi, mentre quelle sovraesposte ai contenuti positivi tendono a condividere post più positivi. Dato che i contenuti negativi si diffondono più rapidamente rispetto a quelli positivi, è facile manipolare le emozioni creando storie che generano risposte negative come paura e ansia. Ferrara, che oggi lavora alla University of Southern California e suoi colleghi alla Fondazione Bruno Kessler, in Italia, hanno dimostrato che durante il referendum sull’indipendenza catalana del 2017 i bot erano stati usati sui social per ritwittare le storie più violente e mirate a infiammare gli animi, storie che così aumentavano la propria esposizione ed esasperavano il conflitto sociale. L’ascesa dei bot La qualità delle informazioni è ulteriormente compromessa dai bot sociali, che riescono a sfruttare tutte le nostre falle cognitive. I bot sono facili da creare. Le piattaforme dei social media mettono a disposizione le cosiddette API (application programming interfaces), con cui è abbastanza banale per un singolo soggetto impostare e controllare migliaia di bot. Però amplificare un messaggio, anche solo con pochi voti positivi dati dai bot quando un contenuto è stato pubblicato da poco su piattaforme come Reddit, può avere un impatto enorme sulla successiva popolarità di un post. All’OSoMe abbiamo sviluppato algoritmi di machine learning per identificare i bot sociali. Uno di questi, chiamato Botometer, è uno strumento a disposizione del pubblico, che estrae da un account Twitter 1200 parametri che ne descrivono profilo, amici, struttura sociale sulla rete, periodi ricorrenti di attività, lingua e altro ancora. Il programma confronta queste caratteristiche con quelle di decine di migliaia di bot già identificati in precedenza e dà all’account un punteggio che descrive la probabilità che quell’account faccia uso di automazione. Secondo una stima che abbiamo elaborato nel 2017, fino al 15 per cento degli account attivi su Twitter erano bot, e avevano avuto un ruolo chiave nella diffusione di informazioni false durante la campagna elettorale statunitense del 2016. Quando una fake news faceva la sua comparsa (per esempio quella che sosteneva che la campagna di Hillary Clinton facesse uso di riti occultisti), nel giro di pochi secondi era twittata da molti bot, e a seguire anche gli esseri umani, ammaliati dall’apparente popolarità di quel contenuto, lo ritwittavano. I bot ci influenzano anche fingendo di essere persone del nostro endogruppo. Un bot non deve fare altro che seguire, mettere like e ritwittare qualcuno che fa parte di una comunità on line per infiltrarsi rapidamente nel gruppo. La ricercatrice dell’OSoMe Xiaodan Lou ha sviluppato un altro modello in cui alcuni agenti sono bot che si sono infiltrati 35
I quaderni
in una rete sociale e condividono contenuti di bassa qualità ma che sembrano interessanti, tipo acchiappa-clic. Un parametro del modello descrive la probabilità che un agente vero segua i bot, che ai fini di questo modello sono definiti come agenti che generano meme di qualità zero e si ritwittano solo a vicenda. Le nostre simulazioni dimostrano che questi bot riescono efficacemente ad annullare la qualità dell’informazione dell’intero ecosistema infiltrandosi solo in una piccola parte della rete. I bot inoltre possono accelerare la formazione di camere dell’eco suggerendo altri account falsi da seguire, una tecnica chiamata «creare follow train». Alcuni manipolatori lavorano contemporaneamente su entrambi i lati di una barricata, usando bot e siti di fake news per manovrare la polarizzazione politica oppure per guadagnare con gli annunci pubblicitari. All’OSoMe abbiamo scoperto di recente una rete di account falsi su Twitter, tutti coordinati dallo stesso soggetto: alcuni fingevano di essere sostenitori di Donald Trump nella campagna «Make America Great Again», mentre altri si atteggiavano a «resistenti» contro Trump, e tutti chiedevano donazioni. Operazioni di questo genere amplificano i contenuti che sfruttano i bias di conferma e accelerano la formazione di camere dell’eco polarizzate. Frenare la manipolazione on line Capire i nostri bias cognitivi e il modo in cui algoritmi e bot li sfruttano ci permette di proteggerci meglio contro la manipolazione. L’OSoMe ha creato diversi strumenti per aiutare le persone a capire le proprie vulnerabilità e le debolezze delle piattaforme social. Uno di questi strumenti è un’app per dispositivi mobili chiamata Fakey, che aiuta gli utenti a imparare a individuare la disinformazione. Il gioco simula un feed di social media con articoli veri provenienti da fonti molto oppure poco attendibili. Gli utenti devono decidere che cosa possono condividere, che cosa farebbero meglio a non condividere e che cosa andare a verificare. L’analisi dei dati di Fakey conferma la prevalenza di greggi sui social: è più probabile che gli utenti condividano articoli da fonti poco affidabili se credono che siano già stati condivisi da tante altre persone. Un altro programma disponibile per il pubblico, Hoaxy, mostra come qualsiasi meme esistente si diffonde su Twitter. In questa visualizzazione i nodi rappresentano gli account su Twitter e i collegamenti rappresentano il propagarsi di un meme da un account all’altro tramite retweet, citazioni, menzioni e risposte. Ogni nodo ha un colore che ne rappresenta il punteggio calcolato da Botometer, il che permette agli utenti di vedere fino a che punto i bot amplifichino la disinformazione. Questi strumenti sono stati usati da giornalisti investigativi per scoprire le radici di campagne di disinformazione, come quella che sosteneva la teoria del complotto chiamata Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
pizzagate negli Stati Uniti. Hanno anche aiutato a identificare iniziative che usavano i bot per impedire agli elettori di votare nelle elezioni di midterm negli Stati Uniti nel 2018. Però via via che gli algoritmi di machine learning diventano più bravi a emulare il comportamento umano, la manipolazione diventa sempre più difficile da individuare. Oltre a diffondere fake news, le campagne di disinformazione possono anche distogliere l’attenzione da altri problemi più gravi. Per combattere questo tipo di manipolazione, di recente abbiamo sviluppato un programma chiamato BotSlayer. Questo programma estrae hashtag, link, account e altri elementi che si presentano congiuntamente nei tweet relativi ad argomenti che l’utente vuole studiare. Per ciascun elemento, BotSlayer traccia i tweet, gli account da cui sono stati postati e il punteggio bot di questi ultimi, per segnalare quegli elementi di tendenza che probabilmente sono amplificati da bot oppure da account coordinati. L’obiettivo è permettere a giornalisti, organizzazioni della società civile e candidati politici di individuare e tracciare le campagne false in tempo reale. Questi strumenti software sono mezzi importanti, ma per bloccare la proliferazione delle fake news sono necessari anche cambiamenti a livello istituzionale. L’insegnamento può aiutare, anche se è improbabile che copra tutti gli argomenti su cui le persone vengono ingannate. Alcuni governi e piattaforme social stanno anche cercando di dare un giro di vite alla manipolazione on line e alle fake news. Ma chi è che decide che cosa sia falso o manipolativo e che cosa no? Si possono corredare le informazioni con avvisi come quelli che hanno iniziato a mettere Facebook e Twitter, ma le persone che inseriscono gli avvisi sono davvero affidabili? Il rischio che questo tipo di misure porti deliberatamente o inavvertitamente alla soppressione della libertà di parola, che è vitale per democrazie solide, è reale. Il predominio di alcune piattaforme social di portata globale e con stretti legami con i governi complica ulteriormente le possibilità. Una delle idee migliori è forse rendere più difficile la creazione e la condivisione di informazioni di bassa qualità. Per farlo si potrebbe introdurre una forma di dissuasione, facendo in modo che le persone debbano pagare per condividere o ricevere informazioni. Il pagamento potrebbe avvenire sotto forma di tempo, impegno mentale con test da risolvere, oppure microcommissioni per l’abbonamento o l’uso. I post automatici sarebbero trattati come la pubblicità. Alcune piattaforme stanno già inserendo una forma di dissuasione, per quanto minima, con l’uso di CAPTCHA e procedure di verifica via smartphone per accedere agli account. Twitter ha imposto limiti alla pubblicazione di post automatici. Questi sforzi si potrebbero ampliare per portare gradualmente a incentivare la condivisione di quelle informazioni che hanno più valore per i consumatori. 36
I quaderni
La comunicazione libera non è gratuita. Abbassando il costo dell’informazione ne abbiamo abbassato il valore e abbiamo aperto le porte alla sua adulterazione. Per rimettere in salute il nostro ecosistema informativo dobbiamo comprendere le vulnerabilità delle nostre menti sopraffatte e il modo in cui l’economia dell’informazione può essere usato a nostro vantaggio per proteggerci da chi vuole indurci in errore.
Gli autori Filippo Menczer è distinguished professor di informatica e scienze dell’informazione e direttore dell’Observatory on Social Media all’Università dell’Indiana. Studia la diffusione della disinformazione e sviluppa strumenti per combattere la manipolazione dei social media. Thomas Hills è professore di psicologia e direttore del corso di laurea magistrale in scienze del comportamento e dei dati presso l’Università di Warwick, nel Regno Unito. Nella sua ricerca affronta l’evoluzione della mente e dell’informazione. Le Scienze, n. 630, febbraio 2021
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
37
I quaderni
Gli algoritmi e la polarizzazione La formazione di gruppi segregati tra loro sui social media è alimentata dagli algoritmi che selezionano i contenuti da mostrare agli utenti di Walter Quattrociocchi
Assalto al Parlamento. Dimostranti pro-Trump a Capitol Hill, a Washington, il 6 gennaio 2021. La manifestazione, che contestava la sconfitta di Donald Trump alle presidenziali di novembre 2020, è stata possibile anche grazie a una mobilitazione sui social media. (Brent Stirton/Getty Images)
A gennaio, il Campidoglio di Washington è stata preso d’assalto da parte di facinorosi dando un’immagine folcloristica, per non dire surreale, degli Stati Uniti. Il gruppo che ne è stato protagonista non aveva accettato l’esito delle ultime elezioni presidenziali statunitensi e aveva avuto così la geniale idea di occupare il Parlamento in tenuta da gita scolastica con armi al seguito. Poco prima dell’assalto, il presidente uscente Donald Trump aveva sollecitato i suoi follower tramite i social, e questi avevano reagito di conseguenza. Il gesto, in contrasto con gli standard delle piattaforme, ha causato la chiusura dei suoi profili social su Facebook e su Twitter. Il primo caso al mondo di presidente degli Stati Uniti in carica espulso dall’ambiente in cui aveva costruito la sua Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
immagine. Sui social e sulla stampa, la decisione è stata l’occasione per accorate discussioni tra chi lo riteneva giusto e chi un atto di censura. L’esempio perfetto di un effetto di estremizzazione del dibattito tipico del Web: la polarizzazione, termine diventato ormai di uso comune. In rete, infatti, ogni argomento diventa divisivo e materia di intricati contrasti, diverbi, dibattiti, dispute. Ognuno di noi è fortemente intenzionato a elencare le sue ragioni. Che si parli di Trump, di cambiamento climatico, di vaccini o di musica, le dinamiche sono quasi sempre le stesse. In questa cornice il ruolo delle piattaforme diventa centrale. C’è chi ha già notato che la loro forza e influenza è imponente, ma quello che non è chiaro è quali siano i criteri
38
I quaderni
Più o meno segregati in gruppi su Twitter e Facebook sia molto più preponderante la segregazione di utenti in gruppi aventi lo stesso orientamento, come mostrano le due aree colorate separate. L’effetto è assai meno marcato su Gab e su Reddit, per i quali c’è una singola area colorata.
1,0
1,0
0,5
0,5
Orientamento vicinato
0,0
-0,5
-1,0
0,0
-0,5
-1,0
-1
0
1
-1
0
1
Orientamento utente Reddit
1,0
1,0
0,5
0,5
Orientamento vicinato
Orientamento vicinato
Orientamento utente Twitter
0,0
-0,5
-1,0
Cortesia Walter Quattrociocchi (tutte le immagini, 4)
Orientamento vicinato
In queste illustrazioni vediamo come varia l’orientamento degli utenti rispetto a vari argomenti su Facebook, Twitter, Reddit e Gab. Sulle X abbiamo l’orientamento del singolo utente, mentre sulle Y l’orientamento dei suoi vicini. Si vede chiaramente come
0,0
-0,5
-1,0
-1
0
1
-1
Orientamento utente Facebook
0
1
Orientamento utente Gab
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
con cui forza e influenza sono applicate. I social media come Facebook, Instagram o Twitter hanno radicalmente cambiato il modo in cui discutiamo, accediamo alle informazioni e comunichiamo con gli altri. Un tempo la selezione dei contenuti avveniva tramite rituali ben strutturati e gerarchici. La redazione selezionava le Scienze
gli argomenti, che sarebbero poi stati trattati dal giornale, e che quindi sarebbero diventati argomento di interesse e di discussione tra i lettori una volta pubblicati. E questo era valido anche per altri mezzi di comunicazione, come la televisione e la radio. La situazione si è fatta molto più articolata e più fluida con
39
I quaderni
Come nascono le tribù
1,0
1,0
0,5
0,5
0,0
-0,5
-1,0
0
1
-0,5
-1
Orientamento utente Facebook
l’avvento di Internet. Una fluidità che alcuni hanno definito conseguenza della disintermediazione, quel fenomeno per cui si può accedere alle informazioni senza nessuno a fare cernita e selezione. In ogni caso anche questa interpretazione non è completamente corretta. La quantità di contenuti a cui è possibile accedere si è fatta enorme e la mediazione c’è ancora, ma la fanno i nostri gusti e gli algoritmi di feed che cercano di proporci contenuti per noi gradevoli. I social, inizialmente progettati per scopi ludici e di intrattenimento, sono ottimizzati per catturare l’attenzione dell’utente per vendere la pubblicità il più mirata possibile ai gusti dei singoli utenti. Si instaura, quindi, un modello di business molto semplice: la moneta per cui si compete in questo nuovo ecosistema informativo è l’attenzione dell’utente. L’interazione sul social network è dunque costruita in modo da prolungare la permanenza e renderla piacevole. Con queste premesse, non è difficile immaginare che i social non siano il luogo ideale per l’approfondimento e per le discussioni puntuali. Non dovrebbe neanche stupire che, a oggi, l’immagine con più like su Instagram sia quella di un uovo. Sui social infatti circolano i meme, le battute sagaci (altre volte meno), le boiate, gli scherzi, i video e i messaggi le Scienze
0,0
-1,0
-1
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
Cortesia Walter Quattrociocchi (tutte le immagini, 2)
Su Facebook c’è una spiccata tendenza a interagire con utenti con uno stesso orientamento, eventualità che invece è assai meno presente su Reddit, come mostrano le aree colorate: discontinue per Facebook, continue per Reddit. La differenza tra i due è che uno, Facebook, adotta algoritmi di feed per proporre contenuti agli utenti, Reddit no.
Orientamento vicinato
Orientamento vicinato
In queste illustrazioni ci concentriamo sul consumo delle news da parte degli utenti. Sull’asse delle X c’è l’orientamento politico del singolo utente come dedotto dalla sua dieta informativa (se segue solo fonti catalogate come di estrema sinistra sarà vicino a -1, di sinistra vicino a 0, a 1 se di estrema destra). Sull’asse Y abbiamo l’orientamento degli amici con cui interagisce.
0
1
Orientamento utente Reddit
promozionali e autopromozionali. I problemi cominciano quando questo nuovo ecosistema diventa anche la maggiore fonte per l’accesso alle informazioni e la piazza in cui si dibatte e si discute. Una questione articolata In passato alcuni studi hanno reso evidente la nostra tendenza a formare gruppi simili a tribù, composti da persone che la pensano allo stesso modo, in cui le informazioni sono selezionate perché coerenti con la narrativa condivisa dal gruppo e informazioni a contrasto, invece, sono ignorate. Questa dinamica è stata etichettata con l’espressione echo chamber (cassa di risonanza), ovvero mondi virtuali in cui risuona quello che più ci piace, interpretato e riportato nel modo per noi più congeniale. L’impatto dei social media sulle nostre vite, su come mediano le informazioni, su come facilitino la diffusione di idee e narrative (a volte anche stravaganti) è materia di feroci diatribe accademiche, politiche e anche normative. Spesso il dibattito gira a vuoto, non si capisce quali regole adottare, come preservare la società, e non riusciamo a trovare un modo per rendere l’ecosistema informativo meno dirompente e meno inquinato. 40
I quaderni
Più che realizzare che c’è un modello di business dell’informazione che è cambiato ed è dominato da forze che sono difficilmente controllabili e che ha effetti potenti come la polarizzazione, ci si è molto concentrati sulle fake news, intese come pericolo globale. Le democrazie occidentali in pericolo perché Internet ha dato voce a un folclore, a volte anche estremo, che quando si è manifestato ci ha lasciati spaventati e sbalorditi. Nel 2018 uno studio di Sinan Aral del Massachusetts Institute of Technology e colleghi, limitato al solo Twitter, è arrivato a sostenere che le fake news si diffondano più velocemente delle informazioni vere. Il risultato ha dato supporto argomentativo ai tanti che continuano a vedere nei social il maggior veicolo di informazioni false. Ma probabilmente la questione è molto più articolata di così. La velocità delle informazioni dipende da molti fattori, come hanno notato anche Aral e colleghi nel loro studio pubblicato su «Science», tra cui la novità della notizia, ma anche il coinvolgimento degli utenti su quel tema, la polarizzazione e gli stessi algoritmi di feed. Con il mio gruppo di ricerca, il Center for Data Science and Complexity for Society (CDCS) oggi sparso tra la «Sapienza» Università di Roma e l’Università Ca’ Foscari di Venezia, abbiamo cercato di contribuire al dibattito scientifico in corso. In un primo lavoro su «Scientific Reports» abbiamo studiato le dinamiche dell’informazione durante i primi periodi dell’epidemia di COVID-19. Abbiamo subito capito che stavamo assistendo alla tempesta perfetta per studiare la diffusione di informazione rispetto a un argomento nuovo e minaccioso. In fretta e furia, ci siamo messi a scaricare e analizzare dati per cercare di capire che cosa stava succedendo sulle varie piattaforme social riguardo alle informazioni sulla pandemia. Ci siamo concentrati su Instagram, YouTube, Facebook, Twitter e Gab. L’ultima è una piattaforma forse meno nota delle altre e che ha acquisito notorietà perché si presenta come il paradiso della libertà di parola, ma soprattutto per aver convogliato su di sé gran parte della destra estremista degli Stati Uniti. In questo studio, effettuando un’analisi del testo tramite tecniche di intelligenza artificiale, nello specifico di apprendimento automatico (machine learning), abbiamo trovato che i contenuti sono i più disparati e si va dalla ricerca di informazioni sul virus, alla richiesta di benedizioni e preghiere. Insomma, l’essere umano si manifesta in tutta la sua meravigliosa natura, mostrando un approccio tutt’altro che omogeneo e razionale al pericolo globale che incombe. La pandemia ci ha colto tutti alla sprovvista, e si è faticato a capire che cosa stesse succedendo, soprattutto all’inizio. Il fenomeno non era chiaro e le informazioni al riguardo si sono rivelate spesso provvisorie e contraddittorie. Era cominciato il reality show della scienza. Non è così strano. Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
L’8 gennaio 2021 Twitter ha sospeso in modo permanente l’account di Trump per aver tra l’altro solidarizzato con i manifestanti che hanno assaltato Capitol Hill il 6 gennaio. (NurPhoto/Getty Images)
Dall’arrivo di COVID-19 abbiamo visto molti scienziati esprimere la propria opinione e mostrare un volto della scienza che magari non tutti hanno avuto il piacere di conoscere. Ora come non mai, il rapporto tra scienza e società si è fatto determinante. La cosa si complica parecchio quando i maggiori catalizzatori di informazione sono le piattaforme, dove i contenuti diventano popolari in base a quanti like ricevono. C’è una platea enorme di influencer, pagine e fonti che compete per la nostra attenzione e la polarizzazione regna sovrana. Ci siamo quindi chiesti se ci fossero differenze sostanziali nella diffusione e fruizione di informazioni «affidabili» o «discutibili». Facendo affidamento sulla classificazione messa a disposizione da Mediabias/Fact-Check, un’organizzazione indipendente di fact-checking che fornisce una classificazione accurata di molte informazioni circolanti sul Web, abbiamo trovato, in controtendenza rispetto al lavoro di Aral e colleghi, che entrambi i tipi di informazione non presentano significative differenze nel modo in cui si diffondono sulle varie piattaforme. Ogni piattaforma, anzi, ha una sua peculiare capacità di amplificazione degli argomenti, ma non fa distinzione netta tra informazioni affidabili e non. La diffusione delle informazioni sembra essere fortemente influenzata da questa nostra tendenza a creare gruppi intorno a narrative condivise. In effetti, le echo chamber sono state osservate in diversi contesti virtuali come blog, forum e social network. Alcune ipotesi le collegano alle naturali tendenze dell’essere umano, come la tendenza a seguire soltanto alcuni tipi di informazioni a scapito di altre, fenomeno noto anche 41
I quaderni
come esposizione selettiva, oppure alla conformità sociale. Altri invece sostengono che le echo chamber non esistano, nonostante le ammettano le stesse piattaforme. Insomma, ci troviamo davanti a uno di quei fenomeni che si fa fatica a comprendere del tutto. Le echo chamber esistono? Sono indotte da nostre tendenze innate? Gli algoritmi delle piattaforme influenzano questo processo? Rispetto a questo dilemma abbiamo cercato di capire come costruire un’analisi che potesse dirimere la questione. Piattaforme a confronto In un recente articolo pubblicato sui «Proceedings of the National Academy of Sciences» dal titolo The echo chamber effect on social media abbiamo cercato di capire quali fossero le principali differenze che portano alla formazione di echo chamber, confrontando varie piattaforme. Uno studio comparativo su più piattaforme avrebbe permesso di dirimere il ruolo degli algoritmi e del loro effetto nel frammentare l’opinione in tante piccole tribù. Ogni piattaforma offre infatti la sua modalità di interazione. Il limite di 280 caratteri, i retweet e le menzioni sui tweet; i like e i commenti su Facebook, le foto e le condivisioni su Instagram. Ogni piattaforma offre il suo repertorio di interazione agli utenti e innesca dinamiche differenti. Nello studio ci siamo preoccupati innanzitutto di fornire una definizione operativa di echo chamber, ovvero una definizione matematica che possa permettere di effettuare poi un’analisi comparativa e quindi quantificare la presenza o meno di echo chamber e fenomeni di polarizzazione. In particolare, la nostra definizione si fonda principalmente su due aspetti: inferire l’orientamento dell’utente rispetto a un tema specifico (no-vax, pro-vax o bias politico); omofilia nella rete di interazione, ovvero se l’utente tende principalmente a interagire con persone con lo stesso orientamento. Questo non significa che non interagisce con fonti lontane dalla sua, ma che – quando lo fa – lo fa per parlarne male. Per l’analisi ci siamo concentrati su quattro piattaforme: Facebook, Reddit, Gab e Twitter. Queste piattaforme presentano caratteristiche e funzionalità simili (per esempio, permettono tutte azioni di feedback sociale come «mi piace» oppure voti positivi) come anche il design (per esempio, Gab è simile a Twitter) ma pure forti differenze (per esempio, Reddit è strutturato in comunità di interesse). Reddit è uno dei siti web più visitati al mondo, ed è organizzato come un forum per raccogliere discussioni su un’ampia gamma di argomenti, dalla politica al supporto emotivo e psicologico. Gab sostiene di essere una piattaforma sociale pensata per proteggere la libertà di parola. Ma la scarsa moderazione e la scarsa Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
regolamentazione sui contenuti hanno portato a un diffuso incitamento all’odio. Per questi motivi, Gab è stata ripetutamente sospesa dal suo fornitore di servizi e la sua app mobile è stata bandita da App e Play Store. Complessivamente abbiamo rappresentato le interazioni di oltre un milione di utenti attivi sulle quattro piattaforme, per un totale di oltre 100 milioni di contenuti. La nostra analisi ha mostrato che le piattaforme organizzate attorno ai social network e agli algoritmi di feed di notizie, come Facebook e Twitter, favoriscono l’emergere delle casse di risonanza. Reddit e Gab invece presentano una maggiore diversificazione tra fonti e amicizie seguite (si veda il box a p. 39). Abbiamo concluso lo studio confrontando direttamente il consumo di notizie su Facebook e Reddit, riscontrando una maggiore segregazione su Facebook rispetto a Reddit (si veda il box a p. 40). Effetto algoritmico Il flusso delle informazioni, un tempo mediato da giornalisti o da esperti, oggi è in larga parte dominato da algoritmi di selezione, che cercano di indicarci quali contenuti sono per noi più congeniali rispetto all’offerta sconfinata che ci si pone davanti. Le piattaforme con gli algoritmi di feed generano maggiore polarizzazione rispetto a quelle che non ce l’hanno. Insomma, sembra che gli algoritmi abbiano realmente un ruolo nelle dinamiche del nostro dibattito pubblico. I nostri risultati suggeriscono che sulle piattaforme che adottano algoritmi di feed (cioè selezionano i contenuti per gli utenti) c’è una maggiore segregazione in echo chamber e quindi la polarizzazione è maggiore. Gli intermediari di questo nuovo mondo sono gli algoritmi dei social. Algoritmi che hanno l’obiettivo di massimizzare la permanenza dell’utente sui social. La società è in una relazione importante con gli algoritmi di feed dei social. Un potere molto grande che ha fatto la fortuna di alcuni, l’indignazione o il dissenso di altri. Si sta cercando un modo per regolamentare e gestire il nuovo sistema di informazione e intrattenimento, senza ancora comprenderne a fondo le dinamiche e mettere a fuoco l’entità reale del problema.
L’autore Walter Quattrociocchi coordina il Center for Data Science and Complexity alla «Sapienza» Università di Roma. Si occupa di data science e sistemi complessi, e la sua attività di ricerca si focalizza sulla caratterizzazione quantitativa delle dinamiche sociali spaziando dalla dinamica delle opinioni alla diffusione delle informazioni e il contagio sociale. Le Scienze, n. 633, maggio 2021 42
I quaderni
Come combattere la disinformazione su COVID-19 Ciascuno di noi ha più potere di quanto potrebbe credere
Illustrazioni di Harry Campbell
di Kathleen Hall Jamieson
Ho passato gran parte della mia carriera a studiare modi per smussare gli effetti della disinformazione e per aiutare il pubblico a comprendere le complessità della politica e della scienza. Quando con i miei colleghi abbiamo esplorato la relazione tra il consumo di disinformazione e l’adozione, o il rifiuto, delle misure protettive che alla fine fermeranno la diffusione del coronavirus, i risultati sono stati chiari: coloro che credono a idee false e a teorie del complotto a proposito di COVID-19 e dei vaccini hanno meno probabilità di adottare misure come l’uso delle mascherine, il distanziamento sociale, l’igiene delle mani e la vaccinazione. Nel bel mezzo di una pandemia che continua a infierire, l’importanza della comunicazione scientifica è incontestabile. Però quando si dice «comunicazione scientifica» la prima cosa che viene in mente sono le campagne di comunicazione istituzionali che promuovono le «tre semplici regole» (indossa la mascherina, mantieni la distanza, lava spesso le mani) oppure le pagine delle FAQ sul sito dei Centers for Disease Control and Prevention (CDC). Se chiediamo che cosa evochi l’espressione «comunicatore scientifico», le risposte includeranno medici di base ed esperti come Anthony S. Fauci, direttore Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
del National Institute of Allergy and Infectious Diseases, e Sanjay Gupta, della CNN, due persone che sono comparse sugli schermi così spesso che ormai ci sembrano amici di vecchia data [come d’altra parte è accaduto con virologi ed epidemiologi italiani, N.d.R.]. Però Fauci non è presente nelle videochiamate di famiglia su Zoom, quando un cugino afferma erroneamente che i CDC avrebbero scoperto che indossare la mascherina favorisce il contagio da COVID-19, né c’è Gupta a portata di mano quando la figlia di amici si chiede se il vaccino contro COVID-19 contenga un microchip per il tracciamento delle persone. Come rispondiamo in prima persona in queste situazioni è importante. Come hanno scritto Cailin O’Connor e James Owen Weatherall su questa rivista nel 2019, la «trasmissione sociale della conoscenza è al cuore della cultura e della scienza». In un esperimento su larga scala condotto sui social network nel 2018, Doug Guilbeault e Damon Centola, entrambi all’epoca alla Annenberg School for Communication dell’Università della Pennsylvania, hanno confermato questo nostro potere. I fumatori che avevano collaborato con i non fumatori nel valutare alcuni messaggi contro il fumo erano più portati a riconoscere i danni del tabagismo rispetto ai fumatori che valutavano 43
I quaderni
gli stessi messaggi da soli. In modo simile, insieme a Sally Chan e Dolores Albarracin dell’Università dell’Illinois a Urbana-Champaign, abbiamo scoperto che un aumento dei messaggi su Twitter a proposito di «vaccini truffa» tra novembre 2018 e febbraio 2019 nelle contee in cui si trovavano i nostri circa 3000 volontari era associato ad atteggiamenti più negativi e a un tasso di vaccinazioni antinfluenzali più basso tra gli stessi soggetti nei mesi successivi. Questi effetti preoccupanti non si verificavano invece tra le persone che riferivano di aver parlato dei vaccini con la famiglia e gli amici. In effetti un parente oppure un amico, che sia on line o nella casa accanto, riesce in qualche modo a sottolineare meglio l’importanza di comportamenti come l’uso della mascherina e il distanziamento sociale rispetto a quanto riescano a fare le autorità sanitarie o esperti come Fauci. Già ci fidiamo di più delle informazioni provenienti da persone esperte che sono vicine a noi; inoltre conta anche il fatto che coloro che fanno parte della nostra vita riescono a trovare il momento opportuno per spiegare perché ritengano importanti i comportamenti di prevenzione e perché credano nella scienza secondo cui quei comportamenti riducono la diffusione del virus. I vicini e gli amici possono rispondere con messaggi personalizzati in base agli interessi e alle preoccupazioni del singolo. Oltre a correggere le idee sbagliate in tempo reale, una persona di fiducia può creare un ambiente che fin dall’inizio sia inospitale per la disinformazione. Infine, ed è un aspetto cruciale, l’inganno e la confutazione di solito avvengono in luoghi diversi: chi è esposto alle fake news si trova raramente di fronte al fact-checking. Dotandoci di alcuni strumenti, tutti possiamo diventare parte di un più diffuso sistema per la lotta alla disinformazione oppure, come mi piace chiamarlo, un sistema di difesa della scienza. Per capire la forza di un simile ruolo, consideriamo i limiti di quella che è la prima linea di difesa contro le informazioni ingannevoli on line: la volontà delle piattaforme di bloccarli. Anche quando questo avviene, c’è un ritardo tra la comparsa dei contenuti dannosi, la loro scoperta e la rimozione. Prendiamo per esempio il video virale di 26 minuti Plandemic, apparso on line a maggio 2020. Nonostante gli sforzi fatti dalle maggiori piattaforme on line per rimuoverlo, nel giro di poche settimane quel video è riuscito a raggiungere milioni di persone con le sue affermazioni pericolosamente false (per esempio che alcuni vaccini antinfluenzali conterrebbero il coronavirus e che indossare la mascherina attiverebbe il virus). Come in un girotondo infinito, quando una piattaforma rimuove un contenuto gli spacciatori di informazioni ingannevoli devono solo postarlo nuovamente su un’altra piattaforma o condividerlo negli angoli della rete a cui si accede solo su invito, oppure su gruppi privati. Lo scorso marzo, mentre Facebook si dava Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
da fare per estirpare la disinformazione e le teorie del complotto su COVID-19, un rapporto di Politico su migliaia di post rilevava che i contenuti ufficialmente proibiti erano ancora presenti sulla piattaforma, continuando a sopravvivere e a fare danni. Organizzazioni di fact-checking come PolitiFact e FactCheck.org (di cui sono stata cofondatrice nel 2003) offrono una seconda linea di protezione nel sistema di difesa della scienza. Quando un utente cerca contenuti che sono stati segnalati come disinformazione, Facebook mette in evidenza i lavori di diversi di questi gruppi. In uno studio del 2015, Leticia Bode ed Emily K. Vraga, entrambe all’epoca all’Università del Wisconsin a Madison, hanno scoperto che questo tipo di accostamento correttivo può ridurre le convinzioni errate negli utenti. In seguito, in uno studio del 2018, Bode e Vraga hanno scoperto che anche le correzioni proposte dai propri contatti su una rete sociale simulata riducevano le convinzioni errate. Questa conclusione ha portato le due ricercatrici a raccomandare che, quando si tratta di problemi emergenti di tipo sanitario, negli scambi on line le persone più consapevoli usino materiali provenienti da fonti appropriate per «confutare le informazioni sanitarie false o ingannevoli in modo chiaro, semplice e con prove concrete». Un gruppo di medici di CriticaScience sta facendo da apripista per l’uso di questo metodo. Con il sostegno della Robert Wood Johnson Foundation, io e i miei colleghi di FactCheck.org cerchiamo di sviluppare nuovi metodi che il pubblico possa usare nella lotta contro le informazioni ingannevoli legate a COVID-19. Quando la disinformazione elude sia i tentativi di bloccarla sia il fact-checking sia la risposta degli interlocutori on line (come succede fin troppo spesso), l’ultima linea di difesa sono le relazioni nel mondo reale: familiari, amici e colleghi. Arruolarsi in un sistema di difesa della scienza richiede l’impegno a diffondere i comportamenti di promozione della salute nella propria comunità, la volontà di salvare tra i preferiti i siti web di sanità pubblica e di fact-checking e di consultarli quando servono informazioni su COVID-19 e sui vaccini, alcune premesse sulla natura e i limiti delle scoperte scientifiche, un insieme di obiettivi realistici e una strategia per depoliticizzare la scienza quando la situazione lo richiede. Ciascuno dei livelli di questo modello (la rimozione dei contenuti sulle piattaforme, il fact-checking, l’impegno on line e la crea zione di una comunità favorevole alla scienza) ha i suoi limiti. Ciascuna linea di difesa aggiuntiva, però, aiuta a rallentare il diffondersi di informazioni ingannevoli che, per usare una frase fatta, altrimenti fanno in tempo a fare mezzo giro del mondo prima che la verità riesca a infilarsi gli stivali. E nel caso di COVID-19 ci sono almeno due aree in cui i benefici sono così rilevanti da valere uno sforzo di attenzione: mascherine e vaccini. 44
I quaderni
1
Trovare (e salvare nei preferiti) i fatti che contano Ci fidiamo di esperti che ci danno informazioni che non potremmo ottenere da soli. Se ci fidiamo che la lista degli ingredienti del vaccino anti-COVID-19 di Pfizer/BioNTech fornita dalla Food and Drug Administration (FDA) sia accurata (e la lista si trova all’interno dell’autorizzazione emessa dalla FDA e pubblicata sul sito web della stessa agenzia), quella fiducia e quella conoscenza agiscono come un cuscinetto che ci protegge contro l’affermazione che con il vaccino ci inietterebbero nel braccio un microchip di tracciamento. Una domanda chiave, certo, è la seguente: quanto sono ritenuti affidabili gli organismi di certificazione in ambito medico-sanitario dalla maggior parte degli statunitensi adulti? La risposta, ottenuta con un sondaggio del «New York Times»/Siena College condotto a giugno 2020, include notizie positive e negative. Si fida degli esperti di medicina il 90 per cento dei democratici, ma solo il 75 per cento dei repubblicani, il che significa che gli appelli di esperti come Fauci e di enti come la FDA hanno difficoltà a fare presa tra i sostenitori più fedeli del partito repubblicano. Comunque, anche in questi tempi di polarizzazione così spinta, la maggioranza degli statunitensi (l’84 per cento della popolazione degli Stati Uniti) afferma di fidarsi di chi fa ricerca in medicina e il 77 per cento dice lo stesso dei CDC. Per iniziare a mettere insieme una cassetta di strumenti per la difesa della scienza, salvate quindi tra i preferiti la pagina dei CDC con le risposte alle domande più frequenti su COVID-19. Fate altrettanto con i media più affidabili che garantiscono fact-checking, come Associated Press, Reuters, «USA Today», «Washington Post», PolitiFact e FactCheck.org. Per valutarne l’utilità, considerate questa situazione: immaginate che un vostro amico affermi che uno studio dei CDC ha scoperto che le mascherine non sono efficaci e si chieda se Donald Trump avesse ragione quando ha detto al pubblico di un’assemblea cittadina che uno studio aveva scoperto che «l’85 per cento delle persone che indossano la mascherina prende il virus». La prima cosa che si scopre con una ricerca è che tutti i principali gruppi di fact-checking sono arrivati indipendentemente alla stessa risposta alla vostra domanda. Associated Press: «Travisato lo studio dei CDC sull’uso delle mascherine».«USA Today»: «Fact-checking: il rapporto dei CDC non dimostra che chi indossa la mascherina abbia maggiori probabilità di contrarre COVID-19». Reuters: «Fact-checking: Travisato lo studio dei CDC sull’esposizione comunitaria al nuovo coronavirus». Volete controllare che chi ha fatto il fact-checking abbia capito bene lo studio? Gli articoli di Reuters e FactCheck.org contengono un link allo studio originale dei CDC. Tutti i gruppi di fact-checking concordano nell’affermare Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
che, nello studio in questione, le persone che si sono ammalate di COVID-19 e quelle che non si sono ammalate riferivano con la stessa probabilità di indossare la mascherina. Per i contagiati, però, c’erano maggiori probabilità che avessero mangiato al ristorante o che dicessero di essere stati a meno di 2 metri da una persona affetta da COVID-19. Dato che la nostra meta-analisi degli studi sulla confutazione della disinformazione ha dimostrato che le spiegazioni dettagliate possono rivelarsi efficaci, questo tipo di informazioni specifiche dovrebbe aumentare la forza persuasiva della correzione. In altre parole, la correzione dovrebbe sottolineare il fatto che nello studio i soggetti che avevano indossato la mascherina ed erano rimasti contagiati avevano maggiori probabilità di aver messo in atto comportamenti che aumentavano il loro livello di rischio. Non si può mangiare mentre si indossa una mascherina, e in presenza di una persona contagiata le mascherine offrono una protezione parziale ma non completa.
2
Ricordare che la scienza è disordinata e provvisoria La scienza è una continua ricerca di conoscenza da cui derivano informazioni sempre soggette a limitazioni e possibili correzioni. Tuttavia scienziati e giornalisti a volte causano confusione trasmettendo il messaggio che una scoperta scientifica sia incontestabile oppure raccontandola con titoli che invitano a raggiungere questa conclusione. Le nostre ricerche, portate avanti grazie a un finanziamento della Rita Allen Foundation, hanno rivelato che di solito gli articoli raccontano una nuova scoperta scientifica come un’impresa lineare, portata a termine da 45
I quaderni
ricercatori che superano gli ostacoli che si trovano davanti in un viaggio che culmina nella «scoperta» e quindi in un sapere affidabile. Chi studia letteratura riconoscerà questa struttura narrativa come quella del classico viaggio dell’eroe, che in genere si conclude senza lasciare nulla in sospeso. Negli articoli giornalistici sulle scoperte scientifiche, questo tipo di narrazione è dilagante. Il nostro studio, che ha passato in rassegna più di 600 articoli su argomenti scientifici pubblicati sulle maggiori testate tra il 2013 e il 2018, ha scoperto che la maggior parte dei testi tralasciava le false partenze, i tentativi sbagliati e la serendipità che caratterizzano il procedimento scientifico. Quasi tutti evitavano anche di sottolineare che c’erano domande ancora prive di risposta. Invece, come nota Carl Zimmer, giornalista scientifico del «New York Times», un articolo scientifico «non è mai la rivelazione di una verità assoluta. Al massimo è una relazione sullo stato attuale delle cose». Avendo ben presente la natura iterativa e provvisoria della scienza, nelle FAQ su mascherine e COVID-19 il «Washington Post» dichiara: «Vi ricordiamo che, con l’avanzare degli studi e della conoscenza sul [nuovo] coronavirus, i consigli sull’uso delle mascherine sono soggetti a cambiamenti e queste FAQ saranno aggiornate di conseguenza». Alcuni, tra i quali Trump, hanno ignorato questa indicazione e hanno frainteso o travisato un’affermazione fatta da Fauci sulle mascherine a inizio marzo 2020. «Fauci ha detto: “Non indossate le mascherine”, giusto?», ha affermato Trump parlando a Savannah Guthrie, della NBC, a un’assembla cittadina a ottobre 2020. «Poi ha cambiato idea». Sullo stesso argomento, un video virale estrapolato da un filmato più lungo in cui Fauci afferma che le persone
«non dovrebbero andare in giro con la mascherina» è stato visualizzato milioni di volte su Facebook, YouTube e Twitter. Gli attacchi che si basano su questa citazione fuori contesto non tengono conto del fatto che le conoscenze scientifiche sono sempre soggette ad aggiornamento con l’emergere di nuove prove. Tra inizio marzo e il 3 aprile 2020, quando i CDC hanno raccomandato a tutti di indossare sempre la mascherina per tutti i contatti con persone che non fanno parte della propria bolla sociale, la scienza ha scoperto che anche chi non presentava alcun sintomo poteva trasmettere il coronavirus. Solo a ottobre i CDC hanno potuto affermare con sicurezza che la trasmissione avveniva per via aerea. A complicare il messaggio c’è stato il fatto che all’inizio della pandemia gli ospedali, investiti da un’ondata di pazienti COVID-19, non avevano mascherine a sufficienza per proteggere medici e infermieri. Finché non è stato possibile aumentarne la produzione, era necessario riservare le mascherine N95 e quelle chirurgiche agli operatori sanitari e di primo soccorso. Fauci aveva sottolineato anche questo punto. Nel contesto, quello che ha detto a Jon LaPook, della trasmissione 60 Minutes, l’8 marzo 2020 è stato quanto segue: «Le mascherine sono importanti per le persone che devono evitare di contagiare qualcun altro. […] Al momento, negli Stati Uniti, le persone non dovrebbero andare in giro con la mascherina. […] Quando pensiamo alle mascherine, dovremmo pensare agli operatori sanitari che ne hanno bisogno e alle persone ammalate. […] Non sono contrario [all’uso delle mascherine]. Se volete usarle, va bene». LaPook: «Questo però potrebbe portare a una scarsità di mascherine?». Fauci: «Esatto, è proprio questo il punto. Può portare a una scarsità di mascherine per le persone che ne hanno davvero bisogno».
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
Gli scettici contrari all’uso delle mascherine hanno tratto in inganno le persone usando citazioni di Anthony Fauci fuori contesto. (Alex Wong/Getty Images)
46
I quaderni
Se qualcuno della vostra cerchia sociale afferma che non bisogna fidarsi del direttore del National Institute of Allergy and Infectious Diseases perché una volta ha detto che «le persone non dovrebbero andare in giro con la mascherina», rispondete che, come sottolineato da FactCheck.org, quando ha fatto quell’affermazione si riferiva a persone non contagiate e che all’epoca la scienza non aveva ancora accertato che gli asintomatici potessero trasmettere il contagio né che il virus fosse trasmesso per via aerea. Un altro motivo per salvare il sito dei CDC tra i preferiti è che offre contenuti accurati, completi di contesto ed esplicitandone le limitazioni. A proposito delle protezioni per le vie respiratorie, i CDC affermano: «Le mascherine sono una barriera semplice per aiutare a impedire che le goccioline di saliva raggiungano gli altri. Studi dimostrano che le mascherine, indossate a coprire il naso e la bocca, riducono la diffusione delle goccioline». Notate l’uso delle parole «aiutare» e «ridurre». Quando qualcuno è consapevole che gli scienziati, dicendo che «le mascherine funzionano», intendono che «aiutano a impedire» e a «ridurre» la trasmissione del virus, sarà meno portato ad arrivare alla conclusione errata che se qualcuno che indossava la mascherina è stato contagiato significa che le mascherine non servono a niente. Le precisazioni sono importanti anche quando si parla di vaccini. Invece di dichiarare categoricamente che il vaccino anti-COVID-19 di Pfizer è sicuro, i CDC riferiscono che «i dati [sul vaccino anti-COVID-19 di Pfizer/BioNTech autorizzato dalla FDA] dimostrano che i benefici noti e potenziali di questo vaccino superano gli effetti nocivi noti e potenziali del contagio da malattia da coronavirus 2019 (COVID-19)». Un piccolo rischio: pochi soggetti tra i moltissimi individui vaccinati hanno presentato quella che i CDC hanno descritto come una reazione allergica grave, cioè che deve essere curata con epinefrina o con una EpiPen sul posto oppure richiede il ricovero ospedaliero. Un grande beneficio: assumere due dosi del vaccino Pfizer o Moderna riduce notevolmente il rischio che il nome della persona vaccinata vada ad aggiungersi alla lista di oltre 3 milioni di persone le cui vite sono state stroncate da COVID-19 [il dato è riferito alla fine di aprile, N.d.R.].
3
Avere comportamenti corretti affinché diventino la norma Per decenni, prima che COVID-19 rivoluzionasse le nostre vite, operatori sanitari, infermieri scolastici, medici di base e genitori ci hanno ripetuto che per ridurre al minimo i contagi durante la stagione influenzale dovevamo lavarci spesso le mani e stare lontano dagli altri se avevamo la tosse o il raffreddore. Dato che le norme sociali hanno una grande forza nel determinare il nostro comportamento e dato che nella nostra vita abbiamo visto prove concrete Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
del fatto che queste pratiche riducono la trasmissione del raffreddore e dell’influenza stagionale, sia noi che le nostre famiglie e i nostri amici le abbiamo messe in pratica e raccomandate agli altri. Grazie a questa combinazione di conoscenza e norme sociali, un sondaggio che abbiamo condotto a inizio marzo 2020 ha rilevato che, già prima che arrivassero le pubblicità martellanti a dirci di farlo, quasi nove persone su dieci negli Stati Uniti (l’87 per cento) aveva reagito alla notizia di un nuovo virus respiratorio aumentando l’igiene delle mani e tenendosi a distanza dalle persone con sintomi respiratori. La lezione che ne possiamo trarre è questa: rinforzando e mettendo in pratica comportamenti come l’uso della mascherina, chi sostiene la scienza può renderli la norma nella propria cerchia sociale. Dovremmo anche ricordare che un numero soverchiante di persone crede effettivamente nell’utilità delle mascherine. Un sondaggio di dicembre 2020 della Kaiser Family Foundation ha scoperto che negli Stati Uniti circa tre adulti su quattro affermano di indossarla ogni volta che escono di casa.
4
Depoliticizzare la scienza Come afferma la teoria della reattanza psicologica, è più probabile che si risponda a un ordine con una controargomentazione che con l’accettazione; come dice il proverbio, si acchiappano più mosche con una goccia di miele che con un barile d’aceto. Per essere efficace, un difensore della scienza ascolterà le ragioni di una persona che non vuole indossare la mascherina o vaccinarsi e proporrà controprove, senza mettere in dubbio la competenza, le buone intenzioni o l’intelligenza della controparte. 47
I quaderni
per diffondere la scienza o le informazioni virali ingannevoli. Le informazioni virali ingannevoli, come le malattie veneree, sono contagiose e socialmente trasmissibili. Quindi, come ha raccomandato la redazione di «Scientific American» a settembre 2019 [articolo pubblicato su «Le Scienze» di novembre 2019, N.d.R.], «Prima di mettere un “like”, fermatevi un attimo». Se il messaggio è un’informazione virale ingannevole, mettetela in quarantena. Se la scienza proviene da una fonte affidabile ed è coerente con quello che leggete sul sito web dei CDC o dei National Institutes of Health, datele un nuovo impulso facendo clic su «invia», «mi piace» e «condividi».
«La battaglia tra chi usa la mascherina e chi non la usa rivela spaccature politiche», affermava un titolo di NPR a maggio 2020. Per qualcuno il rifiuto della mascherina è diventato un modo per segnalare l’impegno politico di stampo conservatore, quindi il bravo difensore della scienza dovrà schierare esempi di casi in cui altre persone con posizioni politiche simili si sono esposte a favore dell’uso della mascherina, come ha fatto nel 2020 l’ex leader della maggioranza al Senato Mitch McConnell, del Kentucky, e come ha fatto l’ex governatore del New Jersey Chris Christie, in un editoriale sul «Wall Street Journal» in cui spiegava come, dopo essersi ammalato di COVID-19, fosse arrivato alla conclusione che si leggeva nel titolo del pezzo: «Avrei dovuto indossare una mascherina». Le storie di conversione come quella di Christie o quella, sul fronte dei vaccini, della dottoressa Eugenia South («Sono una dottoressa nera che non credeva nel vaccino antiCOVID-19. Ecco che cosa mi ha fatto cambiare idea») possono avere molta forza. Con i miei coautori abbiamo visto questa forza in azione nel nostro studio sulle reazioni ai commenti dell’attivista ambientalista Mark Lynas che spiegava perché prima si opponeva alle coltivazioni di piante geneticamente modificate e invece adesso è a favore. Le persone esposte al racconto della sua conversione erano molto più portate a cambiare atteggiamento nei confronti delle piante geneticamente modificate rispetto alle persone che sentivano solo le sue spiegazioni sui loro benefici.
5
Riflettere prima di mettere «like» Quando sui social network facciamo clic su «like», segnaliamo che quel contenuto è accettabile e anche accettato. Condividendolo, lo investiamo della nostra credibilità. L’icona del pollice alzato e il simbolo del retweet non sono solo segnali di approvazione della comunità, ma invitano anche i nostri amici a unirsi a noi nel rafforzare i sentimenti del nostro gruppo. Questo processo di segnalazione del proprio accordo è usato indifferentemente Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
6
Avere obiettivi realistici Una delle cose che abbiamo scoperto con il collega Joe Cappella nel nostro studio decennale sui programmi radiofonici è stata che gli ascoltatori fedeli adottavano i ragionamenti e i modi di dire dei conduttori che tenevano loro compagnia nella quotidianità. Oltre a insegnare al suo pubblico come sostenere il conservatorismo, il defunto conduttore di talk show Rush Limbaugh riduceva la sensibilità degli ascoltatori ad argomenti incompatibili con quella filosofia. Il suo successo suggerisce che un conduttore con un pubblico in dubbio sui comportamenti protettivi o sulla vaccinazione potrebbe aumentare la buona disposizione e le competenza almeno di alcuni ascoltatori mettendo in atto i principi del sistema di difesa della scienza. Altrettanto potrebbe fare un familiare. Però le prove e gli appelli persuasivi, per quanto numerosi, non riusciranno mai a far cambiare idea ad alcune persone su alcuni argomenti. Queste persone forzeranno inevitabilmente le informazioni fino a farle corrispondere alle esigenze della loro identità di gruppo. Piuttosto di cercare di convincere chi ha la mente chiusa a qualsiasi tentativo, è meglio impiegare il proprio tempo per persuadere coloro che sono riluttanti ma non del tutto opposti all’adozione dei comportamenti di prevenzione. Detto questo, forse in realtà chi è indeciso riguardo a un dato comportamento è più aperto alle nuove informazioni di quanto la scienza credesse in passato. Uno studio pubblicato lo scorso anno su «Nature» ha rovesciato la convinzione che chi è indeciso a proposito dei vaccini sia disinteressato. Al contrario, queste persone cercavano informazioni su Facebook. Il problema è che avevano maggiori probabilità di finire su pagine contro i vaccini che su pagine a favore.
7
Pensare a proteggere i propri vicini Chi si impegna a difendere la scienza nella propria comunità può trasmetterne i messaggi in contesti concreti 48
I quaderni
e Robert Wyer in uno studio del 2001, indipendentemente dai dubbi che si possono avere, mettere in atto un comportamento utile può aumentare la propria percezione del valore di quel comportamento.
8
e locali con un impatto chiaro e immediato: proteggere i bambini e gli insegnanti del quartiere, i parenti che vivono in strutture di residenza assistita, gli amici che lavorano nell’ospedale locale o nella farmacia del paese. Se si tratta di prendersi cura della propria comunità, anche gli scettici potrebbero decidere di mettere in atto misure preventive. Un esempio perfetto è quello di Gary Abernathy di Hillsboro, in Ohio, che nel luglio 2020 ha pubblicato sul «Washington Post» un pezzo dal titolo «Non sono convinto delle mascherine. Però ne indosso una. Ecco perché», in cui scriveva che teneva «alla tranquillità dei miei vicini che la pensano diversamente». Affermava anche di sapere che «i Centers for Disease Control and Prevention riferiscono che “la paura e l’ansia per una nuova malattia […] possono diventare soverchianti e causare emozioni forti negli adulti e nei bambini”». Inoltre riconosceva la posizione dei CDC secondo cui «linee guida intese a proteggere le persone, come il distanziamento sociale, “possono far sì che le persone si sentano sole e isolate e possono aumentare lo stress e l’ansia”». Questa combinazione di conoscenza, comprensione ed empatia lo hanno portato ad adottare quella che era una norma della comunità nonostante i dubbi che aveva sulla necessità della stessa. «Ecco perché – spiegava nell’articolo – che sia obbligatoria o meno, e indipendentemente da quanto lontano mi trovi da una zona ad alta incidenza di COVID-19, ho sempre indossato una mascherina per entrare in un negozio affollato se la maggior parte delle altre persone la indossava». La decisione di Abernathy di indossare la mascherina la scorsa estate e di esporre le motivazioni logiche per cui gli scettici dovrebbero fare altrettanto lo qualificano come componente del sistema di difesa della scienza nella sua comunità. E, come hanno dimostrato Dolores Albarracin
Puntare all’immunità di comunità Innalzare uno scudo di protezione della scienza attorno ai cerchi concentrici in cui viviamo (la nostra casa, il nostro quartiere, i posti in cui entriamo in contatto con gli altri, per esempio il supermercato, la scuola, lo studio del dentista) è particolarmente importante per incoraggiare la vaccinazione contro COVID-19. È l’immunità all’interno della nostra comunità, non a livello nazionale o di Stato, che protegge noi e le nostre famiglie. Quando gli scienziati parlano di soglia di immunità, ovvero la percentuale di popolazione che deve essere stata immunizzata per impedire la diffusione del virus, parlano del livello necessario per proteggere una comunità. Se a livello statale c’è un’alta percentuale di persone vaccinate contro il morbillo, tuttavia in una specifica comunità all’interno di quello Stato il livello di vaccinati è basso, allora le persone che vivono in quel luogo sono vulnerabili. È stato il caso della comunità somalo-statunitense in Minnesota nel 2017, dove in occasione di un focolaio di morbillo c’è stata una contea in cui era stato vaccinato solo il 36 per cento dei bambini di origine somala nati in Minnesota. Invece di pensare in termini di immunità di gregge, dovremmo dedicarci a raggiungere l’immunità da COVID-19, morbillo e influenza, e anche l’immunità dalle informazioni virali ingannevoli, all’interno delle nostre comunità. Se usiamo fonti affidabili di informazione scientifica, se partiamo con la consapevolezza di come funziona la scienza, se diamo il buon esempio nel mettere in pratica comportamenti di prevenzione contro la diffusione sia del coronavirus sia delle informazioni virali ingannevoli, se siamo realisti riguardo alla forza e ai limiti della persuasione e se, quando è possibile, depoliticizziamo la scienza, possiamo fare la nostra parte nel sistema di difesa della scienza nella nostra comunità. In questo modo aumentano le probabilità che altre persone nella nostra cerchia sociale adottino comportamenti mirati a combattere COVID-19 e spingano i componenti delle loro cerchie sociali a fare altrettanto.
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
L’autrice Kathleen Hall Jamieson è direttrice dell’Annenberg Public Policy Center all’Università della Pennsylvania e cofondatrice di FactCheck.org. Le Scienze, n. 634, giugno 2021 49
I quaderni
Attivismo per la verità Vent’anni fa i movimenti di protesta su Internet hanno aperto senza volerlo la strada alla manipolazione on line dei mezzi di comunicazione. La via d’uscita è nel farsi paladini della verità di Joan Donovan
Illustrazioni di Hanna Barczyk
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
50
I quaderni
Durante la conferenza dell’Organizzazione mondiale del commercio (WTO, da World Trade Organization) a Seattle, negli Stati Uniti, nel 1999, decine di migliaia di contestatori scesero in piazza con striscioni e fantocci per respingere la globalizzazione dell’economia, incontrando una violenta repressione militarizzata. Allo stesso tempo un piccolo gruppo di artisti-attivisti, gli Yes Men, realizzò un sito web parodistico che fingeva di essere quello della WTO. Mascherato con logo e design ufficiali, tramite il sito parodistico gli Yes Man fecero affermazioni critiche riguardo all’organizzazione. La bufala riuscì così bene che gli Yes Men furono invitati a intervenire come WTO a numerose conferenze in giro per il mondo. Mentre questa assurdità continuava a crescere, i visitatori del sito web iniziarono a dubitare di quello che vedevano: che poi era il punto chiave. Resisi conto che potevano portare a termine bufale simili usando imitazioni di siti ufficiali, gli Yes Men costruirono una carriera su queste prese in giro, spacciandosi per National Rifle Association, «New York Times» e Shell, fra i tanti altri. In un inquietante presagio delle campagne di disinformazione attuali, questi attivisti scherzarono sulle gaffe commesse da George W. Bush come candidato alla presidenza degli Stati Uniti su un sito denominato GWBush.com. Per tramite delle parodie, gli Yes Men hanno compreso la potenza di Internet come nuovo terreno interconnesso dove poter combattere battaglie sulla verità. Hanno giocato con l’ambiguità dell’autenticità in tempi in cui la maggior parte degli utenti di Internet era già scettica sui contenuti on line. La tattica di «sabotaggio culturale» (cultural jamming) usata dagli Yes Men prendeva spunto da Guy Debord e dal movimento situazionista degli anni sessanta, che aveva promosso una critica sociale e politica. Negli anni ottanta e novanta il sabotaggio culturale ha unito gli attivisti intorno a una causa comune e a tattiche, come quella di apportare minime modifiche a un annuncio pubblicitario per cambiarne drasticamente il significato. Questa forma di «artivism» [contrazione di «art» e «activism», N.d.T.] è stata sostenuta in particolare da «Adbusters», una rivista canadese che ha condotto numerose campagne contro grandi multinazionali, e che in particolare ha lanciato il movimento Occupy Wall Street nel 2011. Cambiare di poco lo slogan sotto il logo di Nike in just buy it [«comprala e basta», invece dell’originale just do it, «fallo e basta», N.d.T.] era un modo efficace di riorientare le idee del consumatore su che cosa significava indossare il logo di un’azienda come fatto di moda. Fondamentalmente per attivisti come gli Yes Men questa rivelazione forte era la ragion d’essere della bufala. Far vivere al lettore o allo spettatore una dissonanza cognitiva era un’abile strategia che apriva la strada al pensiero critico. Dopo aver aperto questo abisso mentale, doveva Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
cominciare il lavoro vero e proprio: convincere nuove platee di pubblico che quelle grandi multinazionali erano il vero nemico della democrazia e della giustizia. Le tattiche degli Yes Men erano una forma di manipolazione dei mezzi di comunicazione. Per loro e per altri attivisti Internet era un mezzo per trasmettere conoscenza e un modo di contrastare la credulità nella stampa dominante (mainstream) e di chiedere conto alle multinazionali delle loro responsabilità. Ma la genialità di usare Internet come spazio per interventi maliziosi e critici ha funzionato fin troppo bene. Appena vent’anni dopo le aziende tecnologiche hanno creato un ecosistema mediatico che permette a governi, a operatori politici, a chi lavora nel marketing e ad altre parti interessate di esporre costantemente gli utenti di Internet a una pericolosa misinformazione (informazione incorretta, falsa, ma non deliberatamente ingannevole, dall’inglese misinformation) e di indurli con l’inganno ad amplificarla. Ci sono sempre più prove dell’attività di operatori stranieri, opinionisti faziosi, suprematisti bianchi, misogini violenti e imbroglioni che sui social media si spacciano per qualcosa di diverso da ciò che sono per far soldi, guadagnare importanza e orientare l’attenzione dei media. Come siamo arrivati a una situazione in cui le bugie viaggiano più lontano e più velocemente della verità? La risposta coinvolge le promesse delle tecnologie di comunicazione di rete, la nuova economia dei dati e il diluvio sempre più forte della misinformazione strategica redditizia. Dobbiamo ammettere che la verità è spesso noiosa dal punto di vista emotivo e che la motivazione per agire on line tramite, per esempio, la condivisione di un video richiede una combinazione di indignazione, novità e speranza. Ma invece di proporre soluzioni che richiedono modifiche del sistema dei social media, caccia ai bot o insistenza sulla verifica delle identità, per capire come siamo arrivati a questo punto e come uscirne fuori possiamo guardare all’attivismo. Come è cambiata Internet In questi giorni è difficile ricordare che c’è stato un tempo in cui quello che accadeva on line non aveva risonanza mondiale. A metà degli anni novanta, ai tempi d’oro di America Online, gli utenti di Internet proteggevano il proprio anonimato con pseudonimi e profili criptici pieni di versi di canzoni. La maggior parte di loro non avrebbe mai pensato di poter digitare in sicurezza un numero di carta di credito su un sito web o di condividere informazioni di identificazione personale. Dato che la larghezza di banda era limitata, e tutto correva sul filo del telefono, andare on line significava fermare la «vita reale» e formare legami su interessi comuni o magari per la voglia di giocare a backgammon su Yahoo Games. Su Internet si poteva andare per essere se stessi o qualcun altro. John 51
I quaderni
Perry Barlow e altri degli entusiasti pionieri di Internet affermavano che era «la casa della mente», dove né i corpi né le leggi avevano molta importanza. Dato che le notizie erano ancora costose da produrre e la loro distribuzione restava in larga misura in mano ai grandi magnati dei media, Internet non era considerato un luogo dove cercare informazioni autorevoli. A metà anni novanta gli organi di informazione stavano ragionando sul «passare al digitale», il che significava soprattutto mettere on line articoli stampati. Non c’era alcun timore diffuso che le cronache locali scomparissero. Semmai sembrava che la comunicazione tramite la rete avrebbe prodotto risultati opposti: ogni persona dotata di una connessione avrebbe potuto scrivere riguardo alla propria comunità e ai propri interessi rivolgendosi al mondo intero, in forma anonima o meno. Spesso scherzando dico che Internet è morta il giorno in cui qualcuno ha trovato il modo di convincere gli utenti a pagare on line per farsi consegnare a casa la pizza. Via via che Internet si sviluppava in un’economia digitale, un’identità verificabile è diventata indispensabile per il flusso del commercio. Ovviamente, la prima merce ampiamente trattata on line è stata la pornografia, e questo illustra un punto importante: spesso non sono le meraviglie dell’innovazione dirompente a guidare il cambiamento sociale, ma l’adattamento tecnologico delle cose più ordinarie e mondane. Mentre la tecnologia si sviluppa, lo stesso fanno gli esseri umani; nell’adottare nuove tecnologie, le persone diventano parte di un circuito ricorsivo che le cambia insieme al mondo che le circonda. Se il torchio tipografico è stato la piattaforma che ha dato origine a una società di lettori, Internet ha fatto di ciascuno un editore. Le prime piattaforme di social networking, come LiveJournal, BlackPlanet, Friendster e MySpace erano come elenchi telefonici self-service; davano la possibilità di condividere storie e conversare. Similmente, le più grandi società tecnologiche di oggi della Silicon Valley sono partite con intenzioni modeste: un desiderio di collegare tra loro persone per ragioni specifiche. Facebook ha costruito la sua base di utenti garantendo l’esclusività. Era social networking, ma solo per i college di élite degli Stati Uniti. Le sue prime versioni includevano anche una funzionalità misogina con cui gli utenti potevano confrontare e votare l’attrattività delle compagne di studi. YouTube ha iniziato come aggiornamento dei videoappuntamenti: lo «you» di YouTube era un invito agli utenti affinché caricassero brevi video in cui descrivevano il proprio partner perfetto nella speranza di trovare il vero amore. Twitter avrebbe dovuto funzionare come messaggistica di testo tra gruppi di colleghi, tuttavia sembra che abbia trovato il suo vero senso solo quando l’élite tecnologica Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
di SXSW lo ha usato per migliorare le comunicazioni in una rete tecnologica ormai densa. In quel contesto, il limite di caratteri di Twitter è stato celebrato come una forma virtuosa di micro-blogging, in cui brevi stringhe di testo erano favorite rispetto alle prolisse diatribe dei blog tradizionali. Ciascuno di questi strumenti si è evoluto non solo dal punto di vista tecnologico ma anche da quello culturale, mentre la società passava da una fase di entusiasmo a una fase di disillusione. Fin dalla loro nascita, incombevano grandi domande su come le aziende dei social media sarebbero diventate finanziariamente redditizie. La ricerca del profitto ha guidato le decisioni sull’espansione della base degli utenti, sulla rielaborazione dei modelli della pubblicità e sulla conversione degli utenti in valore di mercato. La tecnologia della telefonia mobile e la banda larga hanno accelerato le capacità delle aziende tecnologiche di espandere i propri servizi in nuove aree, come la raccolta di una gran quantità di dati. I dati personali sono stati visti come un prodotto del tempo trascorso su questi servizi e, semplicemente interagendo, gli utenti on line si lasciano dietro abbastanza dati residuali da dare energia a un’economia digitale famelicamente tesa ad aggregare e monetizzare ogni click, «mi piace», condivisione o movimento del mouse. I siti di social networking si sono trasformati in social media, il cui modello di business non è più solo connettere fra loro le persone riempiendo quelle pagine di annunci pubblicitari, ma anche connettere le persone ai «contenuti»: informazioni, immagini, video, articoli, intrattenimento. Il risultato è stata un’economia digitale fondata sul coinvolgimento degli utenti, in cui fabbriche di contenuti (content farm) che producono esche per click (click-bait) sono diventate un principio guida dell’economia di Internet. Ma non sono solo i siti di notizie spazzatura a fare soldi. Creando un ambiente ricco di contenuti, le aziende tecnologiche hanno trasformato gli inserzionisti in clienti e gli utenti in vacche da mungere. I dati sui comportamenti possono essere riconfezionati per finalità che vanno dal marketing alla ricerca alla propaganda politica. Modelli di condivisione dei profitti che fanno dell’utente medio un produttore di contenuti hanno generato una cosiddetta cultura influencer, in cui creativi imprenditoriali hanno coltivato reti di follower e sottoscrittori che poi hanno monetizzato mediante donazioni, sottoscrizioni o contenuti sponsorizzati. Via via che i dati personali sono diventati una miniera d’oro per le aziende dei social media, l’esperienza vissuta dagli utenti è stata personalizzata per prolungare il tempo che trascorrono sui siti. La conseguenza, come oggi ben sappiamo, è stata lo sviluppo di ecosistemi informativi personalizzati. Gli utenti di Internet non vedono più le stesse informazioni. Invece,
52
I quaderni
casse di risonanza (echo chamber) algoritmiche danno forma a flussi (feed) di notizie e a cronologie individuali, al punto che due persone sedute l’una accanto all’altra potrebbero ricevere raccomandazioni assai diverse in base ai loro comportamenti on line del passato. Truffe e imbrogli che verrebbero bloccati se si svolgessero in strada, come vendere merce contraffatta o gestire un’azienda di taxi illegale, hanno prosperato on line. Le società tecnologiche si proteggono dall’assunzione di responsabilità affermando di essere un umile insieme di binari su cui l’informazione è trasportata da un posto all’altro. Soprattutto a causa di un iniziale impegno ideologico secondo cui il cyberspazio non era neppure un luogo, queste aziende hanno fatto leva su un miraggio metaforico per cui la giurisdizione sul cyberspazio è incerta e le responsabilità elusive. Mentre studiosi dei rapporti tra genere, razza e tecnologia come Lisa Nakamura, dell’Università del Michigan, Alice E. Marwick, dell’Università del North Carolina a Chapel Hill, e T.L Taylor, del Massachusetts Institute of Technology (MIT), scrivevano continuamente sui pericoli dello spogliare Internet di un’esistenza materiale, politici e autorità regolatorie non sono riusciti a trattare la rete come un luogo in cui si possono fare danni reali. Tecnologia a due facce Subito prima del lancio della banda larga, negli anni novanta, un modello iper-locale di giustizia nei mezzi di comunicazione ha preso forma tramite l’uso di Internet da parte di attivisti e militanti. Jeffrey Juris, un antropologo dei movimenti sociali di rete, ha studiato da una prospettiva etnografica i modi in cui il movimento contro la globalizzazione delle multinazionali tra fine anni novanta e primi anni duemila ha usato ogni tecnologia a sua disposizione per organizzare grandi riunioni di protesta contro WTO e Fondo monetario internazionale. Come ha scritto Juris, l’uso da parte del movimento zapatista delle tecnologie di comunicazione di rete è stato il precursore dei grandi raduni di protesta: gli insorti usavano le reti on line per collegarsi a livello globale con altri gruppi di orientamento simile e per comunicare alla stampa internazionale aggiornamenti sulla lotta per l’indipendenza del Chiapas. Per pianificare la protesta contro la WTO a Seattle nel 1999, gli attivisti hanno sfruttato siti web e mailing list per coordinare le loro tattiche e costruire una reciproca fiducia al di là delle frontiere. Juris ha scritto su questa forma di attivismo tramite i mezzi di comunicazione nel 2005, studiando lo sviluppo di un hub di giornalismo partecipativo, o fatto dai cittadini (citizen journalism), che ha scelto di chiamarsi Indymedia.org. Scriveva che «Indymedia ha reso disponibile un forum on line su cui pubblicare file audio, video o di testo, mentre anche Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
gli attivisti hanno creato hub temporanei per produrre informazione alternativa, sperimentare le nuove tecnologie e scambiarsi idee e risorse. Influenzati da anarchismo e logiche di collaborazione in rete peer-to-peer, gli attivisti anti-globalizzazione delle multinazionali non solo hanno assunto le tecnologie digitali come strumento pratico ma le hanno anche usate per esprimere immaginari politici alternativi basati su un ideale emergente di rete». L’insieme di questi strumenti digitali condivisi includeva modelli di siti web da adattare e mettere in rete rapidamente tramite un deposito centralizzato. Lo slogan dei collaboratori di Indymedia è diventato: «Non odiare i media, diventa i media!». È stato questo stesso ottimismo tecnologico a spingere più tardi gli attivisti ad adottare Facebook, Twitter e YouTube, accanto a liste di posta elettronica, gruppi di condivisione di SMS testuali e trasmissioni in streaming dal vivo, durante le cosiddette primavere arabe, il movimento Occupy e le prime repliche di Black Lives Matter. Questi movimenti sociali di rete erano multipiattaforma in vari sensi della parola: esistevano su un’infrastruttura computazionale che considerava se stessa una piattaforma tecnologica dove gli attivisti offrivano una piattaforma politica alternativa orientata alla giustizia sociale. Poiché gli attivisti usavano queste infrastrutture per creare cambiamenti molto diffusi, le aziende tecnologiche hanno concepito una nuova finalità per i propri prodotti. Per sfruttare il momento, aziende come Facebook e Twitter hanno ridefinito i propri prodotti come strumenti per la libertà d’espressione. In questo nuovo schema di marketing, le aziende dei social media erano l’analogo di strade digitali o della pubblica piazza, e i loro prodotti erano inquadrati come sinonimo della stessa democrazia. In verità, la scivolosità del termine «piattaforma» ha permesso ad aziende come YouTube, Facebook e Twitter di aggirare regolamenti e obblighi di pubblico interesse che tipicamente sono applicati ai mezzi radiotelevisivi. Poi, nel 2013, lo scandalo di Edward Snowden ha svelato al pubblico un profondo paradosso: la stessa tecnologia usata dagli attivisti per incitare al cambiamento sociale era usata dai governi per spiare i propri cittadini, e da aziende e responsabili di campagne elettorali per effettuare esperimenti di vario genere. Per inciso, Shoshana Zuboff ha recentemente esplorato questo tema nel suo trattato del 2019 sul capitalismo della sorveglianza. La partecipazione degli attivisti sulle piattaforme tecnologiche riguardava in larga misura l’uso di ogni mezzo necessario per ottenere una società più giusta. Con il cambiamento dei prodotti delle piattaforme è cambiata anche la loro utilità per altri attori, come polizia, agenzie d’informazione, politici e brand commerciali. Espandendo la loro clientela a questo genere di professionisti, le aziende tecnologiche hanno diluito la propria reputazione di sede della democrazia
53
I quaderni
digitale e assunto il sinistro carattere di un sistema di mezzi di comunicazione panottico, deciso a fare profitti a discapito degli utenti e di chiunque ne minacciasse la crescita. Falsi per comunicare Nel primo decennio degli anni duemila gli Yes Men hanno continuato a fare scherzi con la loro forma di attivismo digitale. Hanno concepito un programma politico di istruzione, in cui molti hanno considerato l’uso delle bufale come meccanismo di protesta sociale. Le bravate hanno indubbiamente impressionato in modo duraturo e memorabile, ma bufale e travestimenti possono essere controproducenti, dando false speranze. A nessuno piace sentirsi imbrogliato o manipolato, e questa tattica ha ricevuto critiche significative da persone che erano realmente vittime delle grandi multinazionali. Nel 2007, per esempio, gli Yes Men hanno finto di essere Dow Chemical in un’intervista per la BBC prendendosi la responsabilità del disastro dovuto a una fuga di gas tossici a Bhopal, in India, e promettendo di pagare 12 miliardi di dollari di risarcimenti. La «notizia» ha suscitato entusiasmi che poi sono mutati in tristezza e delusione quando le vittime hanno scoperto che in realtà Dow Chemical non aveva fatto una cosa del genere. Negli anni novanta non c’erano solo persone di sinistra a realizzare convincenti siti bufala. La sociologa Jessie Daniels ha studiato la miriade di modi in cui i suprematisti bianchi hanno usato siti web «mascherati» per diffamare Martin Luther King Jr. e altri attivisti e gruppi neri, con tattiche simili a quelle adottate dall’FBI per far circolare storie sullo stesso King. Le fazioni dei suprematisti bianchi che agiscono in rete sono consapevoli di non potersi presentare on line per quello che sono. Che mantengano l’anonimato per evitare le stigma sociale o per sfuggire alle investigazioni per crimini di odio, i suprematisti bianchi continuano a vedere nel Web e nei social un’opportunità politica per reclutare nuovi adepti. Come risultato hanno innovato le strategie per nascondere le loro identità on line in modo da massimizzare il danno reputazionale di chi percepiscono come oppositore. Adesso il campo è aperto a ogni gruppo spinto da motivazioni ideologiche. Fra le tattiche c’è assumere l’identità di singoli esponenti politici, la creazione massiccia di falsi account e le molestie a giornalisti e attivisti coordinate mediante piattaforme di streaming, chat e bacheche digitali. Alcuni gruppi hanno automatizzato l’invio di post per ingannare i segnali algoritmici, e sfruttato strumenti pubblicitari a pagamento per attaccare popolazioni vulnerabili. Altri hanno prodotto video e immagini denigratori con tecniche avanzate di falsificazione di immagini e filmati (deepfake). Hanno anche adottato tecniche per influenzare gli algoritmi che Copia di 8ccb7ec56439dd59ee23cdaad523b08b
le Scienze
stabiliscono le tendenze e per aggirare la moderazione dei contenuti. Pioniere di molte di queste tecniche, come l’uso dei bot, sono state le agenzie di pubblicità, che avevano capito che i dati erano denaro e la creazione di dati falsi sul coinvolgimento degli utenti può generare profitti veri. Oggi creare account fasulli e manipolare il coinvolgimento degli utenti sono mezzi per realizzare altri imbrogli. A differenza degli artisti-attivisti, per cui l’inganno era uno strumento per svelare verità più profonde sullo sfruttamento capitalista, questi impostori si avvalgono dell’occultamento e dello pseudo-anonimato per attaccare giornalisti, politici e utenti. Con Brian Friedberg, mio collega della Harvard University, ho scritto dell’impatto delle «operazioni di influenza pseudo-anonime», in cui attori politicamente motivati impersonano gruppi emarginati, sottorappresentati e vulnerabili per diffamarli, scompaginarli o esagerarne le istanze. Di recente, account gestiti da suprematisti bianchi che affermavano di essere attivisti antifascisti sono stati smascherati come impostori. Reagire alla disinformazione Se e quando gli operatori degli account pseudo-anonimi sono scoperti, non c’è una grande rivelazione di una critica sociale o politica più ampia: in genere il loro scopo è indurre i giornalisti a sporcare l’immagine degli oppositori o semplicemente provocare il caos. Questi «disinformatori» si spostano rapidamente sulla prossima potenziale campagna di manipolazione dei mezzi di comunicazione per far portare avanti le loro agende politiche. Estirpare queste tattiche ingannevoli è possibile, ma richiederebbe che le aziende ammettessero che la progettazione dei loro sistemi aiuta e favorisce i manipolatori dei mezzi di comunicazione. In effetti, non abbiamo uguali opportunità nell’ecosistema dei mezzi di comunicazione. L’angoscia di vedere queste tattiche dispiegate più e più volte per diffamare i movimenti per la giustizia illustra che, a lungo andare, sono efficaci solo per chi vuole ottenere guadagni a breve termine rispetto a sicurezza e fiducia sul lungo periodo. Molte persone credono di poter riconoscere notizie false e propaganda, ma la realtà è che assai difficile, perché il modello stesso dei social media e gli incentivi a introdurre misinformazione sono sbilanciati a favore dei disinformatori. In un ambiente in cui nuove affermazioni viaggiano lontano e veloce, la verità è pesantemente in svantaggio. La reticenza delle aziende tecnologiche a gestire le guerre informative che vanno in scena sulle loro piattaforme porta la società nel suo complesso a pagarne il prezzo. Gli organi di informazione, e anche i singoli giornalisti, stanno investendo una gran quantità di risorse per combattere il
54
I quaderni
problema. Esperti di sicurezza nazionale e centri di ricerca accademica di tutto il mondo stanno creando programmi di moderazione dei contenuti per monitorare i social media. Ma anche gli attivisti, che da tempo subiscono i danni di copertura di una stampa male informata, sono ora chiamati a difendere la loro stessa esistenza dagli impostori: i disinformatori che stanno deliberatamente rubando l’autorità morale e la fiducia che gli attivisti hanno costruito in anni e anni di coinvolgimento digitale. Per chiunque tenga ancora profondamente alla verità, e all’accesso delle persone alla verità, reagire implica dismettere l’ideologia secondo cui le piattaforme tecnologiche sarebbero la democrazia in azione. Sono invece passate dal connettere persone a persone a connettere persone all’informazione, spostando l’asse del potere verso quei gruppi che hanno la maggior parte delle risorse. Si tratta, inoltre, di attività fondamentalmente economiche che hanno cambiato scala senza alcun piano per mitigare i propri effetti dannosi sulla società. Paladini della verità Riprogettare i social media affinché assicurino un’informazione tempestiva, locale, rilevante e autorevole richiede un impegno a progettare la giustizia, che vede la tecnologia non come uno strumento neutrale ma come un mezzo per costruire il mondo che vogliamo. Secondo le ricerche di Sasha Costanza-Chock, studiosa della comunicazione al MIT, il processo di progettazione deve aderire a un’etica che dica: «Niente su di noi senza noi». Per esempio, non ci sarebbe alcuna responsabilità di chi usa tecnologie di riconoscimento facciale senza l’attivismo di gruppi come Algorithmic Justice League, le ricerche di AI Now, il lavoro politico dell’American Civil Liberties Union e le tante persone comuni che esprimono apertamente il loro appoggio on e off line. Gli attivisti sono visionari, nel senso che vedono le cose non solo per come sono ma per quello che possono diventare. Nei primi anni duemila hanno trasformato la tecnologia in modi nuovi ed entusiasmanti, ma quell’era è finita. Non possiamo continuare a farci travolgere dalla «tecnonostalgia» per ciò che è stato, o che sarebbe potuto essere. Se vogliamo sopravvivere al nostro ecosistema malato dei social media, la verità ha bisogno di paladini.
L’autrice Joan Donovan è adjunct professor alla Harvard Kennedy School e direttrice di ricerca dello Shorenstein Center on Media, Politics and Public Policy. Questo articolo è dedicato alla memoria, alle ricerche e all’attivismo di Jeffrey Juris (1971-2020). Copia di 8ccb7ec56439dd59ee23cdaad523b08b
Le Scienze, n. 629, gennaio 2021 le Scienze
55
I quaderni