24 minute read
L’economia dell’attenzione
di Filippo Menczer e Thomas Hills
Capire come algoritmi e manipolatori sfruttano le nostre vulnerabilità cognitive ci permette di reagire
Partiamo da un esempio: quello di Andy, una persona che ha paura di contrarre COVID-19. Dato che non può leggere tutti gli articoli che vede sull’argomento, si affida ai suggerimenti degli amici più fidati. Quando uno di loro sostiene su Facebook che la paura della pandemia è un’esagerazione, Andy all’inizio rifiuta l’idea. Poi però l’albergo in cui lavora chiude i battenti, e con il suo impiego a rischio Andy inizia a chiedersi quanto sia davvero grave la minaccia del nuovo virus. Dopotutto nessuno di quelli che conosce è morto. Un collega segnala un articolo in cui si afferma che lo «spauracchio» di COVID è stato creato da Big Pharma in collusione con alcuni politici corrotti, una tesi che si sposa bene con la sfiducia che Andy prova nei confronti del governo. Una ricerca sul Web lo porta ben presto ad articoli che sostengono che COVID-19 sia non più grave dell’influenza. Su Internet, Andy entra a far parte di un gruppo di persone che sono state licenziate o temono di esserlo e nel giro di poco tempo si ritrova, come molti di loro, a chiedersi: «Ma quale pandemia?». Quando scopre che numerosi suoi nuovi amici intendono partecipare a una manifestazione per chiedere la fine delle misure restrittive anti-COVID, decide di unirsi a loro. In quella grande protesta quasi nessuno indossa la mascherina, e neppure Andy lo fa. Quando sua sorella gli chiede com’è andata la manifestazione, Andy condivide la convinzione che ormai è diventata parte della sua identità: COVID è una bufala. Questo esempio illustra bene il campo minato dei pregiudizi cognitivi. Preferiamo le informazioni che provengono da persone di cui ci fidiamo, dal nostro cosiddetto endogruppo. Prestiamo più attenzione e siamo più portati a condividere le informazioni che riguardano
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
un rischio, nel caso di Andy il rischio di perdere il lavoro. Cerchiamo e ricordiamo cose che si adattano bene con quello che già sappiamo e capiamo. Questi bias sono prodotti del nostro passato evolutivo e per decine di migliaia di anni ci sono stati utili. Le persone che si comportavano seguendo questi bias (per esempio evitando la riva dello stagno, con la sua vegetazione incolta, dove qualcuno aveva detto di aver visto una vipera) avevano
maggiori probabilità di sopravvivere rispetto alle persone che non lo facevano. Le tecnologie moderne stanno però amplificando questi bias in modi dannosi. I motori di ricerca indirizzano Andy verso siti web che infiammano i suoi sospetti e i social media lo mettono in contatto con persone che la pensano come lui, alimentando le sue paure. A peggiorare le cose ci sono i bot, ovvero account automatici che sui social media fanno finta di essere persone vere e proprie, permettendo ad altri soggetti, sia quelli che si sbagliano in buona fede sia quelli con intenzioni ostili, di sfruttare la vulnerabilità di Andy. Ad aggravare il problema c’è la proliferazione di informazioni on line. Vedere e produrre blog, video, tweet e altre unità di informazione chiamate meme è diventato così semplice ed economico che il mercato dell’informazione ne è inondato. Poiché non siamo in grado di elaborare tutto questo materiale, permettiamo ai nostri bias cognitivi di decidere a che cosa dovremmo prestare attenzione. Queste scorciatoie mentali influiscono in modo dannoso su quali informazioni cerchiamo, capiamo, ricordiamo e ripetiamo. Comprendere queste vulnerabilità cognitive e il modo in cui gli algoritmi le usano o le manipolano è diventata una necessità urgente. All’Università di Warwick, nel Regno Unito, e all’Observatory on Social Media (OSoMe, da pronunciarsi come la parola inglese awesome, che significa «fantastico») dell’Università dell’Indiana a Bloomington, negli Stati Uniti, i nostri gruppi di ricerca stanno usando esperimenti cognitivi, simulazioni, tecniche di data mining e intelligenza artificiale per capire le vulnerabilità cognitive degli utenti dei social media. Conoscenze ottenute da ricerche di psicologia sull’evoluzione dell’informazione effettuate a Warwick contribuiscono a determinare la progettazione di modelli informatici sviluppati a Bloomington, e viceversa. Stiamo sviluppando anche strumenti analitici e di machine learning (apprendimento automatico) per combattere la manipolazione dei social media. Alcuni di questi strumenti sono già usati da giornalisti, organizzazioni della società civile e singole persone per individuare utenti fittizi, tracciare la diffusione di false narrazioni e favorire l’alfabetizzazione mediatica.
Facili bersagli della polarizzazione
L’eccesso di informazioni ha generato una forte competizione per ottenere l’attenzione delle persone. L’economista e psicologo Herbert A. Simon, vincitore di un premio Nobel, osservava: «Quello che l’informazione consuma è abbastanza ovvio: consuma l’attenzione di chi la riceve». Una delle prime conseguenze della cosiddetta economia dell’attenzione è la perdita dell’informazione di alta qualità. Il gruppo di ricerca dell’OSoMe ha dimostrato questo risultato con un insieme di semplici simulazioni. Ha rappresentato gli utenti dei social media come Andy, detti agenti, sotto forma di nodi in una rete di individui che si conoscono on line. In ciascun passo temporale della simulazione un agente può generare un meme oppure condividerne uno che ha visto in un feed di notizie. Per simulare i limiti di attenzione, gli agenti possono vedere solo un certo numero di contenuti, partendo dalla cima del loro feed. Lasciando continuare la simulazione per un grande numero di passi, Lilian Weng dell’OSoMe ha scoperto che, dato che l’attenzione degli agenti era ridotta, la propagazione dei meme arrivava a riflettere la stessa distribuzione di legge di potenza esistente sui social media veri: la probabilità che un meme fosse condiviso un certo numero di volte era pari circa all’inverso della potenza di quel numero. Per esempio, la probabilità che un meme fosse condiviso tre volte era inferiore di circa nove volte rispetto alla probabilità che fosse condiviso una volta sola. Questo schema di popolarità dei meme, una sorta di «chi vince piglia tutto» in cui la maggior parte dei contenuti è a malapena notata mentre alcuni rari casi sono disseminati ampiamente, non si può spiegare con il fatto che alcuni siano più accattivanti o in qualche modo abbiano maggior valore: nel mondo della simulazione i meme non avevano alcuna qualità intrinseca. La viralità era semplicemente il risultato delle conseguenze statistiche della proliferazione di informazioni in una rete sociale di agenti caratterizzati da un’attenzione limitata. Anche quando gli agenti condividevano in via preferenziale i meme di qualità più alta, la ricercatrice Xiaoyan Qiu, che in quel periodo lavorava all’OSoMe, ha osservato uno scarso miglioramento nella qualità complessiva dei meme più condivisi. I nostri modelli hanno rivelato che anche quando desideriamo vedere e condividere informazioni di alta qualità, la nostra incapacità di vedere tutto quello che c’è sui nostri feed ci porta inevitabilmente a condividere cose parzialmente o completamente false. I bias cognitivi peggiorano di molto il problema. In una serie di studi rivoluzionari nel 1932, lo psicologo Frederic Bartlett raccontò ad alcuni volontari una leggenda dei nativi americani a proposito di un giovane uomo che sente grida di guerra e, inseguendole, si ritrova dentro una battaglia onirica che alla fine porta alla sua morte vera. Bartlett chiese ai volontari, che non erano nativi americani, di ripetere quella storia piuttosto confusa dopo intervalli di tempo crescenti, da pochi minuti fino a qualche anno dopo. Scoprì che, con il passare del tempo, i soggetti tendevano a distorcere le parti della storia che culturalmente erano più distanti da loro e quindi quelle componenti erano smarrite del tutto oppure trasformate in cose più familiari. Oggi sappiamo che la nostra mente fa così in continuazione: corregge la nostra comprensione delle nuove informazioni in modo che si adattino a quello che già sappiamo. Una conseguenza di questo cosiddetto bias di conferma è che
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
Spesso i nostri feed sui social media sono così pieni che molti di noi riescono a vedere solo i primi contenuti,da cui poi scegliamo che cosa condividere o ritwittare. Alcuni ricercatori dell’Observatory on Social Media (OSoMe) di Bloomington, negli Stati Uniti, hanno generato una simulazione che tiene conto di questa limitata capacità di attenzione. Ciascun nodo di questo modello rappresenta un utente, collegato da linee ad amici o follower, che ricevono i contenuti che quell’utente condivide. I ricercatori hanno scoperto che via via che aumenta il numero di meme presenti in rete (verso destra), crolla la qualità di quelli che si propagano di più (i cerchi diventano più piccoli). In altre parole, il sovraccarico di informazioni da solo basta a spiegare come possano diventare virali le fake news.
Pochi
Il carico di informazioni è basso e la qualità delle informazioni condivise è alta
Numero di meme diversi in gioco
Colori diversi rappresentano meme diversi
Meme A
Meme B
Meme C Tanti
Il carico di informazioni è alto e la qualità delle informazioni condivise è bassa
Ciascun pallino rappresenta un account sui social media Le linee rappresentano i collegamenti tra account La dimensione dei pallini indica la qualità dell’ultimo meme condiviso
Alta Bassa
Fonte: Limited Individual Attention and Online Virality of Low-Quality Information, di Qiu, X. e altri, in «Nature Human Behaviour», Vol. 1, giugno 2017.
spesso le persone cercano, ricordano e comprendono le informazioni che più corroborano quello in cui già credono. Questa tendenza è estremamente difficile da correggere. Diversi esperimenti hanno dimostrato ripetutamente che anche quando si trovano di fronte a informazioni equilibrate che contengono prospettive diverse, le persone tendono a trovare prove a sostegno di quello in cui già credono. E quando si mostrano le stesse informazioni a individui che hanno convinzioni divergenti su argomenti con forte carica emotiva, come per esempio il cambiamento climatico, entrambe le parti diventano ancora più convinte delle rispettive posizioni iniziali. A peggiorare le cose, i motori di ricerca e le piattaforme di social media offrono raccomandazioni personalizzate che si basano sulle enormi quantità di dati che hanno sulle preferenze passate dei singoli utenti. Nei nostri feed danno la priorità a quelle informazioni con cui saremo più probabilmente d’accordo (indipendentemente da quanto siano estreme) e ci proteggono da quelle informazioni che potrebbero farci cambiare idea. Questo ci rende facili bersagli della polarizzazione. Di recente Nir Grinberg e i suoi collaboratori alla Northeastern University hanno dimostrato che i conservatori statunitensi sono più ricettivi alla disinformazione, però la nostra analisi sul consumo di informazioni di bassa qualità su Twitter dimostra che questa vulnerabilità c’è lungo tutto lo spettro delle posizioni politiche, fino a entrambe le estremità, e che nessuno ne è del tutto al riparo. Addirittura la nostra capacità di accorgerci dei tentativi di manipolazione on line è influenzata dalla nostra appartenenza politica, anche se non in modo simmetrico: gli utenti repubblicani hanno maggiori probabilità di scambiare i bot che promuovono idee conservatrici per esseri umani, mentre i democratici hanno maggiori probabilità di scambiare gli utenti umani conservatori per bot.
Greggi social
A New York, un giorno dell’agosto 2019, alcune persone
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
iniziarono a scappare da quelli che sembravano colpi di arma da fuoco. Altre persone seguirono le prime, alcune gridando «Sparano!». Solo più tardi si sarebbe scoperto che i colpi erano causati dal ritorno di fiamma di una motocicletta. In una situazione del genere, correre subito e fare domande solo in un secondo momento può essere una buona idea. In assenza di segnali chiari, il nostro cervello usa le informazioni che ha a proposito della folla per
I bot, ovvero account automatici che fingono di essere utenti umani, riducono di molto la qualità dell’informazione sui social network. In una simulazione al computer, alcuni ricercatori dell’OSoMe hanno inserito nel social network alcuni bot (modellizzati come agenti che twittano solo meme di qualità zero e si ritwittano solo a vicenda). In questo modo gli scienziati hanno scoperto che quando meno dell’1 per cento degli utenti umani segue i bot, la qualità dell’informazione è alta (a sinistra); invece quando la percentuale di infiltrazione dei bot supera l’1 per cento l’informazione di bassa qualità si propaga in tutta la rete (a destra). Nelle reti sociali vere possono bastare pochi voti positivi dati dai bot quando un contenuto è stato pubblicato da poco per far diventare virale una fake news.
Basso Livello di infiltrazione dei bot
Quando l’infiltrazione dei bot è bassa, la qualità generale delle informazioni condivise è alta
Ciascun pallino rappresenta un account sulle reti sociali
La sfumatura di colore rappresenta la qualità delle informazioni condivise Alto
Basso
I pallini rosa sono account autentici
Alto
Quando l’infiltrazione dei bot è alta, la qualità generale delle informazioni condivise è bassa
I pallini gialli sono bot (account automatici) Le linee e la vicinanza tra pallini rappresentano i collegamenti tra account
La dimensione dei pallini rappresenta l’influenza (numero di follower autentici)
Alto Basso Grafico di Filippo Menczer
determinare le azioni più appropriate, un po’ come avviene nel comportamento dei pesci in un banco o degli uccelli in uno stormo. Questo conformismo sociale tende a pervadere ogni cosa. In un interessante studio del 2006 che ha coinvolto 14.000 volontari sul Web, Matthew Salganik, all’epoca alla Columbia University, e i suoi colleghi hanno scoperto che quando possono vedere quali canzoni scaricano gli altri utenti le persone finiscono per scaricare musica simile. Inoltre, quando i volontari erano divisi in gruppi «sociali», in cui potevano vedere le preferenze degli altri membri del loro circolo ma non avevano alcuna informazione a proposito degli esterni, le scelte dei vari gruppi si differenziavano rapidamente. Invece le scelte dei gruppi «non sociali», in cui nessuno sapeva niente delle scelte altrui, rimanevano relativamente stabili. In altre parole i gruppi sociali producono una pressione così forte verso il conformismo che riesce a superare le preferenze individuali e, amplificando quelle che in una fase iniziale sono differenze casuali, può portare gruppi separati a differenziarsi fino all’estremo. I social media seguono una dinamica simile. Confondiamo la popolarità con la qualità e finiamo per copiare i comportamenti che vediamo. Esperimenti condotti su Twitter da Bjarke Mønsted e suoi colleghi alla Technical University of Denmark e all’University of Southern California indicano che le informazioni si trasmettono per «contagio complesso»: quando siamo esposti ripetutamente a un’idea, in genere da molte fonti diverse, è più probabile che la facciamo nostra e la condividiamo. Questo bias sociale è ulteriormente amplificato da quello che gli psicologi chiamano effetto della «mera esposizione»: quando una persona è esposta ripetutamente agli stessi stimoli, per esempio a certi volti, inizia ad apprezzare quegli stimoli di più rispetto a quelli con cui è entrata in contatto meno spesso. Questi bias si traducono in un desiderio irresistibile di prestare attenzione alle informazioni che diventano virali:
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
se tutti ne parlano, deve essere qualcosa di importante. Oltre a mostrarci cose che si conformano alle nostre opinioni, le piattaforme di social media come Facebook, Twitter, YouTube e Instagram mettono in cima i contenuti più popolari e ci fanno vedere quante persone hanno messo like e hanno condiviso un certo contenuto. Pochi di noi si rendono conto che queste indicazioni non implicano una valutazione indipendente di qualità.
Uno studio che ha analizzato gli utenti di Twitter valutandone l’inclinazione politica ha scoperto che sia i liberali sia i conservatori finiscono per condividere informazioni da siti che pubblicano ripetutamente notizie con bassi livelli di affidabilità (identificate come tali da esperti di fact-checking indipendenti). Tuttavia gli utenti conservatori sono leggermente più suscettibili a condividere fake news.
Su questo grafico sono riportati più di 15.000 utenti Twitter. La dimensione di ciascun pallino rappresenta il numero di account (da 1 a 429) che condividono le stesse coordinate in termini di posizione politica e disinformazione 1 429 Alto
Percentuale di tweet per utente usati per condividere link da fonti poco affidabili Rischio di diffusione della disinformazione
Basso 75
50
25
0
Estremamente liberale Centrista Estremamente conservatore
Posizione politica dell’utente (dedotta a partire dall’insieme di fonti di notizie condivise dall’utente)
Grafico di Jen Christiansen; fonte: Dimitar Nikolov e Filippo Menczer (dati)
In effetti, i programmatori che progettano gli algoritmi che calcolano la classifica dei meme sui social media presumono che la «saggezza della folla» identifichi rapidamente i contenuti di alta qualità e usano la popolarità come indicatore approssimativo della qualità. La nostra analisi di enormi quantità di dati anonimi sui clic mostra che tutte le piattaforme (social media, motori di ricerche e siti di notizie) ci presentano in modo preferenziale informazioni da un esiguo sottoinsieme di fonti popolari. Per capirne il motivo abbiamo creato un modello che riproduce come queste piattaforme combinano gli indicatori di qualità e di popolarità nel determinare le loro classifiche. In questo modello gli agenti con attenzione limitata (quelli che vedono solo un certo numero di contenuti in cima al loro feed) hanno anche più probabilità di cliccare sui meme che la piattaforma ha messo più in alto nella classifica. Ogni contenuto è dotato di una qualità intrinseca, come pure di un livello di popolarità determinato da quante volte qualcuno lo ha cliccato. Un’altra variabile tiene traccia di quanto la classifica sia basata sulla popolarità piuttosto che sulla qualità. Le simulazioni condotte con questo modello rivelano che questi bias insiti negli algoritmi di solito sopprimono la qualità dei meme anche in assenza di bias umani. Anche quando vogliamo condividere le informazioni migliori, gli algoritmi finiscono per portarci fuori strada.
Camere dell’eco
La maggior parte di noi non crede di seguire il gregge. Tuttavia il nostro bias di conferma ci porta a seguire quelli che sono simili a noi, in una dinamica che è volte è chiamata omofilia: la tendenza delle persone che la pensano allo stesso modo a instaurare un rapporto tra loro. I social media amplificano l’omofilia, perché permettono agli utenti di modificare la struttura della propria rete sociale seguendo qualcuno, togliendo l’amicizia a qualcun altro e così via. Il risultato è che le persone finiscono per separarsi in grandi comunità dense e sempre più disinformate, spesso definite camere dell’eco. All’OSoMe abbiamo studiato l’emergere delle camere dell’eco con un’altra simulazione, chiamata EchoDemo. In questo modello ciascun agente ha un’opinione politica, rappresentata da un numero che va da –1 (liberale, per esempio) a +1 (conservatore). Nei post dei vari agenti si riflettono queste inclinazioni. Gli agenti sono inoltre influenzati dalle opinioni che vedono nei loro feed e
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
possono decidere di non seguire più gli utenti con opinioni diverse dalle loro. Partendo inizialmente da reti e opinioni casuali abbiamo scoperto che l’influenza sociale abbinata alla possibilità di non seguire più qualcuno accelera di molto la formazione di comunità polarizzate e separate. In effetti su Twitter le camere dell’eco relative alle opinioni politiche sono così estreme che è possibile prevedere con un alto livello di accuratezza la posizione politica di singoli
utenti: ciascuno ha le stesse opinioni della maggioranza dei suoi contatti. Questa struttura a compartimenti è efficiente nel diffondere l’informazione all’interno di una comunità mentre allo stesso tempo isola quella comunità rispetto ad altri gruppi. Nel 2014 il nostro gruppo di ricerca è stato oggetto di una campagna di disinformazione secondo cui facevamo parte di un progetto politico che aveva l’obiettivo di sopprimere la libertà di parola. Questa falsa accusa si è diffusa in modo virale nella camera dell’eco conservatrice, mentre gli articoli dei cacciatori di bufale che la confutavano si trovavano soprattutto nella comunità liberale. Purtroppo questa separazione tra fake news e articoli che le confutano è la norma. I social media possono anche aumentare la nostra negatività. In un recente studio in laboratorio, Robert Jagiello, anche lui a Warwick, ha osservato che le informazioni socialmente condivise non solo rinforzano i nostri bias ma diventano anche più resistenti alla correzione. Jagiello ha studiato come le informazioni passano da una persona all’altra in una cosiddetta catena di diffusione sociale. Nell’esperimento, la prima persona della catena leggeva una serie di articoli sull’energia nucleare oppure sugli additivi alimentari. I brani erano stati scelti in modo che fossero equilibrati, includendo informazioni positive (per esempio sul calo dell’inquinamento da anidride carbonica, oppure sull’aumento del periodo di conservazione degli alimenti) che altrettante informazioni negative (per esempio sul rischio di meltdown nucleare o sui possibili danni alla salute causati dagli additivi). La prima persona nella catena di diffusione sociale faceva conoscere gli articoli alla seconda, questa ne parlava con la terza e così via. Abbiamo osservato un aumento complessivo della quantità di informazioni negative via via che si procedeva lungo la catena: è quella che si dice l’amplificazione sociale del rischio. Inoltre un lavoro di Danielle J. Navarro e colleghi all’Università del Nuovo Galles del Sud, in Australia, ha scoperto che in una catena di diffusione sociale le informazioni sono maggiormente suscettibili di distorsione da parte delle persone con i bias più estremi. Peggio ancora, la diffusione sociale rende le informazioni negative anche più «appiccicose». Quando in seguito Jagiello ha presentato alle persone che componevano quelle catene di diffusione sociale le informazioni originali e bilanciate (le informazioni che aveva letto la prima persona della catena), quelle stesse informazioni hanno aiutato poco nel ridurre l’atteggiamento negativo dei soggetti. L’informazione passata tramite le persone non era diventata solo più negativa, ma anche più resistente al cambiamento. Uno studio effettuato nel 2015 dai ricercatori dell’OSoMe Emilio Ferrara e Zeyao Yang ha analizzato i dati empirici relativi a un «contagio emotivo» di questo genere su Twitter e ha scoperto che le persone sovraesposte ai contenuti negativi tendono a condividere post negativi, mentre quelle sovraesposte ai contenuti positivi tendono a condividere post più positivi. Dato che i contenuti negativi si diffondono più rapidamente rispetto a quelli positivi, è facile manipolare le emozioni creando storie che generano risposte negative come paura e ansia. Ferrara, che oggi lavora alla University of Southern California e suoi colleghi alla Fondazione Bruno Kessler, in Italia, hanno dimostrato che durante il referendum sull’indipendenza catalana del 2017 i bot erano stati usati sui social per ritwittare le storie più violente e mirate a infiammare gli animi, storie che così aumentavano la propria esposizione ed esasperavano il conflitto sociale.
L’ascesa dei bot
La qualità delle informazioni è ulteriormente compromessa dai bot sociali, che riescono a sfruttare tutte le nostre falle cognitive. I bot sono facili da creare. Le piattaforme dei social media mettono a disposizione le cosiddette API (application programming interfaces), con cui è abbastanza banale per un singolo soggetto impostare e controllare migliaia di bot. Però amplificare un messaggio, anche solo con pochi voti positivi dati dai bot quando un contenuto è stato pubblicato da poco su piattaforme come Reddit, può avere un impatto enorme sulla successiva popolarità di un post. All’OSoMe abbiamo sviluppato algoritmi di machine learning per identificare i bot sociali. Uno di questi, chiamato Botometer, è uno strumento a disposizione del pubblico, che estrae da un account Twitter 1200 parametri che ne descrivono profilo, amici, struttura sociale sulla rete, periodi ricorrenti di attività, lingua e altro ancora. Il programma confronta queste caratteristiche con quelle di decine di migliaia di bot già identificati in precedenza e dà all’account un punteggio che descrive la probabilità che quell’account faccia uso di automazione. Secondo una stima che abbiamo elaborato nel 2017, fino al 15 per cento degli account attivi su Twitter erano bot, e avevano avuto un ruolo chiave nella diffusione di informazioni false durante la campagna elettorale statunitense del 2016. Quando una fake news faceva la sua comparsa (per esempio quella che sosteneva che la campagna di Hillary Clinton facesse uso di riti occultisti), nel giro di pochi secondi era twittata da molti bot, e a
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
seguire anche gli esseri umani, ammaliati dall’apparente popolarità di quel contenuto, lo ritwittavano. I bot ci influenzano anche fingendo di essere persone del nostro endogruppo. Un bot non deve fare altro che seguire, mettere like e ritwittare qualcuno che fa parte di una comunità on line per infiltrarsi rapidamente nel gruppo. La ricercatrice dell’OSoMe Xiaodan Lou ha sviluppato un altro modello in cui alcuni agenti sono bot che si sono infiltrati
in una rete sociale e condividono contenuti di bassa qualità ma che sembrano interessanti, tipo acchiappa-clic. Un parametro del modello descrive la probabilità che un agente vero segua i bot, che ai fini di questo modello sono definiti come agenti che generano meme di qualità zero e si ritwittano solo a vicenda. Le nostre simulazioni dimostrano che questi bot riescono efficacemente ad annullare la qualità dell’informazione dell’intero ecosistema infiltrandosi solo in una piccola parte della rete. I bot inoltre possono accelerare la formazione di camere dell’eco suggerendo altri account falsi da seguire, una tecnica chiamata «creare follow train». Alcuni manipolatori lavorano contemporaneamente su entrambi i lati di una barricata, usando bot e siti di fake news per manovrare la polarizzazione politica oppure per guadagnare con gli annunci pubblicitari. All’OSoMe abbiamo scoperto di recente una rete di account falsi su Twitter, tutti coordinati dallo stesso soggetto: alcuni fingevano di essere sostenitori di Donald Trump nella campagna «Make America Great Again», mentre altri si atteggiavano a «resistenti» contro Trump, e tutti chiedevano donazioni. Operazioni di questo genere amplificano i contenuti che sfruttano i bias di conferma e accelerano la formazione di camere dell’eco polarizzate.
Frenare la manipolazione on line
Capire i nostri bias cognitivi e il modo in cui algoritmi e bot li sfruttano ci permette di proteggerci meglio contro la manipolazione. L’OSoMe ha creato diversi strumenti per aiutare le persone a capire le proprie vulnerabilità e le debolezze delle piattaforme social. Uno di questi strumenti è un’app per dispositivi mobili chiamata Fakey, che aiuta gli utenti a imparare a individuare la disinformazione. Il gioco simula un feed di social media con articoli veri provenienti da fonti molto oppure poco attendibili. Gli utenti devono decidere che cosa possono condividere, che cosa farebbero meglio a non condividere e che cosa andare a verificare. L’analisi dei dati di Fakey conferma la prevalenza di greggi sui social: è più probabile che gli utenti condividano articoli da fonti poco affidabili se credono che siano già stati condivisi da tante altre persone. Un altro programma disponibile per il pubblico, Hoaxy, mostra come qualsiasi meme esistente si diffonde su Twitter. In questa visualizzazione i nodi rappresentano gli account su Twitter e i collegamenti rappresentano il propagarsi di un meme da un account all’altro tramite retweet, citazioni, menzioni e risposte. Ogni nodo ha un colore che ne rappresenta il punteggio calcolato da Botometer, il che permette agli utenti di vedere fino a che punto i bot amplifichino la disinformazione. Questi strumenti sono stati usati da giornalisti investigativi per scoprire le radici di campagne di disinformazione, come quella che sosteneva la teoria del complotto chiamata pizzagate negli Stati Uniti. Hanno anche aiutato a identificare iniziative che usavano i bot per impedire agli elettori di votare nelle elezioni di midterm negli Stati Uniti nel 2018. Però via via che gli algoritmi di machine learning diventano più bravi a emulare il comportamento umano, la manipolazione diventa sempre più difficile da individuare. Oltre a diffondere fake news, le campagne di disinformazione possono anche distogliere l’attenzione da altri problemi più gravi. Per combattere questo tipo di manipolazione, di recente abbiamo sviluppato un programma chiamato BotSlayer. Questo programma estrae hashtag, link, account e altri elementi che si presentano congiuntamente nei tweet relativi ad argomenti che l’utente vuole studiare. Per ciascun elemento, BotSlayer traccia i tweet, gli account da cui sono stati postati e il punteggio bot di questi ultimi, per segnalare quegli elementi di tendenza che probabilmente sono amplificati da bot oppure da account coordinati. L’obiettivo è permettere a giornalisti, organizzazioni della società civile e candidati politici di individuare e tracciare le campagne false in tempo reale. Questi strumenti software sono mezzi importanti, ma per bloccare la proliferazione delle fake news sono necessari anche cambiamenti a livello istituzionale. L’insegnamento può aiutare, anche se è improbabile che copra tutti gli argomenti su cui le persone vengono ingannate. Alcuni governi e piattaforme social stanno anche cercando di dare un giro di vite alla manipolazione on line e alle fake news. Ma chi è che decide che cosa sia falso o manipolativo e che cosa no? Si possono corredare le informazioni con avvisi come quelli che hanno iniziato a mettere Facebook e Twitter, ma le persone che inseriscono gli avvisi sono davvero affidabili? Il rischio che questo tipo di misure porti deliberatamente o inavvertitamente alla soppressione della libertà di parola, che è vitale per democrazie solide, è reale. Il predominio di alcune piattaforme social di portata globale e con stretti legami con i governi complica ulteriormente le possibilità. Una delle idee migliori è forse rendere più difficile la creazione e la condivisione di informazioni di bassa qualità. Per farlo si potrebbe introdurre una forma di dissuasione, facendo in modo che le persone debbano pagare per condividere o ricevere informazioni. Il pagamento potrebbe avvenire sotto forma di tempo, impegno mentale con test da risolvere, oppure microcommissioni per l’abbonamento o l’uso. I post automatici sarebbero trattati come la pubblicità. Alcune piattaforme stanno già inserendo una forma di dissuasione, per quanto minima, con l’uso di CAPTCHA e procedure di verifica via smartphone per accedere agli account. Twitter ha imposto limiti alla pubblicazione di post automatici. Questi sforzi si potrebbero ampliare per portare gradualmente a incentivare la condivisione di quelle informazioni che hanno più valore per i consumatori.
Copia di 8ccb7ec56439dd59ee23cdaad523b08b
La comunicazione libera non è gratuita. Abbassando il costo dell’informazione ne abbiamo abbassato il valore e abbiamo aperto le porte alla sua adulterazione. Per rimettere in salute il nostro ecosistema informativo dobbiamo comprendere le vulnerabilità delle nostre menti sopraffatte e il modo in cui l’economia dell’informazione può essere usato a nostro vantaggio per proteggerci da chi vuole indurci in errore.
Gli autori
Filippo Menczer è distinguished professor di informatica e scienze dell’informazione e direttore dell’Observatory on Social Media all’Università dell’Indiana. Studia la diffusione della disinformazione e sviluppa strumenti per combattere la manipolazione dei social media. Thomas Hills è professore di psicologia e direttore del corso di laurea magistrale in scienze del comportamento e dei dati presso l’Università di Warwick, nel Regno Unito. Nella sua ricerca affronta l’evoluzione della mente e dell’informazione.
Le Scienze, n. 630, febbraio 2021