12 minute read

“Dat heb gestaan op feesboek”

Next Article
Verboden

Verboden

De rol van desinformatie (1) en bots

(1) Er is een discussie gaande over de termen ‘misinformatie’ en ‘desinformatie’. Recent verscheen er een artikel in de Volkskrant omtrent de verbastering van Engelse woorden. In dat opiniestuk wordt beargumenteerd dat de term desinformatie de juiste is in de Nederlandse t.a.v. ‘misinformation’. Dat neemt niet weg dat men in de wetenschap vrijwel altijd in het Engels publiceert. Daardoor gaan wij willens en wetens voor het wetenschappelijke Anglicismegeïnspireerde term misinformatie. Voor geïnteresseerden, zie: https://www.volkskrant.nl/cultuur-media/taalgebruikeen-ding-kunnen-we-met-zekerheid-stellen-het-woord-misinformatie-bestaat-niet~bd74965b/

Advertisement

Carlos de Matos Fernandes & Marijn Keijzer

De verspreiding van misinformatie in de online wereld is onderwerp van vele wetenschappelijke studies. Vaak wordt gesteld dat misinformatie, bijvoorbeeld een tweet met een samenzweringstheorie over een politieke tegenstander, zich sneller verspreidt als de verzender en ontvanger dezelfde mening hebben over de politieke tegenstander. Oftewel: de verspreiding van misinformatie is makkelijker in online groepen waarin men zich soortgelijk uit over bepaalde onderwerpen. Dit kan ernstige gevolgen hebben in de ‘echte’ wereld. Google bijvoorbeeld eens pizzagate, en je bevindt je opeens in een Netflix serie over een volkomen uit de hand gelopen samenzwering.

Ook de sociologie houdt zich al enige tijd bezig met de vraag waarom juist nu sociale media zo’n vruchtbare voedingsbodem voor de verspreiding van extreme ideeën en nepnieuws is. Wij zoomen in op een recente pre-print die de verspreiding van misinformatie via diverse platformen op een informatieve manier visueel heeft vastgelegd. En, zoals menig socioloog aan de RUG heeft geleerd tijdens het vak Inleiding Sociologie (denk hierbij aan de vraag: “wat is sociologie?”), zoeken we ook naar een wetenschappelijk verklaring voor de verspreiding van misinformatie. Daarom bespreken wij ook één mechanisme: de invloed van bots.

Sociale media platformen zijn ideaal om snel, zonder tussenpersoon, informatie te delen met elkaar. Maar dit kan ook misinformatie zijn. Voorbeelden hiervan zijn als een familielid in een WhatsApp groep of op Facebook zoiets deelt als: “Covid-19 is even gevaarlijk als de griep”; “Er is systematisch fraude gepleegd bij de presidentiële verkiezingen in de VS”; of “Schokkend, kijk hier: het geheime Corona plan van Bill Gates”. Maar je kan ook denken aan tweets van een president die ongefilterd fake news deelt met de wereld. Misschien heeft u het niet meegekregen, het gaat er namelijk niet zo vaak over in het nieuws, maar recent had hij het nog over vermeende stembusfraude.

Deze voorbeelden tonen pakkend aan dat niet alles op sociale media waar is (of we leven inderdaad in de Matrix en moeten nog kiezen tussen een rode of blauwe pil). Het zijn drie typische voorbeelden van misinformatie, maar het kan wel veelvuldig online gedeeld worden. Je kunt stellen dat er voldoende informatie beschikbaar is om de eerdergenoemde standpunten te weerleggen1. Toch zijn het op ‘eerst zien dan geloven’ geïnspireerde standpunten. Er is wantrouwen tegen informatie die de stelling onderuit kan halen, terwijl informatie die de stelling onderbouwd zonder terughoudendheid wordt meegenomen. Je belandt als het ware in een fabeltjesfuik, zoals Arjen Lubach dat vrij treffend stelde. ‘Eerst zien dan geloven’ wordt dan ‘ik zie wat ik geloof en wat ik geloof is wat ik zie’2 .

De verspreiding van misinformatie via wormgaten

Maar hoe beweegt misinformatie zich in de online wereld? Er zijn diverse platforms waarop misinformatie gedeeld kan worden. Denk hierbij aan de traditionele sociale media platforms (Facebook, Twitter en Instagram), de instant messaging of ‘donkere’ sociale media platforms – WhatsApp en Telegram – of meer forum-gerichte media zoals Reddit of 4Chan (veelal gebruikt in de VS). Elk platform heeft als het ware zijn eigen gemeenschap en leefwereld waarin misinformatie gelezen en gedeeld kan worden. De platforms proberen de verspreiding van misinformatie overigens tegen te gaan. Je ziet bijvoorbeeld steeds vaker een melding op Twitter staan dat de claim in een tweet onjuiste informatie bevat. Een heel arsenaal van onderzoekers doet op dit moment onderzoek naar de vraag of het labelen van misinformatie daadwerkelijk helpt tegen de verspreiding van misinformatie. Wij wijzen hier alleen naar één belangrijk proces dat ook van invloed is op de verspreiding van misinformatie: verspreiding via meerdere platformen.

‘Eerst zien dan geloven’ wordt dan ‘ik zie wat ik geloof en wat ik geloof is wat ik zie’. ”

Velásquez en collega’s (2020) hebben een paper gedeeld op arXiv waarin zij de verspreiding van COVID-19 misinformatie monitoren. Het is belangrijk om te noemen dat zo’n pre-print op arXiv nog niet door het gebruikelijke peer-review proces is heengegaan. Hun werk maakt niettemin inzichtelijk hoe misinformatie over COVID-19 zich over meerdere sociale media platformen kan verspreiden in bepaalde alt-right groepen. De onderzoekers onderscheiden zes sociale media of online discussie platformen: 4Chan, Facebook, Instagram, Telegram, VKontakte (Russisch) en Gab (gericht op de alt-right gemeenschap). Hun onderzoek bestrijkt de periode december 2019 tot en met maart 2020 en betreft de verspreiding van misinformatie omtrent COVID-19. Velásquez et al. zijn met name geïnteresseerd in misinformatie gericht op haat zaaien. Wij hebben één figuur gekopieerd uit hun artikel (Figuur 1).

Paneel A in Figuur 1 laat kleinschalig zien hoe misinformatie zich verspreid over diverse clusters mensen op verschillende platformen. Rond 19 december werd misinformatie veelal op 4Chan besproken/gedeeld. Vervolgens zie je misinformatie omtrent COVID-19 meanderen naar Gab (groen), Telegram (oranje) en Facebook (blauw). De links tussen de platformen noemen Velázques et al. toepasselijk wormgaten. Misinformatie hopt dus vrij gemakkelijk van media platform naar media platform. Het globale beeld van de verspreiding van misinformatie is te zien in paneel B, Figuur 1. Zo kun je zien dat diverse groepen op diverse platformen misinformatie te zien krijgen. Velásquez et al. (2020) geven aan dat dit niet alleen maar haatgroepen zijn, maar ook zogenoemde mainstreamgroepen zoals een cluster voetbalsupporters. Hun werk toont aan dat interventies op één platform mogelijk onvoldoende zijn als men kan switchen van platform en op die manier kan fungeren als een wormgat voor ongewenste misinformatie. Het onderzoek van Velásquez et al. is over het algemeen beschrijvend1. Zij hebben de verspreiding van misinformatie illustratief gemonitord. Dat doet overigens niet af aan het wetenschappelijk en maatschappelijk belang van het onderzoek. We zullen nu overgaan op een ander paper, om één mechanisme te bespreken dat de verspreiding van misinformatie kan verklaren.

(1) RIVM-website: https://www.rivm.nl/documenten/griep-en-covid-19. Cybersecurity departement in de VS: https://www. cisa.gov/news/2020/11/12/joint-statement-elections-infrastructure-government-coordinating-council-election.

(2) De lezer kan zien (of geloven) dat er een diepgravend onderzoek heeft plaatsgevonden naar het thema en de werkwoorden zien en geloven.

Figuur 1. Spreading across Online Hate Multiverse. Overgenomen uit Hate Multiverse Spreads Malicious COVID-19 Content Online Beyond Individual Platform Control (p. 2) door N. Velásquez et al., 2020, arXiv: Physics and Society. Geraadpleegd op https:// arxiv.org/abs/2004.00673. Noot: de kleuren corresponderen met het platform (legenda staat linksonder).

De invloed van bots

Sinds de presidentsverkiezingen in de VS van 2016 worden bots gezien als een invloedrijke factor in de verspreiding van misinformatie. Bots zijn sociale media-accounts die geautomatiseerd de publieke opinie trachten te beïnvloeden. In 2016 waren er ongeveer 400.000 bots actief tijdens de Amerikaanse verkiezingen (Bessi & Ferrara, 2016). Dit roept de vraag op in hoeverre bots succesvol het publieke discours kunnen beïnvloeden via de verspreiding van misinformatie.

Ditmaal blijven wij dicht bij huis in het bespreken van recent onderzoek. Marijn Keijzer en Michael Mäs (2021), allebei werkzaam (geweest) aan de RUG, hebben een paper gepubliceerd, getiteld “The Strength of Weak Bots”. Allereerst kun je stellen dat de titel tof gekozen is, maar ook hun centrale these passend weergeeft. Maar voordat het artikel wordt toegelicht, deponeren wij een vrij uitgebreid voorbeeld dat ten grondslag ligt aan hun werk.

Stel je voor dat Marijn en Carlos vrienden zijn op Facebook. Carlos is van mening dat er een grote kans bestaat dat Feyenoord dit seizoen kampioen gaat worden. Marijn denkt ook dat Feyenoord een goeie ploeg heeft, maar twijfelt of ze landskampioen kunnen worden. Ajax heeft volgens Marijn ook een goede ploeg. Ze uiten hun mening af en toe online middels grappige memes. Afijn, op een mooie dag na de wedstrijd Wolfsberg-Feyenoord in de Europa League is Carlos online vrienden geworden met een bot, zonder dat ie weet dat het een bot is. Niet erg handig van Carlos, maar het is toch gebeurd. Op welke manier kan de bot Marijn het beste beïnvloeden zodat ook hij van mening is dat Feyenoord kampioen wordt?

(1) We hebben hier kort één gerecht laten zien van het vijf-gangen diner dat Velásquez en collega’s (2020) serveren. Als je meer over dit artikel wilt lezen dan kan dit via https://arxiv.org/abs/2004.00673 (open access). Nogmaals: het betreft een niet peer-reviewed artikel.

1) De bot stuurt Carlos elke dag een geautomatiseerd bericht dat Feyenoord kampioen wordt dit jaar. Carlos stuur de berichten vaak door naar Marijn.

2) De bot stuurt wekelijks berichten naar Carlos dat die rechtsvoor van Feyenoord wel erg goed is. Misschien wel beter dan de rechtsvoor van Ajax. Soms deelt de bot ook een meme dat de spits van Feyenoord vaak wel heel makkelijk scoort in vergelijking met de spits van Ajax. Carlos deelt ook deze berichten met Marijn. De volgende vraag staat centraal: is Marijn meer geneigd om de mening Feyenoord-wordt-zeker-wetenkampioen aan te nemen als optie 1 of 2 zich aandient?

Deze vraag hebben Keijzer en Mäs getracht te beantwoorden middels computersimulatiemodellen. Zij hebben een artificiële wereld gebouwd waarin individuen (“agents”) interacteren in een netwerk. Middels deze methode kunnen zij complexe processen monitoren, en daarnaast inspecteren hoe de verspreiding van misinformatie beïnvloed wordt door berichten die bots sturen naar hun netwerkpartners. Het effect van bots is verrassend: actieve bots zijn minder effectief in de verspreiding van misinformatie dan minder actieve bots, gemeten op populatieniveau. Uiteindelijk nemen minder agents de mening over van de bot als de bot heel actief is. Als we dit vertalen naar het voorbeeld kun je stellen dat optie 2 – een inactieve bot – dus beter werkt dan optie 1, waar de bot heel actief is.

actieve bots zijn minder effectief in de verspreiding van misinformatie dan minder actieve bots, gemeten op populatieniveau “

Hoe kan dit? Keijzer en Mäs wijzen op de af- en aanwezigheid van sociaal construct indirecte invloed. De eerste stap is de rol van de actieve bot. De actieve bot stuurt dagelijks berichten. Directe contacten worden hierdoor beïnvloedt en nemen de mening van de bot over. Ze bewegen als het ware in de richting van de bot. In ons voorbeeld zou dit betekenen dat Carlos er nog meer van overtuigd is geraakt dat Feyenoord kampioen wordt. Dit is echter voor indirecte contacten van de bot (vrienden van degene die aan de bot gelinkt is) te gortig. Alhoewel directe contacten van de bot bewegen, is dit anders voor indirecte contacten. Er ontstaat meer discrepantie tussen directe en indirecte contacten. Marijn vindt bijvoorbeeld dat de positie die Carlos inneemt te extreem is, en daardoor ontstaat er frictie tussen hen. Marijn neemt wat afstand van de uitingen van Carlos. De bot heeft dus een sterke invloed op directe contacten, maar geen indirecte invloed.

Dan gaan we door naar de rol van de minder actieve of zwakke bot. Een mooie beeldspraak voor de invloed van de zwakke bot is de rollende steen die Indiana Jones achternazit in The Raiders Of The Lost Ark. Directe connecties van de bot worden langzaamaan in de richting van de bot getrokken. De steen is in beweging gezet. Maar omdat het geen grote stapjes zijn (bijvoorbeeld “die rechtsvoor van Feyenoord is wel beter dan die van Ajax”), zijn indirecte contacten ook eerder geneigd om in dezelfde richting te bewegen. De misinformatiesteen rolt vervolgens verder en verder in het netwerk. Het wordt een zelfversterkend proces, waarin men heel geleidelijk de mening van de bot overneemt. Vandaar dat er gerefereerd wordt naar het construct indirecte invloed.

De titel van de paper van Keijzer en Mäs roept bij sommigen misschien een andere associatie op. Mark Granovetter publiceerde in 1973 een interessant, inmiddels klassiek, paper met de titel ‘The Strength of Weak Ties’. Het is één van de meest geciteerde papers in de sociologie, maar was verrassend genoeg bijna niet gepubliceerd. Het tijdschrift de American Sociological Review wees zijn bijdrage destijds af, maar gelukkig heeft de American Journal of Sociology het uiteindelijk wel aangedurfd. Enfin, Granovetter’s centrale these is dat informele zwakke verbindingen (mensen die je via-via kent) uitermate belangrijk zijn voor het vinden van een baan. Mensen die elkaar goed kennen, zogenoemde sterke verbindingen, vissen veelal uit dezelfde vijver, maar zwakke verbindingen geven toegang tot nieuwe, onbekende informatie. Zwakke verbindingen dienen als het ware als een brug tussen verschillende sociale netwerken. Granovetter’s principe kun je niet één op één plakken op de werkzaamheid van bots, namelijk: bots gebruiken niet per se zwakke verbindingen in het netwerk, maar bots maken gebruik van zogenoemde ‘zwakke’ argumenten.

Keijzer en Mäs geven aan dat misinformatie makkelijker verspreidt in een netwerk als de bot dit geleidelijk doet middels kleine nudges. Dit betekent ook dat een bot niet veel connecties hoeft te hebben om effectief misinformatie te verspreiden. Daarnaast merken Keijzer en Mäs op dat zo’n zwakke bot moeilijk te detecteren is omdat het lastiger is – door de subtiliteit van berichten – om bots als bots te identificeren. Keijzer en Mäs bespreken in hun paper ook diverse beperkingen, maar die laten wij voor nu achterwege.

Conclusie

Misinformatie is een prominent sociaalmaatschappelijk probleem. In de VS zien we hoe de valsheden over de meest recente verkiezing de democratische instituties onder druk zetten (recent nog de bestorming van het Capitool). Ook in Nederland speelt deze problematiek. Denk bijvoorbeeld aan de misinformatiecampagnes omtrent MH17.

Tot slot: wij hebben getracht kort te laten zien hoe misinformatie zich verspreidt over sociale media platformen en daarnaast specifieker besproken hoe misinformatie geleidelijk van de ene naar de andere persoon kan hoppen door middel van ‘zwakke’ bots. Desondanks blijft onderzoek doen in dit veld lastig. Sociale media platformen zijn over het algemeen wat terughoudend in het delen van data, enkele uitzonderingen daargelaten. Een opiniërend stuk van Pasquetto et al. (2020) maakt duidelijk dat er genoeg ideeën zijn over mogelijke bijdragen van onderzoekers aan het tegenaan van de verspreiding van misinformatie. Je kan hierbij denken aan experimenten (‘werkt interventie X’), maar ook aan onderzoek naar de rol van leeftijd in het verspreiden van misinformatie, de impact van misinformatie op sociaal kapitaal en de rol van algoritmes in het verspreiden van misinformatie. Er zijn dus nog diverse open eindes. Hopelijk kunnen onderzoekers gebruik maken van de mogelijkheden die de online wereld hen biedt, maar ook hier geldt het credo “eerst zien dan geloven”. Bessi, A., & Ferrara, E. (2016). Social Bots Distort The 2016 U.S. Presidential Election. First

Monday, 21(11), 1–15. https://doi.org/10.5210/ fm.v21i11.7090

Keijzer, M. A., & Mäs, M. (2021). The Strength of Weak Bots. Online Social Networks and

Media, 21, 100106. https://doi.org/10.1016/j. osnem.2020.100106

Granovetter, M. S. (1973). The Strength of Weak Ties.

American Journal of Sociology, 78(6), 1360–1380. https://doi.org/10.1086/225469

Velásquez, N., Leahy, R., Restrepo, N. J., Lupu, Y., Sear, R., Gabriel, N., ... , Johnson, N. F. (2020). Hate Multiverse Spreads Malicious COVID-19 Content Online Beyond Individual Platform Control. arXiv: Physics and Society. https:// arxiv.org/abs/2004.00673

Pasquetto, I., Swire-Thompson, B., Amazeen, M.A., Benevenuto, F., Brashier, N.M., Bond, R.M., ..., Yang, K.C. (2020). Tackling Misinformation: What Researchers Could Do With Social Media Data. The Harvard Kennedy School (HKS) Misinformation Review. https://doi. org/10.37016/mr-2020-49

This article is from: