De vooroordelen die alle pseudowetenschap, nepnieuws en andere rotzooi in je tijdlijn verklaren

Nieuws |

Volgens onderzoekers Giovanni Luca Ciampaglia en Filippo Menczer van Indiana University zijn er drie soorten vooroordelen, of biases. Onder vooroordelen verstaan zij de kennis die we gebruiken om de wereld om ons heen te verklaren en ons er een logisch beeld van te vormen.

Information overload voorkomen

Het eerste, meest basale soort vooroordeel dat Ciampaglia en Menczer beschrijven, is het cognitieve vooroordeel. Onze hersenen kunnen maar een beperkte hoeveelheid informatie aan. Om information overload te voorkomen, gebruiken ze afsnijroutes. Vaak heel effectief: als we in het dagelijks leven niet zouden kunnen putten uit de al aanwezige kennis in ons brein, zouden we iedere dag opnieuw kennis moeten maken met alles. Dan wordt zelfs een rustig wandelingetje door je buurt een intense cognitieve taak.

Mensen worden erg beïnvloed door het gevoel dat een kop bij hen oproept

Heel handig dus, die vooroordelen. Alleen gebruikt je brein die vooringenomenheid ook als je moet beslissen of je op een verhaal in je tijdlijn wilt klikken, stellen Ciampaglia en Menczer. Mensen worden bijvoorbeeld erg beïnvloed door het gevoel dat een kop bij hen oproept, ook al is dat geen goede indicator voor de nauwkeurigheid van een stuk. Het zou beter zijn te kijken van welk medium het stuk komt, maar daar letten onze hersenen minder goed op, omdat het een cognitief intensievere afweging is.
Om deze vooringenomenheid tegen te gaan, en mensen te helpen meer te letten op de bron van een verhaal, hebben de onderzoekers Fakey ontwikkeld, een gratis mobiele game waarbij je punten kunt verdienen door onbetrouwbaar nieuws in een tijdlijn te herkennen.

Vooroordelen in de samenleving

Een andere bron van vooringenomenheid wordt gevormd door onze samenleving. Ciampaglia en Menczer noemen dit sociale vooroordelen. Ieder mens wordt beïnvloed door de vooroordelen van zijn of haar kennissenkring, omdat hun vooroordelen bepalen welke informatie ze delen. Bovendien hebben we de neiging om de kwaliteit van informatie die onze vrienden delen, hoger in te schatten.
Ciampaglia en Menczer hebben zelfs ontdekt dat het mogelijk is om jouw politieke voorkeur te bepalen op basis van de voorkeuren van je vrienden. Dit helpt te verklaren waarom online conversaties zo vaak óf echokamers worden waarin mensen elkaar napraten, óf ‘wij tegen zij’-confrontaties.
Om te begrijpen hoe die bubbels en fitties sociale media-gebruikers kwetsbaar maken voor desinformatie, hebben de onderzoekers Hoaxy gebouwd, een systeem dat de verspreiding van content door laag aangeschreven bronnen analyseert en visualiseert, en ook nog eens fact-checkt.

Vooroordelen in de machine

Het derde soort vooroordeel komt voort uit de algoritmen die bepalen wat sociale media-gebruikers allemaal zien. Deze personalisatietechnieken zijn ontworpen om alleen de meest relevante informatie voor een individuele gebruiker te selecteren. Maar door een gebruiker te blijven voorschotelen wat hij of zij al leuk vindt, worden de eerder beschreven cognitieve en sociale vooroordelen versterkt. Zo ontstaan de zogeheten filterbubbels en wordt een gebruiker alleen maar kwetsbaarder voor desinformatie.

Trending topics zorgen dat mensen hun mening bevestigd zien door de populariteit ervan

Een ander belangrijk ingrediënt van door sociale media versterkte vooroordelen zijn trending topics. Als onderwerpen populair zijn in een bepaald netwerk, geven algoritmes deze vaak een prominentere plek in de tijdlijn van gebruikers. Ciampaglia en Menczer hebben ontdekt dat dit een negatief effect kan hebben op de algehele kwaliteit van een platform, omdat populariteit dan boven kwaliteit gaat. Zo worden bestaande cognitieve vooroordelen weer versterkt, want mensen zien hun mening nog eens bevestigd door de populariteit van diezelfde mening.

Het risico van bots

Dat populariteit zo’n belangrijke factor is in de opinievorming op sociale media, is de reden dat bots zo risicovol zijn. Deze door software gedreven nepaccounts kunnen desinformatie extra promoten, of het valse idee wekken dat er online een nieuwe beweging aan het ontstaan is. Om deze manipulatiestrategieën te herkennen, hebben de onderzoekers een tool ontwikkeld om bots op te sporen: Botomoter.
Giovanni Luca Ciampaglia en Filippo Menczer. Misinformation and biases infect social media, both intentionally and accidentally. The Conversation.
Foto door Clem Onejeghuo via Unsplash

Nieuwsbrief

Ontvang ons laatste nieuws
Hidden
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.