Factchecken is hot: alles wat politici en anderen in de media beweren, wordt tegenwoordig gecontroleerd door speciale websites, krantenrubrieken en onderzoeksgroepen. Maar hoeveel zin heeft dat eigenlijk? Staan we wel open voor de feiten?
Dit artikel verscheen eerder in KIJK 10/2017.
De Britse medicus Andrew Wakefield liet in 1998 in de media een bommetje barsten dat nú nog natrilt: hij zou op basis van een onderzoek onder slechts twaalf kinderen een link hebben gevonden tussen vaccinaties tegen mazelen en autisme. Vele jaren en studies later is die link nooit opnieuw aangetoond, is Wakefield ontslagen en is zijn onderzoeksartikel teruggetrokken wegens datafraude. Toch zijn er nog altijd mensen die geloven dat vaccinaties autisme veroorzaken, ondanks de wetenschappelijke feiten.
In het tijdperk van Donald Trump en sociale media doen feiten er al helemaal niet meer toe, zeggen sommigen. Iedereen kan roepen wat hij wil en niemand ziet door de bomen het waarheidsbos nog. Anderen zien in de feiten juist het tegenwapen: factchecken is hot. Kranten hebben factcheckrubrieken, bloggers controleren uitspraken van politici in verkiezingstijd en Facebook doet tests met het filteren van nepnieuws. Maar in hoeverre heeft dat zin?
Averechts effect
Zodra ouders hebben besloten hun kind niet te laten vaccineren, is het enorm lastig om ze van mening te laten veranderen, ontdekten onderzoekers een paar jaar geleden in Amerika. Ouders die in een online-experiment een voorlichtingstekst lazen waarin de link tussen vaccinaties en autisme werd ontkracht, geloofden daarna minder sterk in die link. Missie geslaagd, zou je denken. Maar bij de ouders die bij aanvang het sterkst tegen vaccinaties waren, gebeurde iets vreemds. Na het lezen van de tekst hadden ze nóg minder behoefte om hun kind te laten vaccineren. Zelfs als ze de tekst geloofden.
Zo’n averechts effect van het corrigeren van verkeerde informatie wordt vaker gevonden in onderzoek. Volgens politicoloog Jason Reifler, vanuit de Britse Universiteit van Exeter betrokken bij de vaccinatiestudie, komt dat doordat nieuwe informatie als een bedreiging kan worden gezien. “Als mensen informatie ontvangen die hen niet bevalt, start dat een verdedigingsmechanisme, een proces dat uiteindelijk hun visie kan versterken.” De ouders die sterk wantrouwend tegenover vaccinaties stonden, bedachten onbewust bijvoorbeeld ándere argumenten om bij hun standpunt te blijven. Zoals: oké, misschien veroorzaakt vaccineren geen autisme, maar dan toch zeker wel andere ernstige bijwerkingen.
Het is een fenomeen dat wetenschappers ‘gemotiveerd redeneren’ noemen: op zo’n manier over een onderwerp nadenken dat je uiteindelijk toch weer bij je eigen visie uitkomt. We geven nou eenmaal niet graag toe dat we ongelijk hebben. Dus wordt tegenstrijdige informatie genegeerd, weggewuifd als onbelangrijk of zo geïnterpreteerd dat het alsnog aansluit bij wat we al dachten. Onze achtergrond, zoals politieke voorkeur, speelt daarbij een belangrijke rol. Trump-aanhangers geloven sterker in de bewering dat vaccinaties autisme veroorzaken als ze lezen dat Trump dat heeft gezegd, zo bleek uit een studie onder ruim tweeduizend Amerikanen. Democratische kiezers geloofden het juist mínder snel als ze Trumps naam erbij zagen staan.
Pakhuisbrandstudies
“Er is een belangrijk verschil tussen ongeïnformeerd en verkeerd geïnformeerd zijn”, benadrukt Reifler. “Mensen iets leren, is mogelijk gemakkelijker dan ze iets opnieuw leren.” Zijn fouten eenmaal in de media beland, dan is het enorm lastig dat nog te corrigeren, blijkt ook uit zogeheten pakhuisbrandstudies. Proefpersonen lezen een nieuwsbericht over een brand in een pakhuis die zou zijn veroorzaakt door gasflessen en olieverf in een voorraadkast. De helft leest daarna nóg een tekst, waarin die verklaring wordt teruggetrokken: er waren toch geen gasflessen en olieverf. Alle proefpersonen beantwoorden tot slot kennisvragen over het nieuwsbericht. Keer op keer blijkt daaruit: mensen blijven gas of verf als oorzaak noemen, óók na het lezen van de ‘update’ op het nieuws.
Een mogelijke verklaring is dat het tweede bericht een ‘gat’ in de kennis van de lezer brengt: als gasflessen of olieverf de brand niet veroorzaakten, wat dan wel? Wanneer dat onduidelijk is, vallen mensen misschien toch terug op de verklaring die ze wél hebben gehoord, zelfs al is die fout. Een andere populaire theorie is dat een corrigerend bericht de verkeerde informatie herhaalt, waardoor die juist beter in het geheugen van de lezer blijft hangen dan de correctie zelf. Dit jaar toonde een studie van onder meer de Universiteit van West-Australië onder zestig studenten echter aan dat dit niet per se het geval is. Na het lezen van verkeerde informatie over een brand werkte het juist beter om een correctie te lezen waarin de eerdere, foute informatie duidelijk werd vermeld dan wanneer deze niet of slechts subtiel werd genoemd.
De kennis-illusie
Fabeltjes zijn vaak ook gemakkelijker aangeleerd dan feiten, omdat ze meer tot de verbeelding spreken of inspelen op emoties. Daar maken politici slim gebruik van. In het Verenigd Koninkrijk ontstond tijdens de Brexit-campagne discussie over een tekst op een campagnebus van het pro-Brexit-kamp: ‘We sturen dagelijks 50 miljoen pond naar de EU’. Een duidelijke boodschap, die inspeelt op zorgen die veel Britten al hadden: de EU kost een hoop en levert ons niets op. Het punt is dat het niet waar was. Diverse journalisten berekenden dat het bedrag eigenlijk lager lag en legden uit dat er van alles meespeelde, waardoor je niet zo simpel zo’n bewering over dagelijkse kosten kon maken. Maar daar hadden ze veel meer tekst voor nodig dan dat ene, simpele, krachtige zinnetje.
Dat is vaak een probleem met feiten: dat ze nogal saai en moeilijk te doorgronden zijn. We hebben lang niet altijd zin om ons te verdiepen in de details over de economie, de gezondheidszorg of het klimaat. We kunnen natuurlijk ook niet overal het fijne van weten, wat niet erg is.
Maar we denken vaak dat we méér weten dan daadwerkelijk het geval is. De Amerikaanse psychologen Steven Sloman en Philip Fernbach noemen dat in een recent boek ‘de kennisillusie’. Als voorbeeld geven ze het toilet. Natuurlijk weet je hoe een toilet werkt, toch? Je drukt op de knop, er komt water uit en je uitwerpselen spoelen weg. Simpel. Maar kun je ook uitleggen hoe het mechanisme in de stortbak werkt? Daar lopen veel mensen vast.
Dat komt volgens Sloman en Fernbach doordat we vertrouwen op groepskennis. Al sinds mensenheugenis denken we niet individueel, maar in groepen. Sommigen in die groep zijn experts in bepaalde zaken – hoe je vuur maakt, jaagt, of een toiletpot in elkaar zet – en de rest leunt op die kennis. Daar is op zich niets mis mee; het is zelfs wel handig. Het heeft de mensheid als groep vooruitgang gebracht, terwijl niemand individueel álles hoeft te begrijpen van de wereld om hem heen. Maar inmiddels is de wereld complexer en is om ons heen meer gaande dan vuur maken en jagen. Daardoor weten we individueel nóg minder goed hoe de wereld in elkaar steekt. Het feit dat we ons daar slecht bewust van zijn, maakt ons kwetsbaar voor misinformatie. We gaan vertrouwen op de verkeerde bronnen of slaan nieuwe feiten in de wind, omdat we denken dat we het beter weten.
Nieuwsgierigheid gewenst
Als de feiten mensen niet van mening kunnen doen veranderen, wat dan wel? Dat is een vraag waar wetenschappers een minder duidelijk antwoord op hebben. Het zou kunnen helpen als we ons bewuster zijn van het feit dat er veel is waar we niet bar veel verstand van hebben, opperen Sloman en Fernbach. In een experiment gaven proefpersonen hun mening over veranderingen in het gezondheidszorgsysteem, waarna ze gedetailleerd moesten uitleggen wat het effect van die veranderingen zou zijn. Een politieke variant op de toiletpotvraag dus.
Ook hier bleek uitleg geven voor de meesten een zware dobber, waarna hun mening een stuk gematigder werd. Blijkbaar worden we minder stellig als we worden geconfronteerd met onze eigen onwetendheid. Daar kunnen we waarschijnlijk wel beter zelf achter komen; niemand hoort graag van een ander dat hij dom is.
Nieuwsgierigheid naar wetenschap is misschien nog wel belangrijker dan wetenschappelijke kennis, suggereert psycholoog Dan Kahan (Yale-universiteit). Kahan had in eerdere experimenten ontdekt dat Democraten en Republikeinen die veel studies over klimaatverandering hadden gelezen in hun mening verder van elkaar afstonden dan degenen die weinig over het onderwerp lazen, waarbij Democraten in die studies lezen dat actie is geboden en Republikeinen eruit concluderen dat het allemaal zo’n vaart niet loopt.
Feiten lezen over het onderwerp bracht mensen op politiek vlak dus niet bepaald nader tot elkaar. In een recente studie vroeg Kahan proefpersonen daarom ook naar hun nieuwsgierigheid naar wetenschap in het algemeen: hoe benieuwd waren ze om te ontdekken hoe de wereld in elkaar steekt? Hoe graag keken ze wetenschapsdocumentaires en lazen ze wetenschapsnieuws? Hoe sterker de wetenschappelijke nieuws gierigheid, hoe dichter het standpunt van Democraten en Republikeinen op het gebied van klimaatverandering bij elkaar bleek te liggen.
Door nieuwsgierigheid staan we meer open voor informatie buiten ons politieke straatje, denken de onderzoekers. Nieuwe informatie is dan niet zozeer een bedreiging voor waar we in gelo ven, maar een mooie verrassing. Door nieuwsgierigheid halen we plezier uit een ontdekking dat iets tóch anders werkt dan we dachten. Het lijkt een mooi antwoord op nepnieuws en ‘alternatieve feiten’. Nu nog een manier vinden om die wetenschappelijke nieuwsgierigheid massaal in mensen aan te wakkeren.
Bronnen voor dit verhaal:
De uitspraken van psycholoog Jason Reifler in dit artikel komen uit een presentatie op een congres voor wetenschapsjournalisten in Kopenhagen. Daarnaast las ik o.a. de volgende bronnen:
Brendan Nyhan e.a. Effective messages in vaccine promotion: A randomized Trial, Pediatrics (2014) | Dan Kahan. Science curiosity and political information processing, Political psychologie (2017) | Stephan Lewandowsky. Misinformation and its correction: continued influence and successful debiasing, Psychological science in the public interest (2012) | Briony Swire e.a., Processing political misinformation: comprehending the Trump phenomenon, Royal society open science (2016)
Doneren
Dit artikel kon je gratis lezen via mijn website. Waardeer je het en wil je dat laten blijken? Je kunt mijn journalistieke werk steunen met een donatie.