Jan Willem Schäffer over het toeslagenschandaal: duizenden gezinnen de dupe door denkfouten
‘Ethiek krijgt bij veel bedrijven steeds meer aandacht, maar het gesprek over kritisch denken ontbreekt volledig,’ zegt voormalig filosofiestudent Jan Willem Schäffer. In zijn masterscriptie onderzoekt hij hoe verkeerde aannames en denkfouten het toeslagenschandaal veroorzaakten.

Waar gaat je scriptie over?
‘In de kern draait mijn scriptie om kritisch denken: het vermogen om zorgvuldig te onderzoeken hoe oordelen tot stand komen en waar denkfouten kunnen ontstaan. Vanuit die interesse kwam ik uit bij de forensische filosofie; een filosofische benadering die dat kritische denken toepast op de rechtspraktijk. Denk aan gerechtelijke dwalingen, zoals de zaak van Lucia de B., de verpleegkundige die ten onrechte werd veroordeeld voor zeven moorden en drie pogingen tot moord.
‘Dankzij het onderzoek van forensisch filosoof Ton Derksen, die de redeneringen en bewijsvoering in haar zaak kritisch analyseerde, werd zij uiteindelijk vrijgesproken. In mijn scriptie probeer ik een vergelijkbare vorm van forensische filosofie toe te passen, maar dan op het toeslagenschandaal.’
Hoe heb je dat aangepakt?
‘Het toeslagenschandaal is al vaak onderzocht, meestal vanuit een juridisch of ethisch perspectief. Ik heb gekeken welke denkfouten hebben bijgedragen aan het ontstaan van de toeslagenaffaire. Daarbij vond ik een aantal duidelijke voorbeelden, die ik heb geanalyseerd en beschreven.
‘De zogenoemde tachtig-twintigregel stelt dat tachtig procent van de uitkomsten voortkomt uit twintig procent van de oorzaken. Dit principe wordt vaak gebruikt binnen management- en bedrijfstheorieën.
‘De Belastingdienst nam deze theorie over en paste het toe op de aanpak van fraude: binnen een als ‘fraudeur’ bestempelde groep zou tachtig procent daadwerkelijk schuldig zijn en twintig procent niet. Zonder enig statistisch bewijs werd dit principe toegepast, met desastreuze gevolgen voor duizenden mensen.’
Wat kwam er uit je onderzoek?
‘In een organisatie kunnen denkfouten voorkomen op verschillende niveaus: in de mens zelf, de procedures en systemen. Fouten op het ene niveau kunnen die op een ander niveau versterken. Zit er bijvoorbeeld een fout in het ontwerp van een proces, dan nemen de mensen die ermee werken die fout vaak onbewust over. Daar kunnen vervolgens nieuwe fouten bij komen, waardoor het probleem zich opstapelt.
‘Een duidelijk voorbeeld daarvan zien we bij medewerkers van de Belastingdienst die contact hadden met toeslagenouders. Zij wisten niet dat het systeem en de procedures al denkfouten bevatten en voegden daar onbewust nieuwe aannames aan toe.
‘Een ouder die met een stapel documenten bij een balie van de Belastingdienst kwam, werd in eerste instantie vriendelijk begroet. Nadat de medewerker de gegevens in de computer opzocht veranderde de houding. Door de fraudemelding op het scherm werd de ouder ook als fraudeur behandeld en was er geen ruimte meer voor onderzoek.
‘De medewerker vertrouwde op de melding van het systeem, en negeerde (volgens procedure) de informatie van de persoon die voor hem stond. Dit voorbeeld laat zien hoe sterk we vertrouwen op systemen en hoe denkfouten zich kunnen opstapelen. Een fenomeen dat bekendstaat als automation bias.’
Waarom is je onderzoek belangrijk?
‘Hoewel ethiek bij veel bedrijven steeds nadrukkelijker wordt besproken, ontbreekt het gesprek over kritisch denken vaak volledig. Dat is zorgelijk, omdat kritisch denken juist belangrijker wordt in een wereld die steeds meer wordt bepaald door systemen en processen. Het onderzoek toont aan hoe denkfouten op die manier kunnen institutionaliseren, ze worden onderdeel van de organisatie zelf.
‘Voor mij ligt de kern daarom niet alleen in het bewustzijn van je eigen aannames, maar ook in het organiseren van epistemische verantwoordelijkheid. Dit betekent dat we processen en systemen zo inrichten dat aannames standaard worden getoetst en medewerkers worden aangemoedigd om kritisch te zijn. Zo kunnen we voorkomen dat fouten zich blijven herhalen en elkaar versterken.’
