Gebruik AI niet als therapeut
We moeten AI gebruiken als hulpmiddel, schrijft Tom Grosfeld, niet als therapeut of rechter. ‘Anders reduceert technologie de menselijke oordeelsvorming tot koele kansberekening.’

Ik vind de hedendaagse kritiek op AI vaak nogal slap. Ik mis mensen die hartstochtelijk ons menszijn verdedigen, een scherpe grens trekken tussen mens en machine.
Het was daarom erg prettig om me de laatste weken te verdiepen in computerwetenschapper Joseph Weizenbaum, die in 1966 chatbot Eliza ontwikkelde. Ja, dacht ik, dat Eliza-experiment kennen we inmiddels wel. Interessantere vraag: hoe dacht Weizenbaum eigenlijk over AI?
Leuk gegeven: in 1966 was Weizenbaum nog een enthousiaste computerwetenschapper. Tien jaar later, toen zijn boek Computer Power and Human Reason: From Judgement to Calculation verscheen, was hij veranderd in een van de scherpste critici van AI en computers. Minstens zo opmerkelijk: zijn kritiek is verre van achterhaald.
Wat Weizenbaum onderscheidt van veel hedendaagse critici, is dat hij veel duidelijker een grens trok tussen mens en machine, het menselijke domein als ware afbakende. Critici van nu gaan uit van een ander standpunt. Zij zeggen: de techniek komt er toch wel aan, het is onze taak om onszelf daar zo goed mogelijk op voor te bereiden. Hoe gaan we ons aanpassen? Welke kant willen we op?
Ze begeleiden de techniek de samenleving in, proberen het in goede banen te leiden. AI moet transparant zijn, niet discrimineren, onze privacy respecteren, geen mensenrechten schenden. Dat is heus belangrijk, maar wie buigt zich nog over de meer fundamentele vraag welke domeinen uit ons leven beschermd zouden moeten worden tegen AI? Wie bewaakt, kortom, onze menselijkheid?
De AI-critici van deze tijd hebben ongetwijfeld de beste bedoelingen, maar ze proberen uiteindelijk vooral om AI te humaniseren, om het menselijke waarden mee te geven, alignment, zoals dat in tech-kringen zo mooi heet. Weizenbaum zou zeggen: we kunnen AI niet humaniseren, want dat zou betekenen dat we onszelf dehumaniseren, ons aanpassen aan de machine, zelf een (zielloze) machine worden.
Zijn concrete voorstel was om de computer terug op zijn plaats te zetten, het weer uitsluitend te beschouwen als een hulpmiddel bij het maken van berekeningen. Deze vorm van ethiek bedrijven behelst niet het nadenken over hoe een AI-therapeut zo ethisch mogelijk het gesprek met patiënten kan aangaan en diagnoses kan opstellen, maar draait om de constatering dat zulke chatbots überhaupt niet gemaakt zouden moeten worden omdat het de patiënt in kwestie ontmenselijkt, omdat besluitvorming niet iets is wat geautomatiseerd zou moeten worden.
Hetzelfde geldt voor AI-algoritmes die rechters helpen bij het bepalen of een gevangene voorwaardelijk mag worden vrijgelaten of niet, zoals in Amerika inmiddels genormaliseerd is. Wederom: ethici zouden zich niet moeten buigen over de vraag hoe je de vooroordelen en racistische neigingen uit zo’n algoritme sloopt, maar moeten eisen dat zulke algoritmes niet gebouwd worden, omdat technologie daarmee de menselijke oordeelsvorming reduceert tot koele kansberekening.
Wie in 2025 nog zo’n harde grens optrekt, wordt waarschijnlijk voor luddiet uitgemaakt, wat dan weer treffend illustreert hoe ver we verwijderd zijn geraakt van Weizenbaums kritische blik op AI.
Tom Grosfeld is journalist en alumnus van Tilburg University.