ChatGPT is bevooroordeeld: ‘Mannen zijn dokter, vrouwen schoonheidsspecialist’

ChatGPT is bevooroordeeld: ‘Mannen zijn dokter, vrouwen schoonheidsspecialist’

Niets menselijks is kunstmatige intelligentie vreemd. ‘Taalmodellen als ChatGPT bevatten veel vooroordelen,’ stelt voormalig data sciencestudent Jonas Klein. In zijn masterthesis onderzoekt hij hoe taalmodellen vooroordelen overnemen uit de teksten waarop ze zijn getraind. 

Jonas Klein: ‘Wie in het dagelijks leven ChatGPT gebruikt, moet zich realiseren dat de antwoorden niet neutraal zijn’. Beeld: Jack Tummers

Waar gaat je scriptie over?

‘Ik vind kunstmatige intelligentie zoals ChatGPT fascinerend: we proberen er menselijke intelligentie mee na te bootsen. Het systeem achter ChatGPT wordt getraind op bestaande teksten die ooit door mensen zijn geschreven. Omdat die teksten onvermijdelijk onze denkbeelden en vooroordelen weerspiegelen, kunnen zulke taalmodellen ook de stereotypen uit onze samenleving overnemen.

‘Specifiek onderzocht ik genderbias, het idee dat mannen de ‘standaard’ zijn. Ik keek daarbij naar beroepen: beschouwt een model een loodgieter automatisch als man? Waar mensen nog kunnen bedenken dat niet elke loodgieter een man hoeft te zijn, behandelt een taalmodel de aanname dat mannen de standaard zijn mogelijk als feit.

‘Dat is niet onschuldig. Een voorbeeld: bij sollicitatieprocedures wordt ChatGPT soms gevraagd om van tientallen cv’s te bepalen wie de beste kandidaat is. Dat lijkt handig, maar het is ook riskant. Als het model vooroordelen bevat, zullen die keuzes onbedoeld discriminerend uitpakken wat ertoe kan leiden dat een vrouwelijke loodgieter over het hoofd wordt gezien.’

Wat kwam er uit je onderzoek?

‘Zoals verwacht bevatten taalmodellen als ChatGPT veel vooroordelen: mannen worden inderdaad vaak als de norm gezien. Hierdoor worden beroepen als dokter, directeur en loodgieter standaard aan mannen gekoppeld, zelfs als je het taalmodel expliciet vertelt dat het ook om een vrouw kan gaan.

‘Daarnaast blijkt dat de stereotypen niet alleen mannen bevoordelen, maar ook hele beroepsgroepen een gender toeschrijven. Zo wordt een schoonheidsspecialist vrijwel altijd als vrouw gezien. Hetzelfde geldt voor een verpleegkundige.’

Waarom is het belangrijk om dit te onderzoeken?

‘Er wordt enorm veel geld in kunstmatige intelligentie gestoken. Grote bedrijven als Google, Meta en andere techgiganten investeren miljarden in de ontwikkeling ervan, waardoor die ontwikkeling razendsnel gaat. Maar door dat tempo vergeten we soms stil te staan bij de vraag hoe we AI op een eerlijke en verantwoorde manier kunnen inzetten. Daarom is het belangrijk dat er onderzoek naar wordt gedaan.

‘Met mijn onderzoek wil ik bovendien meer bewustzijn creëren bij gebruikers. Wie in het dagelijks leven ChatGPT gebruikt, moet zich realiseren dat de antwoorden niet neutraal zijn. Het is belangrijk dat gebruikers alert blijven op mogelijke vooroordelen, zodat niemand onbewust wordt benadeeld. Eerlijke AI begint namelijk niet alleen bij de ontwikkelaars, maar ook bij de mensen die ermee werken.

Hoe kijk jij naar het gebruik van AI: zie je kansen, of maak je je juist zorgen over wat het in de toekomst kan betekenen?

‘CEO’s van techbedrijven beweren vaak dat we dichtbij kunstmatige intelligentie zitten die gelijkwaardig is aan menselijke intelligentie, maar dat geloof ik niet. AI is veel minder intelligent dan een mens: het draait vooral om getallen en rekenmodellen.

‘Wat me wel zorgen baart, is hoe snel AI zich ontwikkelt en dat het op veel verschillende gebieden wordt ingezet. Vaak zonder dat mensen kritisch nadenken over de uitkomsten. Het idee dat robots ons ooit overnemen en slimmer worden dan wij, zie ik als een horrorbeeld dat onwaarschijnlijk is. Maar de snelle adoptie, gecombineerd met weinig controle en bewustzijn, maakt de situatie wel risicovol.’

Denk jij dat de techbedrijven openstaan voor kritische geluiden?

‘Bedrijven achter AI-systemen corrigeren veel handmatig. Zo heeft OpenAI bijvoorbeeld een controlelaag ingebouwd die bepaalt wat het systeem wel en niet mag zeggen. Daardoor merk je als gebruiker dat de chatbot op gevoelige onderwerpen, zoals pesten of zelfdoding, beperkt reageert. Toch gaat dat niet altijd goed. In de VS klagen ouders OpenAI aan omdat ChatGPT hun 16-jarige zoon zou hebben aangezet tot zelfdoding.

‘Het is een constant duwen en trekken: handmatig proberen de bedrijven risico’s te beperken, maar tegelijkertijd vechten ze tegen een model dat leert van bestaande teksten. Bovendien hebben de bazen van deze bedrijven er belang bij dat hun chatbots zoveel mogelijk worden gebruikt.’

Bekijk meer recent nieuws

Schrijf je in voor onze nieuwsbrief

Blijf op de hoogte. Meld je aan voor de nieuwsbrief van Univers.