AI blijkt nu ook seksistisch

Een kunstmatig intelligente assistent die helpt bij het uitkiezen van sollicitanten, hoe handig is dat? Heel handig, dacht Amazon, dus sinds vier jaar werken onderzoekers daar aan een AI personeelsfunctionaris die sollicitanten selecteert op basis van Amazons eigen sterrenrating. Klinkt mooi, alleen is er een probleem: de assistent bleek seksistisch.

De AI assistent had zichzelf opgeleid aan de hand van patroonherkenning in cv’s van de afgelopen tien jaar. Daarbij leerde het programma zichzelf dat mannen dus de voorkeur hadden. De zelfontwikkelde bias ging zelfs zover dat vermeldingen van het woord vrouw tot minpunten leidde in de beoordeling. Amazon heeft laten weten alleen getest te hebben en dat de AI assistent nooit is gebruikt in de praktijk.

Het is niet de eerste keer dat het mis gaat met zelflerende kunstmatige intelligentie. Twee jaar geleden hielp Microsoft chatbot Tay ter wereld en ook toen ging het mis. Bedoeld als een gezellig chattende tiener begon ze binnen een dag al antisemitische, racistische, seksistische en andere offensieve teksten te spuien.

Bekijk meer recent nieuws

Schrijf je in voor onze nieuwsbrief

Blijf op de hoogte. Meld je aan voor de nieuwsbrief van Univers.