Kunstmatige intelligentie vervormt de werkelijkheid

Foto’s en video’s zijn steeds vaker nep. Kunstmatige intelligentie vervormt de werkelijkheid, schrijft columnist Tom Grosfeld. ‘Volgens schattingen is over een paar jaar negentig procent van alle online content in ieder geval deels door AI gemanipuleerd.’

Tom Grosfeld. Beeld Ton Toemen

De Maand van de Geschiedenis, het grootste historische evenement van ons land dat elk jaar plaatsvindt in oktober, draagt dit jaar het thema ‘Echt nep’. Ja, nou en, hoor ik u denken. Maar als de mensen achter de Maand van de Geschiedenis besluiten dat het thema dit jaar ‘Echt nep’ moet zijn, dan zal daar wel een goede reden voor zijn. 

En ja hoor, daar staat het al, op de website: ‘Hoe weet je nog wat echt is, in een wereld van nepnieuws? In een tijd waarin de waarheid ergens in het midden ligt, het verschil tussen mening en feit vertroebelt en ‘factchecker’ een beroep is, gaan we op zoek naar het schemergebied tussen feit en fictie, echt en nep.’

Het toeval wil dat ik laatst Bart van der Sloot interviewde, wetenschapper hier aan de universiteit. Hij houdt zich vooral bezig met recht, privacy en Big Data en AI. Ook hij maakt zich, onder andere door de opkomst van deepfakes, zorgen over dat we straks niet meer weten wat waar is, en wat niet, bijvoorbeeld wanneer we een video call krijgen van een vriend of onze ouders. ‘Dat zou betekenen dat er een enorme angst in de samenleving sluipt, een fundamentele onzekerheid,’ zei hij. 

Wat me het meest verbaasde tijdens ons gesprek, was dat er blijkbaar vanuit AI-bedrijven al wordt gezegd dat ze hun AI-modellen alleen nog maar laten trainen op data van voor 2022, omdat er online al zo veel AI-gegeneerde content rondzwerft. Onhandig, natuurlijk, want die modellen willen ze het liefst laten leren van mensen, om een feedbackloop te voorkomen.

Volgens de meest pessimistische schattingen is over een paar jaar negentig procent van alle online content in ieder geval deels door AI gemanipuleerd, volgens Van der Sloot. Dat kunnen ook kleine manipulaties zijn die bijvoorbeeld zitten versleuteld in onze mobiele telefoons. Veel camera’s zijn tegenwoordig deels AI-gestuurd en ‘weten’ dus hoe dingen eruitzien.

‘Ze zien een object, hebben een vooraf ingesteld idee van hoe zo’n object eruit ziet, herkennen het dus, en mengen dat idee vervolgens met wat ze registreren. Wanneer je dan een bos fotografeert, ‘weet’ je camera dat bossen groen zijn, en soms wordt er dus ook een foto gegenereerd van een groen bos, ook als dat bos feitelijk in brand staat,’ zei Van der Sloot. 

Een ander voorbeeld: wanneer steeds meer content gemanipuleerd is, zou het in potentie nooit helemaal uit te sluiten zijn dat de rechter nepbewijs heeft meegenomen in de besluitvorming. Immers: de technologie die manipulaties uit content haalt, is nog niet zo goed, haalt misschien de helft eruit en dan ook nog met een betrouwbaarheidspercentage, dus: ‘De kans is zeventig procent dat deze content is gemanipuleerd.’ 

Wat moet je daar dan mee, als rechter, vroeg Van der Sloot zich af. Ik weet het niet. Hopelijk krijgen we daar tijdens de Maand van de Geschiedenis een bevredigend antwoord op.

Tom Grosfeld is journalist en alumnus van Tilburg University.

Advertentie.

Bekijk meer recent nieuws

Schrijf je in voor onze nieuwsbrief

Blijf op de hoogte. Meld je aan voor de nieuwsbrief van Univers.