Logo Kassa
Het consumentenplatform van BNNVARA.

Dit moet je weten over de opkomst (en risico’s) van deepfake

14-04-2021
  •  
leestijd 4 minuten
  •  
1110 keer bekeken
  •  
Ooit Mark Rutte, met een matje in zijn nek, viool zien spelen? Als je handig bent met computers, kun je net doen alsof het écht gebeurd is. Het trucje dat daarvoor gebruikt wordt, heet deepfake. Het levert nog meer grappige, maar ook zorgwekkende voorbeelden op, ook voor de consument.
Deze beelden komen van filmmaker Bob de Jong. Sinds de coronapandemie richt hij zich op deepfakes. Hij kwam de techniek op het spoor toen hij een video zag waarin een impressionist meerdere acteurs nadoet en daarbij telkens van gezicht verandert. Het resultaat deelt hij op zijn het YouTube-kanaal, dat hij DiepNep heeft genoemd. Bij elkaar zijn de video’s nu zo’n 400.000 keer bekeken. De video waarin demissionair minister van Justitie Ferdinand Grapperhaus spreekt nadat hij is uitgeschakeld op een dartstoernooi is het populairst. Het kost wel een paar dagen om ze in elkaar te zetten. "Meestal ben ik er een week mee bezig, maar soms duurt het wel twee weken."

Lastig te zien

De Jong houdt van tegenstellingen tussen de karakters (dat zijn meestal politici) en de dingen die ze uitvoeren. Hoewel het er levensecht uitziet, is het daarmee ook absurd genoeg om te zien dat het getrukeerd is. Maar er zijn voorbeelden waarbij het moeilijker te zeggen is. Zo duiken er geregeld beelden op van Tom Cruise, die toch geen Tom Cruise blijkt te zijn. In werkelijkheid zie je hier een man van wie het gezicht is vervangen door dat van de beroemde acteur.

Autodidact

Het woord ‘deepfake’ is een toepassing van ‘deeplearning’, deze technologie is ontstaan doordat de computer leert van zijn eigen fouten (artificiële intelligentie). Het wordt veel gebruikt voor verschillende vormen van gezichtsherkenning. De oudste voorbeelden dateren uit de jaren ’90. Zo werd het in 1991 al toegepast in een videoclip van Michael Jackson.

Minder leuke voorbeelden

Een duistere kant is er ook. Zo maakten al meerdere vrouwen mee dat hun gezicht in een pornovideo werd gemonteerd. Ook zijn er voorbeelden van politici met serieuze uitspraken die ze in werkelijkheid nooit hebben gedaan.
Daar zal het waarschijnlijk niet bij blijven. “Deepfake-video's zijn een goed voorbeeld van toenemende misleiding op het internet”, zegt Pieter van Boheemen, onderzoeker van het Rathenau Instituut. Hij deed het afgelopen jaar onderzoek naar nieuwe technologie en desinformatie en ziet dat de techniek ook gebruikt kan worden om verhalen te manipuleren. “De technologie zelf is al hartstikke oud, maar de laatste jaren is het veel beschikbaarder en toegankelijker geworden. Dan zie je dat ook het misbruik ervan toeneemt.”

In de appstore

Dat laatste is bij het populaire Wombo nog niet het geval. Met de app, die in maart miljoenen keren werd gedownload, kun je in een paar klikken ieder persoon een liedje laten zingen. De keuze aan liedjes is beperkt. Daardoor is het niet mogelijk om zelf in te vullen wat de persoon op de foto zegt, zingt of doet.
Apps als Wombo kunnen niet zoveel kwaad, zegt Van Boheemen. “Je kunt hier duidelijk zien dat het om satire gaat. De beelden hebben daarnaast een watermerk, dus je weet dat het van een deepfake-app afkomstig is. Maar het laat wel zien hoe toegankelijk de techniek wordt.”

Risico's voor consumenten

Ondertussen ontwikkelt de techniek zich razendsnel. “Nu is de impact nog klein, maar dat kan natuurlijk veranderen”, zegt De Jong. Hij denkt dat ‘gewone’ mensen in potentie kwetsbaarder zijn voor deepfakes dan beroemdheden. “Uitspraken van politici kunnen gecheckt worden door journalisten, maar de pers is er niet als jij het slachtoffer bent. Dan moet je zelf uitleggen dat je iets niet gezegd of gedaan hebt.”
De techniek zou zomaar gebruikt kunnen worden voor fraude en oplichting, daar zijn beide heren het wel over eens. Volgens Van Boheemen zijn er al voorbeelden van catfishing. “Je kunt videobellen met mensen die niet echt bestaan.” Hij vervolgt lachend: “Maar ik moet je ook zeggen: toen ik de voorbeelden zelf zag vond ik het nog niet echt overtuigend, haha.” Dan weer serieus: “Zo zie je maar, zo’n deepfake hoeft niet perfect te zijn om mensen te misleiden.”
Samen met de onderzoekers noemt Van Boheemen meerdere maatregelen die overheden en organisaties kunnen nemen om het misbruik tegen te gaan. Denk bijvoorbeeld aan het gebruik van een watermerk: “Maar we kunnen ook nadenken over mogelijkheden om échte beelden nog echter te maken.”

Technologie wordt slimmer

Er zijn nu al programma’s die kunnen traceren of er sprake is van echtheid. Maar de beste deepfakes zullen altijd daarop voorlopen. “Het algoritme van deepfake is zelflerend. Al die programma’s zorgen er daardoor automatisch voor dat de technologie nog slimmer wordt.”
“Het is een waarschuwing voor de toekomst”, zegt Van Boheemen, “maar ik blijf wel terughoudend met voorspellingen.” Hij verwacht in ieder geval niet dat we over een paar jaar geen video meer kunnen vertrouwen. “Photoshop bestaat ook al decennia, toch bestaat er over de meeste nieuwsfoto’s weinig twijfel. Er is een bepaald vertrouwen tussen een krant en zijn fotograaf dat er ook zal zijn tussen een cameraman en het RTL Nieuws.”
Bronnen: Rathenau Instituut, New York Times, TU Eindhoven, Jarno Duursma, Nina Schick, De Volkskrant, NOS, RTL Nieuws
Delen:

Praat mee

onze spelregels.

avatar
0/1500
Bedankt voor je reactie! De redactie controleert of je bericht voldoet aan de spelregels. Het kan even duren voordat het zichtbaar is.

Altijd op de hoogte blijven van het laatste nieuws?

Meld je snel en gratis aan voor de Kassa nieuwsbrief!