Sfeerfoto van BNNVARA
BNNVARA

BNNVARA

Vóór vooruitgang, vrijheid en verandering

We denken dat het beter kan: open, gelijkwaardig en rechtvaardig. Dit bereiken we niet alleen, dus sluit jij je aan?

VOLG ONS

Hoe gevaarlijk zijn nepvideo’s?

22 okt 2019
  •  
leestijd 3 minuten
Schermafbeelding 2019-10-22 om 11.44.01

Van foto’s weten we al jaren dat er hier en daar gesjoemeld wordt met beelden. Daarom denken wel wel twee keer na voordat we een bizarre foto geloven. Maar als het om video gaat, dan trekken we dat veel minder vaak in twijfel. Maar ook daar kan worden gemanipuleerd, namelijk door middel van deepfake.

Volgens nepnieuwsexpert Ruurd Oosterwoud komt dat omdat video veel meer tot de verbeelding spreekt dan foto. ‘Photoshop is al heel oud en dat vinden we helemaal niet meer gek’, zegt hij in Na het Nieuws. In het afgelopen jaar is het aantal deepfake-video’s op internet verdubbeld. Maar dat betekent niet dat iedereen die video’s zou kunnen maken. Het is namelijk nog best lastig. ‘Het is niet 1-2-3 te doen. Het kost best veel tijd, energie en computerrekenkracht om die dingen te maken. En daarbij moet de data die je erin stopt al heel specifiek zijn.’

Complex

Deepfake werkt namelijk aan de hand van heel veel data. Je moet dus allerlei video’s en foto’s in de computer stoppen. Aan de hand van deze data leert het systeem dan gezichten en gezichtsuitdrukkingen te herkennen, oftewel smart learning. Wil je een specifiek persoon in een video iets laten zeggen, dan moet de computer over heel veel data van die ene persoon beschikken om een geloofwaardige video af te leveren. ‘Het is heel complex om het goed te doen. Je kan de computer het zelf laten uitrekenen, maar dat het kwalitatief zo goed is dat het ook geloofwaardig is, dat vraag ik me af.’

Mimiek

Op dit moment zijn de deepfakes in de meeste gevallen nog vrij gemakkelijk te herkennen. De fake richt zich namelijk alleen op het gezicht. Daarom is er op het hoofd vaak een overgang zichtbaar van het ene hoofd naar het andere hoofd. ‘Mimiek is ook heel belangrijk. De mimiek van de ene persoon is natuurlijk heel anders dan van de persoon die hij of zij probeert te imiteren. Daarin kun je verschillen ontdekken.’


Leger van nepgezichten

Daarom zit het gevaar hem volgens Oosterwoud niet in het nadoen van bekende mensen, maar heel ergens anders. ‘Het gevaar zit eerder in het nadoen van gewone, anonieme mensen. Misschien zelfs niet bestaande personen. Als je een klein leger kan kweken van nepgezichten, kan dat veel invloed hebben.’

dnefe-796x393

Beeld: gezichten van niet bestaande mensen, samengesteld door de computer

Computers kunnen namelijk aan de hand van alle data ook nieuwe gezichten ontwikkelen, van niet bestaande mensen. Gezichten met karakteristieken die de computer heeft geleerd van foto’s met gezichten van bestaande mensen. ‘Dan kan je nooit checken wie die persoon daarachter was. Er gaan geen alarmbellen af. Als je honderd mensen hetzelfde kan laten zeggen over een actuele gebeurtenis, dan kan dat invloed hebben.’

 

Manipuleren


Op dit moment zijn deepfake-video’s nog niet zo gevaarlijk, volgens Oosterwoud. Maar in de toekomst kan het een grotere rol gaan spelen. ‘We moeten er naartoe dat we er niet van uitgaan dat iets klopt alleen omdat het video is. We weten dat tekst en beeld te manipuleren zijn, en dat moeten we in de toekomst ook in ons achterhoofd houden voor video.’