
Kunstmatige intelligentie gaat zó snel dat we het niet meer kunnen bijbenen. Waar we vroeger nepnieuws herkenden aan slechte fototrucs, kan nu zelfs een tiener in een paar minuten een perfecte nepvideo of nagemaakte stem maken. Daardoor lopen we recht op een misinformatiecrisis af, en we lijken nog steeds niet te beseffen hoe groot het probleem is.
AI kopieert mensen tegenwoordig bijna perfect: hoe we klinken, hoe we schrijven, hoe we kijken. Het wordt steeds lastiger te zien of iets echt is of niet. De vraag is niet meer of AI nepnieuws kan maken, maar hoeveel schade het gaat aanrichten voordat we eindelijk ingrijpen.
Die schade zien we al in de praktijk. In 2024 werd een werknemer van een bedrijf in Hongkong opgelicht nadat criminelen een deepfake-videomeeting hadden gemaakt waarin alle “collega’s” compleet met stem en gezicht nep bleken. Het laat zien hoe overtuigend AI-beelden inmiddels zijn en hoe kwetsbaar mensen daardoor worden.
De risico’s zijn enorm. Een nepvideo van een politicus kan een verkiezing beïnvloeden. Een nagemaakte stem kan gebruikt worden voor oplichting of chantage. Een fake nieuwsvideo kan angst aanwakkeren of groepen tegen elkaar opzetten. Vooral jongeren zijn kwetsbaar: deepfakes worden gebruikt om te pesten, intimideren of reputaties te beschadigen. En als we niet meer weten wat echt is, valt vertrouwen weg. En zonder vertrouwen werkt een democratie niet.
Toch doen we nog veel te weinig. Er zijn bijna geen regels. Tot augustus 2026 hoeft niemand AI-beelden te labelen. Scholen en gemeenten krijgen nauwelijks handvatten om burgers te helpen nep van echt te onderscheiden. En sociale mediaplatforms verdienen nog altijd meer aan het verspreiden van content dan aan het controleren ervan. Daardoor krijgt de leugen een enorme voorsprong.
AI is niet slecht. Het is een hulpmiddel dat veel goeds kan brengen, van medische innovaties tot ondersteuning in het onderwijs. Maar het is óók een hulpmiddel dat makkelijk misbruikt kan worden. Het echte probleem is dat wij het nog steeds te luchtig behandelen.
Wat moet er gebeuren? We hebben duidelijke regels nodig: als iets door AI is gemaakt, moet dat zichtbaar zijn. We moeten jongeren én volwassenen leren hoe je nepnieuws en deepfakes kunt herkennen, net zoals we hebben geleerd om phishing en spam te doorzien. En we hebben overheden en platforms nodig die hun verantwoordelijkheid nemen door deepfakes actief op te sporen, te markeren en in te perken.
Misinformatie is geen technisch speeltje. Het raakt ons allemaal. De vraag is niet of we dit probleem kunnen oplossen. De vraag is of we op tijd durven toe te geven hoe serieus het is.
Meld je hieronder gratis aan voor Joop NL. Iedere donderdag een selectie opvallende nieuwsverhalen, opinies en cartoons in je mailbox.