Logo Kassa
Het consumentenplatform van BNNVARA.

Telefonische oplichting met nagemaakte stemmen: reden tot zorg?

24-04-2023
  •  
leestijd 5 minuten
  •  
24712 keer bekeken
  •  
telefoon_ai_20230424

In verschillende media is de laatste tijd het één en ander te doen omtrent de potentiële gevaren van artificiële intelligentie. ChatGPT is een voor de hand liggend voorbeeld, maar langs vergelijkbare lijnen is er ook software waarmee je iedere stem kunt nabootsen op basis van een korte stemopname van slechts enkele seconden. Reuze interessant, maar oplichters ruiken ook hun kans. Is dit reden tot zorg? We vragen het de Fraudehelpdesk.

Laten we kort beginnen met ChatGPT. Weliswaar niet het hoofdonderwerp van dit artikel, maar voor de context is het handig om er even bij stil te staan. ChatGPT is – kort samengevat – een programma waar gebruikers opdrachten aan kunnen geven of vragen aan kunnen stellen. 

Het onderliggende systeem van ChatGPT is echter zó geavanceerd dat je – beginnersfouten en schoonheidsfouten daargelaten – teksten terugkrijgt die in veel gevallen niet of nauwelijks van mensenwerk te onderscheiden zijn. En zoals een tekst die door een computer is gegenereerd levensecht kan lijken, is er ook software waarmee je levensecht lijkende, zo goed als identieke menselijke stemmen kunt klonen – óók stemmen van familieleden en vrienden.

Mogelijkheden én risico's

Deze inzet van artificiële intelligentie biedt tal van mogelijkheden, bijvoorbeeld wat het automatiseren van eenvoudig of tijdrovend werk betreft zodat mensen hun tijd nuttiger en efficiënter kunnen besteden. Maar de ontwikkelingen op dit vlak gaan zó snel dat er ook kritische stemmen opgaan. "Ligt misbruik niet op de loer en moeten we techbedrijven geen strenge regels opleggen om te voorkomen dat het uit de hand loopt?", is de tendens. Zo tekenden ruim 1100 techprominenten onlangs een open brief waarin werd gepleit om de 'risicovolle' ontwikkeling van artificiële intelligentie tijdelijk af te remmen.

Veelzeggend is in deze context de ophef die ontstond nadat de onder kinderen en jongeren razend populaire app Snapchat een functie introduceerde die op ChatGPT leek. Gebruikers zouden niet goed doorhebben dat wat de Snapchat-bot zegt niet per se hoeft te kloppen. Na een storm van kritiek paste het bedrijf een aantal zaken aan om de zorgen de kop in te drukken.

Deze week werd de Tweede Kamer door experts bijgepraat over de mogelijke gevaren van artificiële intelligentie zoals ChatGPT, zo stond in NRC. Kamerleden werden bijgepraat over reële risico's zoals AI-gegenereerd nepnieuws en desinformatie, studenten die frauderen met door ChatGPT geschreven teksten die door de plagiaatdetectie niet worden opgemerkt, én – zoals in NRC staat beschreven – "internetoplichters die door AI gegenereerde stemmen van familieleden kunnen imiteren."

Telefonische oplichting door levensechte nepstemmen

En dat laatste is waar we het in dit artikel over hebben. Een paar weken geleden verscheen bij RTL Nieuws een artikel over de gevaren van software waarmee de stem van bekenden kan worden nagebootst. Het enige dat oplichters nodig hebben, is een opname van minstens drie seconden lang.

De berichtgeving volgde op een waarschuwing van de Federal Trade Commission (FTC), de Amerikaanse telecomtoezichthouder. "Een oplichter heeft alleen een korte audioclip van de stem van uw familielid nodig - die hij kan krijgen van online geplaatste filmpjes", zo viel te lezen. Met behulp van de software kun je deze stem als het ware 'klonen' en alles laten zeggen wat je maar wilt.

Dat opent de deuren voor een nieuwe variant op spoofing. Waar het in beginsel ging om het klonen van telefoonnummers of mailadressen – waardoor het lijkt alsof je wordt gebeld door een familielid of je écht een mail van de bank ontvangt – gaat het nu dus om het nabootsen van stemmen.

De risico's die dat met zich meebrengt, laten zich eenvoudig voorspellen. Met dit soort software kun je veel gerichter en overtuigender telefonisch frauderen: je kunt je voordoen als iemands zoon of dochter met een dringend verzoek om financiële hulp, of je kunt de boekhouding van bedrijven bellen met de stem van de directeur om de spoedige betaling van een valse factuur af te dwingen.

In de Verenigde Staten en Canada heeft oplichting via deze methode al tot de nodige slachtoffers geleid, zo viel te lezen in onder andere The Washington Post. De technologie bestaat al langer, maar was voorheen eigenlijk te gecompliceerd en te duur voor 'doorsnee' gebruik. Sinds enkele maanden zijn de ontwikkelingen op dit vlak echter in een stroomversnelling geraakt, waardoor de techniek momenteel veel toegankelijker is. 

En daarmee neemt ook het risico toe. Verschillende aanbieders van dit soort software houden de broncode dan ook bewust achter de hand, omdat ze zich bewust zijn van de gevaren die dit met zich meebrengt.

Is deze vorm van oplichting al in Nederland gesignaleerd?

Buiten de landsgrenzen heeft deze nieuwe fraudevariant dus al tot meerdere slachtoffers geleid, soms met enorme schadebedragen tot gevolg. In Canada is er een geval bekend waarin een klein aantal ouderen op deze manier van omgerekend zo'n 135.000 euro is bestolen, zo blijkt uit het artikel uit onderstaande tweet.

Het artikel gaat verder na onderstaande tweet.

Vanwege de hoge schadebedragen in combinatie met het gebruiksgemak én de relatieve toegankelijkheid van dit soort software zijn wij benieuwd of er ook in Nederland meldingen zijn opgedoken van deze fraudevariant. We bellen met de Fraudehelpdesk om te peilen of deze nieuwe oplichtingstruc reeds is gesignaleerd, want als meldpunt is de Fraudehelpdesk de aangewezen instantie om de meest recente ontwikkelingen op dit vlak te duiden.

Dat is niet het geval, aldus woordvoerder Tanya Wijngaarde: "Er zijn geen meldingen bij ons bekend". Wél herinnert ze zich een vergelijkbaar incident van een jaar of twee geleden waarin een stemopname werd gebruikt, al was de situatie toen anders.

Maar daarmee is niet gezegd dat dat op korte termijn niet kan veranderen. Oplichtingstrucs zijn immers lang niet altijd gebonden aan geografische grenzen of landsgrenzen, zo leert de geschiedenis. De technologie baart de Fraudehelpdesk bovendien de nodige zorgen, zo erkent Wijngaarde: "We houden ons hart vast."

Een begrijpelijke zorg, gelet op de enorme schadebedragen die oplichters via vergelijkbare oplichtingstrucs als WhatsAppfraude, spoofing en bankhelpdeskfraude hebben weten te maken.

Waar moet je op letten?

De gedachte dat je een stem van een familielid, vriend of bekende aan de andere kant van de telefoonlijn niet zomaar kunt vertrouwen, is wellicht even schrikken, ook al lijkt deze specifieke oplichtingstruc op het moment van schrijven nog geen actueel risico te vormen.

Onder het mom van "voorkomen is beter dan genezen" kan het echter geen kwaad om je van deze mogelijkheid bewust te zijn. Het is dan ook aan te raden om telefonische hulpvragen met de nodige scepsis en achterdocht te benaderen, óók als je er heilig van overtuigd bent dat je écht met een familielid of vriend spreekt.

In die gevallen kun je het beste ophangen en zélf even terugbellen om een nummer waarvan je zeker weet dat het klopt. En omdat oplichters daar vast ook wel smoesjes op weten te verzinnen ("Mijn oude telefoon is stuk en het nummer is uit de lucht"), is het wellicht geen slecht idee om afspraken te maken met familie en directe naasten over hoe je in zo'n geval dient te handelen.

Lang verhaal kort: op dit moment is er nog geen acuut gevaar, maar wees je bewust van de mogelijkheden én van de potentiële gevaren.

Bron: Federal Trade Commission, Fraudehelpdesk, NOS, NRC, RTL Nieuws, Washington Post

Delen:

Praat mee

onze spelregels.

avatar
0/1500
Bedankt voor je reactie! De redactie controleert of je bericht voldoet aan de spelregels. Het kan even duren voordat het zichtbaar is.

Altijd op de hoogte blijven van het laatste nieuws?

Meld je snel en gratis aan voor de Kassa nieuwsbrief!