MISDAADCOLUMN: Stemfraude, de nieuwste loot aan de criminele stam van kunstmatige intelligentie
Elke week schrijft misdaadverslaggever Henk Strootman een column over wat hem opvalt in de crimewereld. Deze week: stemfraude.
Je zit rustig aan de koffie als de telefoon gaat. Het is je dochter, tenminste, zo klinkt het. Ze is overstuur, zegt dat ze een ongeluk heeft gehad en dringend geld nodig heeft. Natuurlijk schrik je. Natuurlijk wil je helpen. Je opent de bankapp al, tot ergens in je achterhoofd een stemmetje opduikt: even appen, voor de zekerheid. Binnen een halve minuut komt het antwoord. “Wat? Ik zit gewoon thuis. Niks aan de hand.”
Wat er wél aan de hand is: iemand heeft haar stem gestolen. Geen acteur, geen imitator, maar een digitale kloon. Een oplichter heeft een paar zinnen uit een filmpje geplukt, door een AI-model gehaald, en voilà: een stem die nauwelijks van echt te onderscheiden is. Compleet met intonatie, ademhaling, twijfelpauzes en dat ene stopwoordje waar je je altijd al aan ergerde.
Stemfraude is de nieuwste loot aan de criminele stam van kunstmatige intelligentie. Geen brieven meer van verre erfgenamen of slecht vertaalde mails van ‘de bank’. Je wordt gebeld door iemand die klinkt als je kind, je partner of je moeder. En die vraagt om geld. En wel nu. Want er is ‘iets ergs gebeurd’, en daar moet je vooral niet te veel vragen bij stellen.
Een filmpje waarin je iets vertelt voor de camera, wat audio van een podcast: meer heeft de gewetenloze crimineel niet nodig
Het werkt, omdat we nu eenmaal geneigd zijn stemmen te vertrouwen. Je hoort er emoties en stemmingen in terug; paniek, urgentie, verdriet. En dus reageer je. Wat je níét hoort, is dat je niet met een mens praat, maar met software die ontworpen is om je precies op dat moment in het hart te raken. De slachtoffers? Vooral gewone mensen. Moeders, opa’s, buren. Mensen die alleen maar willen helpen en pas achteraf ontdekken dat ze hun spaargeld hebben overgemaakt naar een stem die nergens thuishoort, behalve misschien op een obscure server in Nigeria of Nieuw-Zeeland.
En dan hebben we het nog niet eens over je gezicht. Deepfake-video’s zijn inmiddels zo geloofwaardig dat mensen zichzelf terugzien in beelden waarin ze dingen zeggen die ze nooit zeiden, of dingen doen die tot het domein van de slaapkamer behoren. Presentatrice Welmoed Sijtsma weet er alles van. Haar gezicht werd via AI op het lichaam van een pornoactrice geplakt en online verspreid. Ze vond de maker via een WhatsApp-groep met zijn ‘werk’. De dader kreeg een voorwaardelijke taakstraf van 180 uur; best mild, gezien de schade die je met een paar muisklikken kunt aanrichten.
De technologie waarmee dit soort deepfakes worden gemaakt, is vrij te downloaden en kinderlijk eenvoudig in gebruik. Een paar foto’s van LinkedIn, een filmpje waarin je iets vertelt voor de camera, wat audio van een podcast: je levert het materiaal zelf aan. Iemand met te veel tijd en te weinig geweten doet de rest. Wat je kunt doen? Niet veel. Een gezonde portie achterdocht helpt. Hang op bij een verdacht telefoontje, bel terug, stuur een appje. Spreek met je naasten een codewoord af dat geen algoritme kan raden. “De fiets staat in de wasmachine,” bijvoorbeeld. Hoe absurder, hoe beter. En nee, kies iets originelers dan “pizza,” dat woord kennen computers inmiddels beter dan jij.
We zouden ook met z’n allen eens wat minder online kunnen zetten. Minder selfies, minder video’s, minder vrolijk uitgesproken voornamen. Maar dat plan is ongeveer even kansrijk als het idee dat we massaal stoppen met scrollen voor het slapengaan. Toch gloort er hoop. Niet alleen criminelen gebruiken AI. Ook politie en justitie zetten het in: om stemklonen te herkennen, fraudepatronen te analyseren en deepfakes te ontmaskeren. Het tegenoffensief is begonnen. De digitale wapenwedloop is in volle gang.
Wie er gaat winnen? Misschien weet ChatGPT het antwoord.
- Adobe Stock