Vocale deepfakes: opgepast voor AI-tools die de stem van je naasten imiteren
Met behulp van artificiële intelligentietools kunnen criminelen een stem kopiëren op basis van een geluidsfragment van 3 seconden. Bij een peiling in Groot-Brittannië verklaarde 28% van de ondervraagden het slachtoffer te zijn geweest van een vocale deepfake. Enkele tips om je te beschermen.
Iedereen heeft de mond vol van artificiële intelligentie die zowel met goede als slechte bedoelingen kan worden gebruikt. Enkele maanden geleden hadden we het over sentimentele oplichting en met name het geval van de valse Brad Pitt.
Deze keer gaan we dieper in op een vorm van oplichting waarbij de stem van een naaste wordt geïmiteerd met behulp van de technologie. Door video- of spraakopnames van 3 seconden of meer te bemachtigen via sociale media, kunnen oplichters voortaan een stem reproduceren dankzij artificiële intelligentietools. Zo kunnen ze de stem van een persoon imiteren en geld vragen aan zijn naasten door te doen geloven dat hij in gevaar is door een spraaknotitie of voicemail achter te laten.
Starling Bank onthulde vorig jaar de resultaten van een enquête: 28% van de 3010 ondervraagde Britten verklaarde het voorbije jaar minstens één keer het doelwit te zijn geweest van oplichting door voice cloning. 46% had er nog nooit van gehoord en nog zorgwekkender: 8% van de ondervraagden gaf aan zelfs bij twijfel over de herkomst van de oproep toch geld over te maken in een dergelijke situatie.
Als reactie op de gevallen van vocale deepfakes lanceerde Starling Bank de campagne Safe Phrases die gebruikers oproept een 'veiligheidszin' af te spreken om te controleren of de persoon echt is wie hij of zij beweert te zijn.
Tips om een deepfake-stem te herkennen
Er bestaan bepaalde typische spraakkenmerken van artificiële intelligentie waaraan je fraude kan herkennen zoals een weinig gevarieerde en schokkerige intonatie, abrupte pauzes in het midden van een zin of onregelmatige ademgeluiden. Spits dus goed je oren!
Als het geluid gepaard gaat met een beeld, kijk dan naar de coherentie tussen de twee en in het bijzonder de beweging van de lippen. Denk ook aan details zoals de vingers van de persoon (vaak vergeten of toegevoegd door AI) of aan de soms vreemde achtergrondelementen ...
Als je een dringende oproep met de vraag om geld ontvangt, haak dan in en bel het gebruikelijke nummer van de persoon om hem of haar rechtstreeks te vragen of hij of zij het wel is.
En zoals altijd, wees niet te snel! Angst, stress en woede zetten aan tot overhaast handelen zonder na te denken, en de oplichters weten dat …
Ontdek de campagne #SCAM
Lees onze aanbevelingen om niet in de val van cyberoplichters te trappen en onze tips om online een feit te melden. Slachtoffer? Ontdek hoe je klacht kunt indienen voor internetoplichting!
Meer weten: https://www.politie.be/5998/nl/over-ons/communicatiecampagnes/scam-camp…