Deepfakes vocaux : attention aux logiciels d’IA qui imitent les voix de vos proches

Aidés par les logiciels d’intelligence artificielle, les criminels sont désormais capables de cloner une voix à partir d’un extrait sonore de 3 secondes. En Grande-Bretagne, selon un sondage, 28% des personnes interrogées affirment avoir été victimes d’un deepfake vocal. Nous vous donnons quelques conseils pour vous en prémunir. 

Deepfakes vocaux : attention aux logiciels d’IA qui imitent les voix de vos proches

On ne cesse de parler de l’intelligence artificielle, exploitée tant avec des intentions bienveillantes que malveillantes. Nous évoquions il y a quelques mois les arnaques aux sentiments et notamment le cas du faux Brad Pitt.  

Cette fois-ci, nous abordons spécifiquement les arnaques visant à imiter la voix d’un proche en utilisant la technologie. En récupérant des enregistrements vidéo ou vocaux de 3 secondes ou plus via les réseaux sociaux, les escrocs sont désormais capables de reproduire une voix grâce à des outils d’intelligence artificielle. Ils peuvent ainsi imiter la voix de quelqu’un et réclamer de l’argent à ses proches en faisant croire qu’il est en danger en laissant une note ou un message vocal. 

Starling Bank révélait l'an dernier les résultats d’une enquête : 28% des 3 010 Britanniques interrogés déclaraient avoir été la cible d’une arnaque au clonage vocal au moins une fois au cours de l’année écoulée. Et à côté de cela, 46% des personnes n’en avaient jamais entendu parler… Plus inquiétant encore : 8% des sondés indiquaient que même s’ils avaient un doute sur l’origine de l’appel, ils enverraient malgré tout de l’argent dans une telle situation. 

Pour faire face aux cas de deepfake vocaux, Starling Bank a lancé la campagne Safe Phrases (phrases de sécurité), qui invite les utilisateurs à convenir d'une « phrase de sécurité » afin de permettre aux victimes de vérifier si la personne est bien celle qu’elle prétend être. 

Des astuces pour reconnaître un deepfake vocal 

Il existe néanmoins certaines caractéristiques vocales typiques de l’intelligence artificielle permettant de reconnaître la fraude, comme une intonation peu variée et saccadée, des pauses brutales au milieu d’une phrase ou encore des bruits de respiration irréguliers. Tendez donc bien l’oreille !  

Si le son est associé à une image, étudiez la cohérence entre les deux et notamment le mouvement des lèvres. Pensez aussi à des détails comme les doigts de la personne (souvent, l’IA en oublie ou en ajoute…) ou aux éléments du décor parfois étranges... 

Si vous recevez un appel urgent vous demandant de l’argent, raccrochez et formez le numéro habituel de la personne pour lui demander directement s’il s’agit bien d’elle.  

Et comme toujours, n’allez pas trop vite ! La peur, le stress et la colère poussent à agir trop rapidement, sans réfléchir, et les escrocs le savent…  

Logo #SCAM

Découvrez la campagne #SCAM  

Retrouvez nos recommandations pour éviter les pièges des cyberescrocs et nos conseils pour signaler un fait en ligne. Victime ? Découvrez comment porter plainte pour une arnaque sur internet !  

En savoir plus  : https://www.police.be/5998/fr/a-propos/campagnes-de-communication/campa…