EXTORSIONDeepfakes, sextorsions... Des nouvelles formes d’arnaques explosent

Deepfakes et sextorsions... Des nouvelles formes d’arnaques fleurissent à l’ère de l’IA

EXTORSIONAvec les nouvelles générations d'IA, il est de plus en plus facile de créer des deepfakes très réalistes pour extorquer les gens en ligne
Illustration d'un pirate Internet.
Illustration d'un pirate Internet. - TheDigitalArtist / PIXABAY / PIXABAY
Laure Beaudonnet

Laure Beaudonnet

L'essentiel

  • Les deepfakes permettent de faire dire n'importe quoi à n'importe qui grâce à des technologies dopées à l'IA. Jusqu'ici, il fallait des compétences en informatiques pour réaliser des hypertrucages de qualité.
  • Depuis l'arrivée des nouvelles générations d'intelligence artificielle, des arnaques ultra sophistiquées à la portée du grand public fleurissent.
  • Une Américaine en a fait les frais en recevant un appel de sa fille qui lui dit avoir été kidnappée et qui lui demande de l'aide. A l'autre bout du fil, se cachait en fait un arnaqueur qui avait dupliqué la voix de la jeune femme.

«Maman, des types m’ont enlevée, aide-moi », sanglote Briana, 15 ans. A l’autre bout du téléphone, sa mère, Jennifer Destefano, est paniquée d’entendre sa fille lui expliquer avoir été kidnappée. Un homme récupère le combiné et demande une rançon d’un million de dollars. Ce scénario, digne d’un navet à gros budget, s’est déroulé aux États-Unis en janvier dernier. En réalité, Jennifer Destefano n’a jamais entendu la voix de sa fille à l’autre bout du fil mais le son d’un deepfake, un hypertrucage créé grâce à des outils dopés à l’IA qui permettent de faire dire n’importe quoi à n’importe qui en modifiant des sons, des images ou des vidéos. Ces dernières années, on a vu des « preuves de concept » (ou démonstration de faisabilité) qui montraient Barack Obama traiter Donald Trump de « deepshit » [grosse merde], en 2018, ou Tom Cruise jouer au golf, en 2021. A l’époque, il fallait encore des compétences techniques pointues pour atteindre un résultat de qualité.

Aujourd’hui, plus besoin d’être un informaticien de génie pour créer l’illusion. Les IA génératives comme Midjourney pour les images ou ElevenLabs pour les voix de synthèse sont très facilement accessibles en ligne. Entre de mauvaises mains, ces outils ouvrent la voie à des arnaques de plus en plus sophistiquées comme celle dont a été victime Jennifer Destefano. Les faux ravisseurs -mais vrais arnaqueurs- ont cloné la voix de son aînée grâce à l’intelligence artificielle pour espérer récupérer une belle somme d’argent.

96 % des deepfakes vidéo sont des vidéos pornographiques

Sur le même principe, des cybercriminels créent des images ou des vidéos pornographiques ultra-réalistes à partir des contenus publiés par les internautes. Le FBI a d’ailleurs mis en garde le public début juin contre les « sextorsions ». Le principe est simple : les photos ou vidéos banales d’enfants ou d’adultes sont récupérées et, grâce à la magie de l’IA, se retrouvent en ligne, sur des sites pornographiques ou sur les réseaux sociaux. Ces montages pornos sont diffusés dans le but de harceler et d’extorquer les victimes.

Face à l’explosion des arnaques dopées à l’IA, le Sénat a adopté début juillet, dans le cadre du projet de loi pour « sécuriser » Internet, deux amendements qui ciblent spécifiquement les « deepfakes ». Selon l’association Deeptrace, citée par l’AFP, 96 % des deepfakes vidéo sont des vidéos pornographiques où les personnes visées sont dans 99 % des cas des femmes. En 2019, huit des dix sites pornographiques les plus consultés hébergeaient des deepfakes, et une dizaine de sites pornographiques leur étaient exclusivement dédiés. Mais en réalité, les cybercriminels n’ont pas attendu les IA génératives pour s’en mettre plein les poches.

« On n’a pas révolutionné la capacité de mystifier les choses, on a seulement augmenté la capacité de le faire, analyse Véronique Aubergé, chercheuse au CNRS en sciences humaines, spécialiste des questions d’IA et de robotiques. On n’a pas changé de paradigme, on a juste changé de niveau de puissance ». Ces derniers mois, on assiste à une certaine démocratisation de ces méthodes grâce à l’open source (le code source du logiciel est accessible au public). Mais, « fabriquer la voix de quelqu’un et la mettre de manière malveillante à la disposition d’une cause ou d’un profit, c’est très vieux, poursuit la chercheuse. Le jour où on a commencé à travailler sur la synthèse vocale, des usages frauduleux de cette technologie sont nés. Dès les années 1990, quand il y avait des enlèvements terroristes, on se demandait si c’était bien la voix de la victime ».

Selon Véronique Aubergé, il faut plutôt questionner notre rapport à l’immédiateté à l’ère du numérique. « On est dans une hyperréactivité temporelle », explique la chercheuse qui s’étonne du montant récolté par l’escroquerie très médiocre qui consistait à envoyer un faux mail de la gendarmerie pour accuser le destinataire d’avoir consulté des sites pédopornographiques. Les victimes étaient menacées de poursuites judiciaires sauf si elles payaient une « amende ». Le préjudice a été évalué à 3,5 millions d’euros, selon l’AFP.

Des deepfakes pour une société encore plus paranoïaque

Comment une supercherie aussi bas de gamme a-t-elle pu récolter un tel montant ? Au-delà même de la faible qualité de sa mise en page, il semble peu probable que les forces de l’ordre passent par le mail pour des faits aussi graves. « Quand on n’a pas consulté un site pédopornographique, que risque-t-on ?, s’interroge Véronique Aubergé. L'immédiateté liée à nos usages des réseaux sociaux nous empêche de prendre le temps de la réflexion ». D'autant qu'il existe déjà des outils qui permettent de détecter les deepfakes. Rien de vraiment neuf à l'horizon. Les arnaqueurs n’ont pas eu besoin des IA génératives pour extorquer à grande échelle. Même quand l'arnaque est grosse comme une maison.

L’inquiétude de l’explosion des deepfakes réside plutôt dans les changements sociétaux qu’elle laisse entrevoir. En quoi pourrons-nous encore avoir confiance si on peut modifier la réalité d’un simple clic ? « Tout l’effet de brouillage, l’idée qu’on ne peut plus croire grand-chose, c’est l’une des conséquences des deepfakes », confirme Jean-Claude Monod, philosophe et chercheur au CNRS. D’autant que, selon une étude des universités Oxford et Brown, et de la Royal Society datant de 2022, 78 % des utilisateurs sont incapables de discerner une vidéo hypertruquée d’une vidéo authentique. Ces montages ultra-réalistes portent atteinte à « l’idée qu’il existe des données sur lesquelles on peut s’entendre », note-t-il.

« Comme le disait Hannah Arendt, la formation de l’opinion dans une démocratie a besoin d’un certain respect pour les vérités de fait. On n’est pas d’accord sur tout, mais il y a quand même une vérité de fait. Par exemple, c’est l’Allemagne qui envahit la Belgique et pas l’inverse, résume Jean-Claude Monod. Maintenant, cela est miné par des campagnes qui suggèrent que tout est manipulé et qu’il ne faut se fier à rien ». On a bel est bien basculé dans la post-vérité. Les deepfakes nous forceront peut-être à privilégier les rencontres IRL, le retour aux polaroïds et aux échanges manuscrits. Finalement, c’est peut-être ça le futur.

Sujets liés