•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

L'IA utilisée pour recréer la voix d'un PDG et voler 320 000 $ à une entreprise

Un homme donne une commande à son téléphone.

Les fraudeurs auraient utilisé un logiciel de génération de voix pour flouer une entreprise allemande.

Photo : iStock

Radio-Canada

Le grand patron d’une entreprise énergétique anglaise était convaincu que le président-directeur général (PDG) de sa société mère allemande était au bout du fil quand ce dernier lui a demandé d’envoyer en urgence 220 000 euros (320 000 $ CA) à un fournisseur hongrois. Le hic : la voix de son supérieur était générée par intelligence artificielle et la demande était fabriquée de toutes pièces.

Les fonds qu’il a transférés se sont finalement retrouvés entre les mains d’un groupe de fraudeurs, relate le Wall Street Journal. Le quotidien a tu le nom des entreprises et individus impliqués dans cette histoire, mais les informations lui ont été rapportées par l’assureur de l’entreprise fraudée, Euler Hermes Group.

L’assureur croit que les arnaqueurs se sont servis d’un logiciel de génération de voix basée sur l’intelligence artificielle afin de réaliser la fraude, qui a eu lieu en mars.

Le porte-parole d’Euler Hermes Group, Rüdiger Kirsh, explique que le chef d’entreprise anglais avait reconnu le subtil accent allemand de son interlocuteur, dont la voix avait la même « mélodie » que celle du PDG.

Les fraudeurs ont appelé l’entreprise à trois reprises. Ils ont d’abord demandé de l’argent en promettant de rembourser promptement la somme. Au deuxième coup de fil, ils disaient avoir remboursé les fonds, ce qui était faux. La dernière fois, ils ont demandé d’autres centaines de milliers d’euros à l’entreprise, qui a alors compris qu’il s’agissait d’une arnaque.

L’identité des criminels n’est toujours pas connue, mais les fonds transférés ont depuis abouti au Mexique.

Les hypertrucages de plus en plus employés

Ce n’est pas la première fois qu’un deepfake [hypertrucage] audio est utilisé à des fins frauduleuses. La firme de cybersécurité Symantec rapportait en juillet (Nouvelle fenêtre) qu’elle avait vu trois cas dans lesquels des voix de PDG avaient été recréées dans le but de duper des contrôleurs financiers.

Ces modèles de voix sont créés à l’aide de l’apprentissage profond, qui permet à des programmes de recréer des voix et des schémas vocaux en écoutant des milliers d’heures d’enregistrements audio.

Dans le cas de PDG d’entreprises, des programmes d’apprentissage profond peuvent notamment se baser sur des vidéos des sociétés en question, des apparitions médiatiques et des présentations comme matériel source.

Les hypertrucages vidéo et audio font également craindre la multiplication potentielle de désinformation sur le web. Des extraits truqués, générés par le biais de ces algorithmes, où l’on peut voir ou entendre des personnalités politiques ou des célébrités pourraient influencer l’opinion publique s’ils sont suffisamment réalistes.

Avec les informations de ZDNet, Gizmodo et The Next Web

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.