"Les manipulations peuvent toucher l'audio ou la vidéo. On est en train d'arriver à l'audio plus la vidéo. Je me demande ce qui va se passer pour les prochaines grandes élections", dit Vincent Nozick, maître de conférence à l'institut Gaspard Monge de l'Université Paris-Est Marne-la-Vallée. "Pour créer un deepfake, la seule compétence requise est un peu d'expérience. Le premier sera a priori raté car il faut choisir le bon modèle informatique (...) mais quelqu'un qui en a fait trois mois, c'est bon il est prêt", ajoute le chercheur.
Imiter la voix d'un PDG
En Inde, une journaliste et un parlementaire ont été visés par des vidéos obscènes trafiquées. En Belgique, le parti socialiste flamand a représenté le président américain Donald Trump incitant la Belgique à se retirer de l'Accord de Paris sur le climat. Le message avertissant de la supercherie n'a pas été compris par nombre d'internautes.
Fin août, le Wall Street Journal relayait l'usage de l'intelligence artificielle par des escrocs pour imiter la voix d'un PDG et obtenir le transfert de plus de 220.000 euros. Enfin, l'application chinoise Zao sortie cet été permet d'insérer son visage à la place d'un acteur dans un extrait de film à partir de quelques photos seulement. Ce développement marque l'arrivée de cette technologie dans les mains du grand public.
Comment différencier le vrai du faux ?
Pour détecter les manipulations, plusieurs pistes sont à l'étude. La première, qui ne s'applique qu'aux personnalités déjà largement filmées et photographiées, consiste à retrouver les images originales antérieures à la manipulation, voire à comparer la vidéo suspecte avec la "signature gestuelle" habituelle de la personne visée.
Une seconde se concentre sur les défauts générés par le trucage : une incohérence dans le clignement des yeux, la disposition des cheveux ou l'enchaînement des images… Mais les technologies s'adaptent et les "gomment" progressivement.
La troisième piste consiste à entraîner des modèles d'intelligence artificielle à détecter seuls les vidéos trafiquées. Les taux de réussite sont très bons, mais dépendent des exemples disponibles. "Un détecteur de deepfake qui marchait bien il y a un an ne marchera pas forcément sur ceux de cette année", explique Vincent Nozick.
Bases de contenus contrefaits
Les géants Facebook et Google, dont les plates-formes sont régulièrement critiquées pour leur rôle dans la désinformation, ont annoncé vouloir apporter leur aide en mettant à disposition des bases de contenus contrefaits. Mais la bataille ne fait que commencer: de nouveaux "deepfakes" utilisent la technologie des "réseaux génératifs adverses" (GANs) pour évaluer leur détectabilité avant même d'être publiés. En clair, ils s'auto-testent.
Plus bluffant, ou plus inquiétant : une équipe d'universitaires allemands travaille depuis 2016 à un logiciel de "marionettisation". Il ne s'agit plus de coller son visage sur celui d'une star dans un blockbuster hollywoodien, mais d'"animer" le visage d'une personnalité avec des mimiques et des paroles inventées, ce qui pourrait par exemple permettre de produire une fausse conférence de presse d'un chef d'Etat, le tout en direct.