charles deluvio (unsplash)

Né en 2017, le deep-porn a fait plus de 600.000 victimes

Le terme deep-porn désigne une vidéo pornographique réalisée à l’aide des mêmes méthodes que les deepfakes. Autrement dit, à l’aide d’algorithmes d’intelligence artificielle.

Les deepfakes, qu’on appelle aussi médias synthétiques, héritent leur nom d’un utilisateur de la plateforme Reddit, u/deepfakes. Ce dernier fabriquait des séquences pornographiques détournées. Pour cela, il greffait numériquement le visage de célébrités sur le corps d’actrices de films pour adultes.

Ainsi, les deep-porn sont apparus pour la première fois en 2017 sur le forum Reddit. Dans la foulée, elles ont fait l’objet d’un trafic entre les utilisateurs et leur créateur. Le groupe qui s’était formé autour de cette thématique a atteint près de 100 000 membres.

Les célébrités comme cible n°1

En 2018, Sam Cole, un journaliste de Motherboard, a découvert qu’un utilisateur de Reddit du nom de “deepfakes” publiait de fausses vidéos pornographiques non consensuelles. Pour cela, il utilisait un algorithme d’intelligence artificielle. Celui-ci lui permettait d’échanger les visages de célébrités dans de vraies vidéos pornographiques.

C’est ainsi que, au moment où la technologie rencontrait un fort succès, Sam Cole a tiré la sonnette d’alarme sur ce phénomène. En un an, le deepfake porn s’est finalement répandu bien au-delà de Reddit. Des applications qui pouvaient “déshabiller” toute femme photographiée ont même fait leur apparition.

Une véritable prolifération

En septembre 2019, Deeptrace, une société d’intelligence artificielle, a trouvé 15 000 vidéos deepfake en ligne. Ce qui signifie que leur nombre avait doublé en seulement neuf mois. Parmi les vidéos, 96% étaient pornographiques et 99% d’entre elles mettaient en correspondance des visages de célébrités féminines avec des stars du monde pornographique.

Dans le même contexte, en 2020, Sensity.ai, une société néerlandaise spécialisée dans la détection de médias synthétiques, a révélé que près de 680 000 femmes auraient été victimes de DeepNude, un générateur de Deep porns sur Télégram. Le principe était relativement simple. En effet, il suffisait de téléverser une photo de femme habillée et l’algorithme générait un deepfake de cette même femme, nue.

D’après le site journalism.design, le bot, dont les images ont été diffusées sur différentes chaînes affiliées, regrouperait 101 080 utilisateurs dans le monde. 70% se trouvent en Russie ou dans les pays satellites de l’ex-URSS. Pour rappel, un bot est un service automatisé disponible sur les messageries instantanées comme Messenger ou encore Télégram.

La réaction des plateformes

La plateforme Gfycat a été la première à réagir en supprimant les comptes partageant des deep-porns. Dans la foulée, les plateformes Pornhub et Twitter ont interdit les deep-porns début février 2018.

Le 8 février 2018, c’est la plateforme Reddit qui a décidé de bannir ces vidéos de son système. Et ce, en mettant à jour ses conditions d’utilisation. Cette date signe ainsi la fermeture du principal sub Reddit qui regroupait près de 90 000 membres.

En Corée, au Japon et en Russie, les réseaux de trafic de deep-porns qui prospéraient sur les plateformes Telegram et Signal sont démantelés. Depuis, de nombreux textes de loi visant à pénaliser les deep-porn ont vu le jour aux États-Unis. Par contre, les poursuites restent rares. En effet, le plus souvent, les victimes n’ont pas conscience de l’infraction, ou alors, n’ont pas le courage ou les moyens de se confronter aux créateurs de ces vidéos.

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.

Recevez nos dernières infos directement sur votre WhatsApp en vous abonnant à notre chaine.