Publicité

Sur Facebook et Instagram, les images et vidéos générés par l’intelligence artificielle seront identifiées

Meta, le propriétaire des deux réseaux sociaux, a annoncé vendredi qu’à partir du mois prochain, les contenus créés par l’IA qui y sont publiés porteront une étiquette les identifiant comme tels

Image d'illustration. Le logo de Meta sur un téléphone, photographié en mars 2024. — © SEBASTIEN BOZON/AFP
Image d'illustration. Le logo de Meta sur un téléphone, photographié en mars 2024. — © SEBASTIEN BOZON/AFP

Le géant américain Meta va identifier sur ses réseaux sociaux les sons, images et vidéos générés par l’intelligence artificielle (IA) à partir du mois de mai, selon une note de blog publiée vendredi. «Nous prévoyons de commencer à étiqueter les contenus générés par l’IA en mai 2024», a expliqué Monika Bickert, vice-présidente en charge des politiques de contenus de la maison mère de Facebook, Instagram et Threads, précisant que la mention «Made with AI» allait être apposée «sur un plus grand nombre de contenus vidéo, audio et images» que précédemment.

Lire aussi: Aux Etats-Unis, l’intelligence artificielle prend des airs de Big Brother

Ces contenus seront marqués par la plateforme si elle détecte «des indicateurs d’image d’IA conformes aux normes de l’industrie» ou si «des personnes indiquent qu’elles mettent en ligne des contenus générés par l’IA», a-t-elle souligné.

Ettiqueter plutôt qu’effacer

Le groupe californien annonce plus globalement qu’il va modifier sa manière de traiter les contenus modifiés par une IA, après consultation de son conseil de surveillance, estimant que «la transparence et davantage de contexte sont désormais la meilleure façon de traiter les contenus manipulés», «afin d’éviter le risque de restreindre inutilement la liberté d’expression».

Lire aussi: Le métavers, ce mot devenu tabou même pour Mark Zuckerberg

En l’occurrence, il considère désormais qu’il est préférable d’ajouter «des étiquettes et du contexte» à ces contenus, plutôt que de les supprimer comme il s’y employait jusqu’ici. Meta a néanmoins précisé qu’il allait continuer de retirer de ses plateformes tout contenu, qu’il soit créé par un humain ou une IA, allant à l’encontre de ses règles «contre l’ingérence dans le processus électoral, l’intimidation, le harcèlement, la violence (…) ou toute autre politique figurant dans nos normes communautaires». Il compte également sur son réseau «d’environ 100 fact-checkers indépendants» pour repérer les contenus générés par IA «faux ou trompeurs».

Des risques de désinformation

La maison mère de Facebook avait annoncé en février son souhait d’étiqueter toute image générée par IA, une décision prise sur fond de lutte contre la désinformation. D’autres géants de la tech comme Microsoft, Google ou OpenAI ont pris des engagements similaires.

L’essor de l’IA générative fait craindre que des personnes n’utilisent ces outils pour semer le chaos politique, notamment par le biais de la désinformation ou de la mésinformation, à l’approche de plusieurs élections majeures cette année, notamment aux Etats-Unis.

Au-delà de ces scrutins, le développement de programmes d’IA générative s’accompagne de la production d’un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l’image des fausses images («deepfakes») pornographiques de femmes célèbres, phénomène qui vise également des anonymes.

Lire aussi: L’intelligence artificielle, une opportunité de renaissance pour San Francisco