Publicité

YouTube a supprimé 8,3 millions de vidéos abusives au dernier trimestre 2017

Patrick Semansky/AP

Après les nombreuses polémiques qui ont écorné son image, la plateforme vidéo de Google veut être plus transparente sur sa modération de contenus abusifs. Elle publie un premier rapport instructif.

Sommée de réagir vite et fort après plusieurs polémiques concernant des contenus qui n'avaient rien à faire sur sa plateforme vidéo YouTube et celle dédiée aux enfants, YouTube Kids, Google veut montrer les premiers résultats de ses efforts. Il vient de publier son premier «community guidelines et enforcement report» , un compte rendu trimestriel destiné à donner des informations et des chiffres précis sur les contenus supprimés pour infraction au règlement de la communauté.

Après le départ de plusieurs gros annonceurs de la plateforme, parmi lesquels Mars, Adidas ou HP soucieux de ne pas voir leur image accolée à des contenus problématiques, la directrice générale de YouTube Susan Wojcicki avait présenté en décembre 2017 une série de mesures pour renforcer la politique de modération. La plus forte était l'embauche de 10.000 personnes d'ici la fin de l'année 2018 pour agrandir son pôle dédié aux problématiques de modération des contenus dits sensibles pour Google (et pas seulement pour sa plateformeYouTube). Leur mission: repérer les contenus violant les conditions d'utilisation de la plate-forme, les contenus abusifs ou polémiques. L'équipe entraîne également les algorithmes développés par YouTube, un technologie déployée depuis juin 2017, pour repérer plus rapidement et plus efficacement les vidéos à supprimer.

30% des vidéos supprimées à caractère sexuel

Ce premier rapport donne quelques premiers chiffres intéressants sur la période octobre-décembre 2017. Sur ces trois mois, la plateforme a supprimé un total de 8,3 millions de contenus dont 81% ont été détectés par un algorithme. Le nombre de vidéos signalées par des ONG ou des agences gouvernementales s'est élevé à 1,1 million, celui signalé par des membres ordinaires de la communauté à 400.000.

Parmi les 6,7 millions de vidéos détectées grâce à une intelligence artificielle, 76% ont été enlevées avant qu'elles aient eu le temps d'être visionnées par un autre membre du réseau. Les machines de YouTube sont capables de scanner les tags, les mots du titre, mais aussi avec de plus en plus d'efficacité les images pour détecter un contenu problématique. Utilisée depuis juin, cette technologie a permis d'accélérer grandement l'analyse de vidéos.

Près d'un tiers (30% ) des vidéos supprimées sont des contenus présentant un caractère sexuel, devant les contenus qualifiés spams (27%), les contenus haineux (16%), ceux violents (14%). Les vidéos pouvant mettre en danger des enfants représentent 5% des suppressions, celles faisant la promotion du terrorisme 2%.

D'après le document, c'est en Inde que sont signalés le plus de contenus enfreignant les règles de YouTube, devant les États-Unis, le Brésil, la Russie et l'Allemagne. La France ne figure pas dans le top 10.

Tout internaute qui a signalé un contenu sur la plateforme va pouvoir suivre ce qu'il advient. YouTube n'a en revanche pas communiqué de données concernant spécifiquement sa plateforme pour enfants YouTube Kids. Il le promet pour les prochains mois. D'ici la fin de l'année, il devrait aussi proposer des données sur les commentaires, les vitesses de suppression et donner plus de détails sur sa politique de modération.

YouTube a supprimé 8,3 millions de vidéos abusives au dernier trimestre 2017

S'ABONNER
Partager

Partager via :

Plus d'options

S'abonner
8 commentaires
  • contento

    le

    figaro

  • JIDE 2431

    le

    C'est peu dire de la qualité des vidéos de ce site d'exhibitionnistes ....

  • Yaka51

    le

    Nous ne sommes pas obligé de croire les arguments avancés par cette plateforme, personnellement j'y verrais plutôt un joli coup de balai politiquement correct !

À lire aussi