YouTube a reconnu mardi 26 mai qu’une « erreur commise par un système automatique de modération » avait abouti à la censure de commentaires critiquant le Parti communiste chinois (PCC). Dans la journée, l’entrepreneur américain Palmer Luckey, fondateur d’Oculus (groupe Facebook) s’était plaint d’avoir constaté la disparition rapide de commentaires qu’il avait publiés, et qui critiquaient un service de propagande du PCC.
Ce message avait attiré l’attention de plusieurs élus aux Etats-Unis, dont le sénateur et ancien candidat à l’investiture pour la présidentielle Ted Cruz, qui avait accusé Google de « censurer peuple américain pour le compte du PCC ».
Pas du tout, a rétorqué Google : l’entreprise a reconnu que des commentaires avaient bien été supprimés automatiquement, mais en raison d’une erreur. L’entreprise a réaffirmé que ses règles de modération n’avaient pas changé, et que le problème était vraisemblablement lié à une plus grande utilisation des filtres automatiques de modération, en raison de la pandémie qui a limité les capacités de travail de ses équipes de modération manuelle.
D’après des tests menés par The Verge, cependant, le problème remonterait à au moins six mois pour deux messages critiquant le PCC, qui étaient automatiquement effacées en moins de quinze secondes depuis la fin de 2019.
Biais des outils automatisés
Très utilisés par les grandes plates-formes, les systèmes de modération automatiques souffrent de biais bien connus, qui les conduisent, dans certains cas, à « surmodérer » ou à « sous-modérer » certains types de messages. Une analyse du site spécialisé AlgorithmWatch, publiée le 19 mai, montre que l’outil Perspective, utilisé par Google pour déterminer le niveau de « toxicité » d’un texte, surévalue l’agressivité des messages contenant des termes comme « noir » ou « gay ».
En cause, la manière dont fonctionne l’outil, qui « apprend » automatiquement à classer les commentaires : « Les jeux de donnés utilisés pour entraîner l’outil contenaient probablement des commentaires dans lesquels des termes désignant des minorités étaient utilisés de manière insultante, ce qui expliquerait pourquoi ces mots font augmenter le score de toxicité des commentaires qui les contiennent », note AlgorithmWatch.
Contribuer
Réutiliser ce contenu