Les algorithmes, les nouveaux censeurs des réseaux sociaux

Comment gérer des millions de publications quotidiennes sur les réseaux sociaux ? Si Facebook et consorts font appel à des armées de modérateurs, ils automatisent aussi de plus en plus le processus grâce à des algorithmes.

Par Valentin Pasquier

Publié le 17 septembre 2016 à 15h00

Mis à jour le 08 décembre 2020 à 03h01

Mais ce n'est pas pour le bien-être de ces employés, mais bien pour en améliorer l'efficacité que les compagnies de la Silicon Valley cherchent en parallèle à automatiser cette chasse aux contenus indésirables. Et font appel à des outils tels que ceux développés par Hany Farid. Soutenu par Microsoft, ce professeur à l’université de Dartmouth aux États-Unis a mis au point PhotoDNA en 2008. À l’aide d’une base de données de fichiers censurés, cet algorithme identifie (et supprime) les images pédo-pornographiques parmi toutes les publications en ligne. Facebook, Google, Microsoft, de nombreuses applications et des plateformes de stockage cloud l'utilisent déjà.

« eGlyph », chasseur de pédophiles et de terroristes

Aujourd’hui, Hany Farid oriente ses recherches vers les publications terroristes. Il est à présent conseiller principal de l’organisation Counter Extremism Project – qui se revendique non-partisane bien que fondée par un proche de G. W. Bush. « Les extrémistes utilisent les plateformes en ligne comme des armes qui servent à radicaliser, recruter et inciter à la violence. C’est une excellente opportunité pour les entreprises de restreindre l’utilisation des réseaux sociaux à des fins funestes », explique-t-il à Télérama.

Dans ce but, il a développé l’algorithme eGlyph « qui permet de traiter les vidéos et les fichiers sonores aussi bien que les images ». « L’algorithme scanne des milliards de données publiées sur Internet et les réseaux sociaux chaque jour. Lorsqu’il détermine qu’un contenu correspond à une “empreinte” déjà présente dans la base de données des fichiers censurés, il l’étiquette comme “contenu à supprimer”.

Des fils d’actualité aseptisés ?

Mais si la suppression des contenus pédopornographiques fait consensus, celle des contenus extrémistes peut poser problème. Car qu'arrive-t-il si un média ne peut plus montrer et analyser une vidéo de propagande de l’État islamique ? Le contrôle d’un humain n’est-il pas nécessaire pour juger de la pertinence réelle d’une publication ? « C’est une décision politique, répond le chercheur américain. Les entreprises devront décider de l’usage qu’elles vont en faire. Ce sont des décisions difficiles qui sont actuellement en train d’être prises. Notre technologie permet juste aux entreprises de trouver le matériel nécessaire au renforcement de leurs conditions de service ». Au risque de proposer, à long terme, des fils d’actualité complètement aseptisés.

Peu disert sur la possibilité que les logiciels soient faillibles et puissent atteindre à la liberté d'expression, d'information ou artistique, Hany Farid préfère insister sur le fait que ce sont toujours les humains qui « gardent le contrôle sur ce qui contrevient ou non : la technologie ne fait qu'appliquer ce qu'on lui demande ». D'ailleurs, les algorithmes ne sont pas forcément les seuls responsables des censures absurdes : dans le cas de la célèbre photo de Nick Ut – celle de la petite vietnamienne nue touchée par le napalm – publiée sur Facebook par un journal norvégien début septembre, « le retrait de cette photo a été entièrement décidée par un modérateur humain », soutient Hany Farid. S’il affirme qu’il « continue à avoir des conversations productives » depuis juin 2016 avec les responsables de Facebook, la firme de Mark Zuckerberg n’a pour le moment « pris aucune décision concernant l’usage d’eGlyph ».

Sur le même thème

Cher lecteur, chère lectrice, Nous travaillons sur une nouvelle interface de commentaires afin de vous offrir le plus grand confort pour dialoguer. Merci de votre patience.

Le magazine en format numérique

Lire le magazine

Les plus lus