Cet article vous est offert
Pour lire gratuitement cet article réservé aux abonnés, connectez-vous
Vous n'êtes pas inscrit sur Le Monde ?
CARROLL FLETCHER

Les modérateurs, petites mains invisibles du Web morbide

Propos recueillis par 
Publié le 07 juillet 2016 à 18h12, modifié le 17 juillet 2016 à 07h46

Temps de Lecture 8 min.

Ils ont vu ce que la plupart d’entre nous ne verrons jamais : les patrouilleurs de l’ombre, l’armée invisible qui écume le ventre morbide du Web, confrontés quotidiennement à la face la plus repoussante de l’humanité. Bienvenue dans l’univers secret des modérateurs de contenus, ces petites mains invisibles et sous-payées, chargées de regarder les vidéos, commentaires et images douteuses et de les retirer, le cas échéant. Ils sont au cœur de Dark Content, un ensemble de vidéos d’entretiens stupéfiants, réalisés par les artistes Eva et Franco Mattes. Certaines sont accessibles exclusivement sur le Darknet, et d’autres présentées en ce moment dans leur exposition Abuse Standards Violations à la galerie Carroll/Fletcher, à Londres, jusqu’au 27 août, sur des mobiliers de bureau alambiqués, qui forcent le spectateur à la contorsion.

Eva et Franco Mattes, artistes italiens basés à Brooklyn, sont célèbres pour leurs œuvres provocatrices. Ces pionniers de l’art sur Internet excellent à gratter la surface aseptisée du Web pour nous entraîner dans ses boyaux, ses zones grises, suscitant l’inconfort chez le spectateur. C’est d’ailleurs à la suite du retrait de l’une de leurs vidéos de YouTube – intitulée No Fun, où Franco Mattes simulait une pendaison sur Chatroulette – qu’ils ont commencé à se demander si leur censeur était un algorithme ou un humain.

Commence alors une enquête de longue haleine, qui donne voix, à défaut d’un corps (les modérateurs sont représentés par des avatars impersonnels qui changent de sexe, d’âge, de couleur), à ce prolétariat anonyme, dont le quotidien est fait de précarité (l’un d’entre eux vit dans sa voiture et modère des contenus pornos depuis le point d’accès Wi-Fi gratuit d’un fast-food), de solitude et de souffrance psychologique (dissection animale, pornographie fétichiste, suicide en direct, viols et autres horreurs difficiles à partager avec son entourage). L’œuvre pointe également les frontières poreuses de ce qui, dans leur travail, relève de la censure, de l’application consciencieuse des standards du Web, ou d’un simple arbitraire.

Qu’est-ce qui vous a amenés à vous intéresser aux modérateurs de contenus ?

Franco Mattes : Tout a débuté avec le retrait de l’une de nos vidéos de YouTube. Nous étions très surpris, parce qu’elle a été exposée dans de nombreux musées. C’est ainsi que nous nous sommes intéressés au processus de filtrage. La plupart des gens pensent qu’une partie des contenus est retirée automatiquement après avoir été signalée par des utilisateurs un certain nombre de fois, mais ce n’est pas vraiment le cas. Le processus est en fait exécuté par des « filtres humains », qui sont payés pour regarder toutes les images et vidéos signalées, et décident si ce matériel doit être retiré ou peut rester.

Quelle est la part de la modération automatique et la part humaine ?

Eva Mattes : Je suis persuadée que la plupart des réseaux sociaux seraient ravis de déléguer ce travail à un logiciel. C’est ce qu’ils aimeraient nous faire penser, que tout ce contenu est pris en charge par des algorithmes. Mais il y a un grand nombre de décisions basées sur la morale, qu’il est difficile de déléguer aux ordinateurs. Par exemple : un algorithme peut identifier une svastika [croix gammée], mais il lui est difficile de savoir si la personne qui le poste est un néonazi (ce qui impliquerait son retrait) ou un survivant de l’holocauste (ce qui impliquerait qu’elle demeure). Ce genre de choix nécessite encore des humains.

Qu’est-ce qui vous a le plus frappés en discutant avec ces travailleurs de l’ombre ?

F. M. : Ils sont fascinants parce qu’ils sont pris au milieu de nombreuses forces différentes, politiques, morales, éthiques et même religieuses. Ils sont un drôle de mélange entre un policier, un prêtre, un éditeur et un exterminateur. Sur Internet, notre activité consiste surtout à ajouter des choses. Nous écrivons, nous prenons des images, nous postons, nous taguons, nous « likons », nous partageons et nous enregistrons, alors que les modérateurs de contenu font exactement le contraire : ils retirent. Autant nous cherchons à attirer l’attention, autant ils aspirent à l’invisibilité. En un sens, ils sont l’anti-Internet.

Comment avez-vous réussi à les interviewer ?

E. M. : Nous avons essayé différentes manières de prendre contact, mais après plusieurs mois d’impasse, nous avons décidé de nous présenter comme une entreprise fictive et ça a marché. Une fois qu’ils ont répondu à notre appel, nous pouvions leur dire que nous les recrutions non pas pour faire de la modération, mais pour un projet artistique.

Qui sont-ils ?

F. M. : C’est difficile à dire. La plupart souhaitent demeurer anonymes parce que c’est un travail assez horrible. Ils passent leur vie devant un écran à regarder des vidéos de torture, de meurtres, de décapitation, de pornographie infantile et de viols. L’une des femmes m’a dit : « Mon époux ne sait pas que je fais ce boulot, il sait seulement que je gagne un peu d’argent sur Internet et c’est tout. »

E. M. : Dans chaque épisode vidéo, les visages des travailleurs ne cessent de changer, tandis que la voix, elle, reste toujours la même. C’est parce que, même après les avoir interviewés, nous n’avons toujours aucune idée de leur âge, de leur genre, de leur ethnicité ou de leur nationalité… En outre, les entreprises qui les recrutent veulent elles aussi rester anonymes, les modérateurs ne savent pas qui sont leurs employeurs. Ils ne travaillent pas directement pour les grandes entreprises. Ce sont des entreprises factices, avec des noms génériques, qui agissent comme intermédiaires entre les grosses boîtes, comme Facebook ou Google, et les modérateurs. Ils travaillent depuis leur maison, la plupart du temps. Ces tâches sont sous-traitées aux Philippines, en Europe de l’Est, mais la plupart des interviews que nous avons pu faire étaient avec des Américains. C’est une forme de travail très peu réglementé et mal payé.

L’un des modérateurs suggère qu’il existe d’étranges interférences entre ces compagnies privées et le politique ?

E. M. : Il s’est rappelé que l’une de ses tâches a été de retirer les photos et vidéos d’Oussama Ben Laden. Pas une image spécifique de Ben Laden mort, mais tout ce qui pouvait le représenter. Nous avons pensé qu’il s’agissait là d’une demande très étrange, qui ne s’apparente pas à un choix moral. Il n’y a rien de violent ou de pornographique dans une vidéo de Ben Laden, c’est évidemment une décision politique. Il s’est avéré qu’un grand nombre d’entre eux a reçu des requêtes similaires de leurs entreprises, consistant à enlever des éléments en lien avec des décisions politiques, qui n’avaient rien à voir avec la morale.

Peut-on y voir une forme de censure ?

F. M. : Lorsqu’on leur a posé la question, la plupart ont répondu quasiment la même chose, que ce n’est pas de la censure, parce qu’ils travaillent pour des compagnies privées, dont les enjeux sont différents de ceux du gouvernement, ils ont le droit d’enlever et de faire ce que bon leur semble. Ce qui est bien sûr une position problématique. Le Monde est une entreprise privée et pourtant, elle a une forme de responsabilité pour ce qu’elle publie ou pas. Les réseaux sociaux ne tombent pas dans ce cas de figure, ils sont considérés comme des fournisseurs neutres, un miroir de la société.

Le Monde
Offre spéciale étudiants et enseignants
Accédez à tous nos contenus en illimité à partir de 9,99 €/mois au lieu de 11,99 €.
S’abonner

Mais si c’est un miroir, il est très tordu et affecte la manière dont on vit. Imaginons que vous retiriez toutes les photos de Facebook où des gens de même sexe s’embrassent. A long terme, cela va influencer la façon dont vous percevez le monde. Ça peut vous faire accepter ou intérioriser le fait qu’il y a moins de gens gays que ce que vous pensiez ou souhaitiez.

Avez-vous réussi à obtenir des informations sur les recommandations fournies par ces entreprises ?

E. M. : Nous avons gagné la confiance de l’un des modérateurs, qui nous a fourni les consignes qu’il devait suivre. Nous travaillons à une nouvelle série d’œuvres avec ces directives, imprimées sur des plaques de Plexiglas et montées sur des matériaux industriels isolants. Nous concevons ces directives comme des filtres, ils laissent passer certaines choses tout en en bloquant d’autres, mais en même temps ils sont invisibles, tout comme les matériaux d’isolation. Ils nous entourent, ils nous protègent et pourtant d’habitude vous ne les voyez pas. Ils sont cachés à l’intérieur d’un mur ou d’un plafond.

F. M. : La lecture de ces directives nous aide à esquisser une carte de notre moralité à travers le prisme des réseaux sociaux, en donnant à voir où sont les frontières invisibles entre ce qui est permis, moral et ce qui ne l’est pas. Bien sûr, ces frontières sont poreuses – d’où la nécessité de modérateurs humains – et changent constamment dans le temps et l’espace.

C’est étrange de penser que ces gens ont vu des choses que le reste des usagers d’Internet ne verra jamais. Est-ce pour cette raison que vous avez posté la vidéo sur le Darknet ?

E.M. : Nous avons décidé de publier les vidéos sur le Darknet parce que nous voudrions encourager les gens, tout spécialement ceux qui ne sont pas familiers de l’Internet anonyme, d’installer le navigateur Tor et de s’y aventurer. C’est un effort pour s’opposer à la manière dont l’Internet officiel repose de plus en plus sur des vrais noms et des données personnelles, avec des entreprises qui font du profit sur nos informations privées.

F.M. : La plupart du temps, quand les médias mainstream parlent du Darknet, c’est en rapport avec la drogue, la pornographie et les armes, mais ce n’est pas que ça. C’est aussi une plate-forme qui a permis à un lanceur d’alerte comme Chelsea Manning de diffuser ses fichiers. C’est une plate-forme qui a aidé durant le « printemps arabe », qui a permis des communications anonymes entre ceux qui vivent sous des régimes autoritaires.

Abuse Standards Violations, Eva et Franco Mattes, Caroll/Fletcher Gallery, à Londres jusqu’au 27 août.
Dark Content, trois des entretiens visibles sur le Darknet : télécharger le navigateur Tor.

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil à la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez à lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.

Lecture restreinte

Votre abonnement n’autorise pas la lecture de cet article

Pour plus d’informations, merci de contacter notre service commercial.