Sans aide humaine, l’algo « Trending Topics » de Facebook part en vrille

Sans aide humaine, l’algo « Trending Topics » de Facebook part en vrille

Facebook a viré son équipe chargée de superviser les sujets suggérés, et aussitôt vu ses recommandations maison envahies par le pire des infos de caniveau. Du danger de croire que la techno peut tout...

Par Andréa Fradin
· Publié le · Mis à jour le
Temps de lecture

C’est ce qu’on appelle, dans le jargon, un epic fail. Accusé en mai de favoriser certains sujets au détriment d’autres dans sa fonctionnalité « Trending topics » « Sujets tendances », inaccessible en France), Facebook a beau essayer d’améliorer les choses, il ne fait que les empirer.

Masturbation avec un hamburger

Le week-end des 27-28 août, la firme a ainsi vu son outil de recommandation maison envahi d’infos bidons ou de caniveau. Une histoire de mec qui se masturbe avec un burger McDonald’s, une fausse controverse sur une présentatrice de la chaîne américain Fox News... Bref, le pire de ce qu’Internet peut proposer en contenus.

La suite après la publicité

Plus grave pour le réseau social encore, cette dérive a été la conséquence directe d’une décision managériale : la veille même, l’ensemble de l’équipe en charge de superviser ces sujets suggérés était en effet virée.

Quinze contractuels d’une entreprise new-yorkaise ont été virés sans préavis, raconte un témoin au Guardian, et en présence d’un employé de la sécurité.

Faire le tri

Pour beaucoup anciens journalistes, ils avaient pour mission de filer un coup de pouce à l’algorithme concocté en interne pour repérer les fameuses tendances. A partir de plusieurs critères, tels que la popularité d’un sujet sur les pages Facebook, ce dernier remonte des thèmes, qui viennent ensuite s’afficher sur le mur des utilisateurs, dans une boîte dédiée, en haut à droite de la page.

La fonctionnalit
La fonctionnalité « Trending » de Facebook - Capture/Facebook

Néanmoins, les cervelles humaines étaient appelées à faire le tri dans cette pêche automatique, en suivant un code de bonne conduite, réexaminé après les accusations de censure de mai. Le but n’était pas, selon Tom Stocky, le responsable de la rubrique, de privilégier des idées politiques sur d’autres, mais de dégommer les fausses histoires virales qui ont tôt fait de pulluler sur Internet.

La suite après la publicité

Objectif donc :

« Se désintéresser des cochonneries, des doublons, des hoax ou des sujets sans sources suffisantes.  »

L’humain est toujours présent

Ce code de conduite, Facebook aurait finalement mieux fait de pleinement l’assumer. Le site a beau ne pas avoir joué franc jeu avec ses utilisateurs à ce sujet (affirmant d’abord être 100% neutre avant de se contredire), l’idée de départ n’en était pas moins bonne. Voire incontournable : quelques heures après avoir dégagé la supervision humaine, l’algorithme est bien parti en vrille.

Journaux et magazines en dsordre
Journaux et magazines en désordre - Pixabay/CC0

Pour être tout à fait exact, les humains n’ont pas été totalement évacués de cette sélection automatique. Ils ne le sont de toute façon jamais car, rappelons-le, les algorithmes ne naissent pas dans les choux, mais bien dans les cerveaux de sapiens sapiens.

Comme l’écrit Slate, Facebook a remplacé les anciens curateurs par d’autres personnes moins sensibilisées aux questions éditoriales. Interrogée par le site américain, la firme refuse de donner plus de détails sur cette nouvelle équipe.

La suite après la publicité

Mais elle concède néanmoins que l’accent est mis sur « des compétences plus opérationnelles et techniques », visant davantage à corriger à la marge le produit en lui-même. Elle ajoute :

« Dans cette nouvelle version de Trending, nous n’avons plus besoin d’écrire des descriptions de sujets ou des résumés. »

« Méfiez-vous de ce qui sort de mon cerveau ! »

Plusieurs anciens employés de Facebook expliquent au Guardian et à Slate, sous couvert d’anonymat (une clause de confidentialité [« non disclosure agreement » en VO] ayant été signée, comme le veut l’usage dans la tech), qu’ils ne s’attendaient pas à garder leur boulot très longtemps.

Selon eux, il était très clair que le réseau social ne voulait s’entourer d’une équipe éditoriale que temporairement, le temps d’enrichir et d’affiner l’algorithme à l’aide des décisions humaines. L’apprentissage n’a visiblement pas duré assez longtemps.

Ce désastre montre que même un géant comme Facebook peut se laisser avoir par l’illusion d’objectivité suggérée par la technique. S’ils sont moins présents, les humains marquent inévitablement les algorithmes, puisque ce sont eux qui les générent – du moins pour le moment.

Leurs créateurs en sont les premiers conscients : au printemps 2015, quand le gouvernement a décidé de créer un algorithme pour détecter les futurs terroristes, l’un d’entre eux s’écriait :

« Un algorithme ne sort que des cerveaux humains. Et je vous en conjure : méfiez-vous de ce qui sort de mon cerveau ! »
Andréa Fradin
A lire ensuite
En kiosque