
Passer, en quelques clics, d’une vidéo de courses de chevaux à celle de la reproduction de deux étalons ; suivre les recommandations de YouTube après le témoignage d’un homme révélant son homosexualité et se retrouver devant une série de vidéos homophobes ; laisser son enfant regarder un dessin animé sur un train et le retrouver devant des images d’accidents de la circulation.
Publiés par la Fondation Mozilla, mercredi 16 octobre, ces témoignages font partie des vingt-huit histoires relayées par l’organisation – sur plus de 2 000 reçues – s’attachant à décrire les dérives du système de recommandation de YouTube, accusé de mettre en avant des vidéos complotistes, racistes, misogynes ou peu adaptées aux plus jeunes utilisateurs.
Ce sentiment de fuite en avant face aux vidéos qui défilent sur la plate-forme est appelé le « rabbit hole » (le « terrier du lapin »), en référence à la chute d’Alice à travers le terrier du lapin blanc dans l’ouvrage Alice au pays des merveilles, de Lewis Carroll.
Du combat de boxe aux émeutes urbaines
« J’ai commencé à regarder un combat de boxe, puis d’autres combats dans la rue, raconte par exemple un témoin, dans l’une des expériences publiées par Mozilla. Ensuite, je suis tombé sur des rixes, des accidents et des émeutes urbaines violentes… J’en suis venu à avoir une vision horrible du monde et à me sentir mal, sans l’avoir vraiment voulu. »
L’impression de se laisser entraîner à regarder des vidéos dont le sujet est de plus en plus éloigné de la recherche de départ, sans en avoir l’intention mais sans parvenir à arrêter le processus, est un point commun à tous les témoins, qui racontent aussi leurs difficultés à accompagner leurs proches.
Les réflexions d’un octogénaire, un ancien scientifique devenu adepte des théories Illuminati et qui est persuadé de l’existence d’extraterrestres après avoir passé des journées sur YouTube, amènent ainsi sa belle-fille à considérer « qu’il semble impossible pour nous, sa famille, de nous battre contre un algorithme de recommandation qui dirige toute sa vie d’utilisateur d’Internet ».
70 % des vidéos consultées par la recommandation
L’algorithme de recommandation est au centre des critiques contre le phénomène de « rabbit hole », ses détracteurs dénonçant l’absence de transparence de la part de YouTube sur ce sujet. L’enjeu, pour l’entreprise filiale d’Alphabet, la maison mère qui détient également Google, est énorme : les recommandations sont à l’origine de 70 % des consultations de vidéos sur YouTube, soit 250 millions d’heures par jour dans le monde.
En mars, l’un des dirigeants de YouTube, Neal Mohan, démentait au New York Times toute volonté d’utiliser le « rabbit hole » pour augmenter le nombre de vidéos vues :
« Certaines vidéos [recommandées] peuvent donner une impression de biais dans une certaine direction, vous savez, qu’on pourrait désigner comme plus extrême. Mais il y a d’autres vidéos qui créent un biais dans la direction opposée. Notre système ne crée pas ce phénomène parce que [la radicalité d’une vidéo] n’est pas un critère influençant les recommandations (…). Tout ce que je dis, c’est que ce n’est pas inévitable. »
Pour la Fondation Mozilla, responsable de la gestion du navigateur Firefox et à l’origine de la campagne de témoignage #YouTubeRegrets, seule une ouverture des données de YouTube à une expertise indépendante et un retrait plus efficace des contenus problématiques des recommandations peut permettre d’endiguer le phénomène.
Exploité par les réseaux pédophiles
L’organisation voit dans l’approche de YouTube (tournée vers des recommandations automatisées, une importante personnalisation des contenus proposés et un encouragement à toujours regarder plus de vidéos) un système à double tranchant, encourageant d’un côté « la production de contenus de grande qualité » tout en aggravant les problèmes posés par les vidéos « extrêmes ».
« Toute atteinte à l’utilisateur permise par la plate-forme s’en trouve facilement amplifiée, et se déroule dans une intimité peu accessible aux autorités, aux ONG ou à la recherche », détaille Mozilla dans un post de blog expliquant les raisons de la publication des témoignages.
Depuis plusieurs mois, l’algorithme de YouTube est aussi accusé d’alimenter en nouveaux contenus des réseaux pédophiles, en recommandant des vidéos d’enfants. « J’ai pris peur en voyant le nombre de vues », s’inquiète auprès du New York Times une mère de famille après la publication par sa très jeune fille d’une vidéo où elle joue dans le jardin avec une de ses amies. Plus de 400 000 personnes l’avaient consultée en quelques mois, faisant craindre à la famille une circulation de la vidéo entre des utilisateurs sexualisant l’image des deux enfants.
En réponse aux inquiétudes relayées par le quotidien américain, la direction de YouTube avait annoncé un renforcement de la lutte contre la recommandation des vidéos problématiques – tout en refusant de retirer par défaut de son algorithme les contenus incluant des images d’enfants, au prétexte que cela pourrait porter atteinte à d’autres vidéos, produites par des créateurs rémunérés par la plate-forme.
Contribuer
Réutiliser ce contenu