
S’il est toujours possible pour tout internaute de modifier des articles de Wikipedia, les règles pour le faire sont devenues de plus en plus nombreuses et contraignantes au fil des années. De quoi décourager les nouveaux contributeurs, qui voient souvent leurs modifications sèchement supprimées, sans aucune explication. Résultat : une baisse significative du nombre de participants à la célèbre encyclopédie collaborative en ligne, quasi divisé par deux depuis 2007.
Pour remédier à ce problème, la Fondation Wikimedia, qui gère Wikipedia, vient de déployer une intelligence artificielle capable d’analyser les modifications introduites par des internautes pour y repérer d’éventuelles erreurs. Ce type d’algorithme existait déjà sur Wikipedia, mais le nouveau, baptisé ORES (Objective Revision Evaluation Service), est capable de distinguer deux types d’erreurs : les fautes non intentionnelles et les actes de vandalisme.
Des éditeurs trop durs
Ce programme signale ainsi aux éditeurs les erreurs potentielles qu’il a repérées, ainsi que leur nature : « vandalisme » ou « bonne foi ». Les éditeurs, humains, vérifient alors la modification et, si elle contient bien une erreur, peuvent la supprimer en un clic. Avec ce nouvel outil, le pari de Wikimedia est d’encourager ces éditeurs à se montrer moins durs avec les contributeurs dont ils suppriment le contenu.
« Je soupçonne que le comportement rude des wikipédiens qui contrôlent la qualité des articles vient du fait qu’ils doivent arbitrer très rapidement, et qu’ils ne sont pas encouragés à avoir une interaction humaine avec la personne », explique Aaron Halfaker, l’ingénieur à la tête de ce projet, cité dans la MIT Technology Review. « Cet outil permet de dire “si vous vous apprêtez à supprimer ceci, peut-être devriez-vous faire attention et envoyer un message à la personne qui a fait cette modification”. »
Programme d’apprentissage
Objectif : expliquer aux nouveaux contributeurs pourquoi leur modification a été supprimée, afin de les motiver à participer à nouveau, tout en leur permettant de comprendre et d’intégrer les règles de Wikipedia.
Pour distinguer les erreurs intentionnelles de celles qui ne le sont pas, le programme ORES, basé sur des technologies open source de « machine learning », ou apprentissage des machines, a été « entraîné ». Des éditeurs de Wikipedia ont catégorisé des milliers de modifications dans l’encyclopédie, que ce programme d’intelligence artificielle a analysées, afin d’apprendre à repérer par lui-même les erreurs et leur nature. Certains mots et certaines chaînes de caractères, par exemple, reviennent régulièrement dans les actes de vandalisme.
ORES a pour l’instant été déployé dans les versions anglaise, perse, portugaise et turque de Wikipedia.
Voir les contributions
Réutiliser ce contenu