Cet article vous est offert
Pour lire gratuitement cet article réservé aux abonnés, connectez-vous
Vous n'ĂŞtes pas inscrit sur Le Monde ?

Un programme informatique génère de fausses critiques de restaurants et trompe des lecteurs

Des chercheurs de l’université de Chicago ont entraîné un programme d’intelligence artificielle à imiter des commentaires tirés du site Yelp.

Par 

Publié le 05 septembre 2017 à 15h32, modifié le 06 septembre 2017 à 06h46

Temps de Lecture 4 min.

« NE PERDEZ PAS VOTRE TEMPS ET VOTRE ARGENT ! C’est le pire service que j’aie jamais vu. Cet endroit est une blague. La serveuse Ă©tait malpolie et a dit que le responsable allait venir mais ce n’est jamais arrivĂ©. J’aurais aimĂ© pouvoir mettre zĂ©ro Ă©toile. Â» Ce commentaire, concernant un restaurant amĂ©ricain, n’a pas Ă©tĂ© Ă©crit par un client mĂ©content, mais par un programme informatique.

Des chercheurs de l’université de Chicago ont publié en août le résultat de leurs travaux visant à générer automatiquement de faux commentaires, grâce à une technologie d’apprentissage automatique.

Ils ont pour cela « entraĂ®nĂ© Â» leur programme sur une grande base de donnĂ©es de commentaires du site Yelp, contenant 4,1 millions de messages, rĂ©digĂ©s par un million de personnes. En analysant ces commentaires, ce programme d’intelligence artificielle a appris Ă  les imiter. Il peut s’adapter en fonction de l’établissement Ă©valuĂ©, en ajoutant par exemple des noms de plats italiens pour un restaurant proposant cette cuisine.

Le programme peut aussi ĂŞtre rĂ©glĂ© pour gĂ©nĂ©rer automatiquement des commentaires allant d’une Ă©toile (mauvais) Ă  cinq (très bon). « La nourriture est incroyable. Les portions sont gigantesques. Le bagel au fromage Ă©tait cuit Ă  la perfection et bien cuisinĂ©, frais & dĂ©licieux ! Le service est rapide. C’est notre endroit prĂ©fĂ©rĂ© ! On y retournera ! Â», Ă©crit par exemple ce programme avec une note de cinq Ă©toiles.

De faux commentaires jugés utiles

Les chercheurs se sont concentrĂ©s sur les critiques de restaurants et affirment que les personnes Ă  qui ces messages ont Ă©tĂ© prĂ©sentĂ©s n’ont pas Ă©tĂ© capables de distinguer les faux commentaires des vrais. « Non seulement ces commentaires Ă©chappent Ă  la dĂ©tection humaine, mais ils obtiennent un bon score “d’utilité” de la part des utilisateurs Â», Ă©crivent-ils. Le score que leur ont attribuĂ© en moyenne les humains est de 3,15 sur 5 ; contre 3,28 pour les commentaires authentiques.

Les faux commentaires ne sont pas un problème nouveau pour les plates-formes comme Yelp, Amazon ou TripAdvisor. Mais ceux-ci sont généralement écrits par des personnes payées pour nuire à une entreprise ou, au contraire, la valoriser.

Les plates-formes se battent avec difficulté contre ce genre de contenus, à l’aide de leurs modérateurs humains, mais aussi de programmes informatiques censés les repérer – notamment en détectant des augmentations étranges du rythme de publications lors du lancement d’une campagne de faux commentaires.

Les programmes d’intelligence artificielle pourraient reprĂ©senter une aubaine pour les falsificateurs. Ces systèmes « pourraient se montrer bien plus puissants, parce qu’ils peuvent ĂŞtre dĂ©ployĂ©s Ă  grande Ă©chelle (pas besoin de payer Ă  la tâche un humain) et ĂŞtre plus difficiles Ă  dĂ©tecter, puisque les programmes peuvent contrĂ´ler le rythme de gĂ©nĂ©ration de commentaires Â», poursuivent les chercheurs dans leur article.

Plusieurs problèmes à surmonter

Dans les colonnes du site spĂ©cialisĂ© The Verge, Yelp a assurĂ© que ce type de technologie ne l’inquiĂ©tait pas beaucoup. « Le logiciel de recommandation de Yelp emploie une approche plus gĂ©nĂ©rale. Au-delĂ  du texte seulement, il utilise de nombreux signaux pour dĂ©terminer si un commentaire doit remonter. Â» Sans donner plus de dĂ©tails, Yelp laisse entendre que ces faux commentaires seraient automatiquement dĂ©valorisĂ©s par la plate-forme et donc peu visibles des visiteurs.

Le Monde
Offre spéciale étudiants et enseignants
Accédez à tous nos contenus en illimité à partir de 9,99 €/mois au lieu de 11,99 €.
S’abonner

Reste aussi un problème de taille Ă  surmonter pour ce programme : pour publier un commentaire sur ce type de site, il faut gĂ©nĂ©ralement y avoir ouvert un compte. C’est aussi ce qui se monnaie, quand des humains sont rĂ©munĂ©rĂ©s pour publier de faux commentaires : ils ne doivent pas seulement les rĂ©diger, mais aussi possĂ©der un ou plusieurs comptes sur lesquels les publier. Et difficile pour une machine d’en ouvrir Ă  la chaĂ®ne, sans ĂŞtre repĂ©rĂ©e et bloquĂ©e par le site.

« La gĂ©nĂ©ration automatique de contenus de toutes longueurs reste un dĂ©fi Â»

Qui plus est, les chercheurs eux-mêmes affirment avoir conçu une méthode pour contrer leur propre technologie : un système capable de détecter les commentaires créés par le programme, en s’appuyant sur un de ses défauts – le texte qu’il génère utilise en moyenne moins de caractères différents qu’un commentaire écrit par un humain.

BientĂ´t des articles entiers ?

Ce programme d’intelligence artificielle est donc loin d’être parfait pour imiter l’écriture humaine – et l’étude, publiĂ©e en ligne, n’a pas encore Ă©tĂ© Ă©valuĂ©e par des pairs. Mais pour Ben Zhao, un des auteurs de cet article interrogĂ© par Business Insider, cela ouvre d’importantes questions relatives Ă  la fiabilitĂ© des textes auxquels sont confrontĂ©s les internautes. « Ă‡a commence avec des commentaires en ligne (…). Mais ça va progresser vers des attaques plus importantes, dans lesquelles des articles entiers Ă©crits sur un blog pourraient ĂŞtre entièrement gĂ©nĂ©rĂ©s automatiquement. Â»

Il reste encore beaucoup de chemin Ă  parcourir aux technologies d’intelligence artificielle pour parvenir Ă  ce genre de rĂ©sultat. Si le système semble bien fonctionner pour les commentaires de restaurants, il s’agit d’un format bien particulier. « Les commentaires en ligne sont souvent courts et se limitent Ă  des thèmes limitĂ©s Â», prĂ©cisent les chercheurs.

Il arrive aussi qu’ils soient rĂ©digĂ©s avec une qualitĂ© linguistique parfois approximative, ce qui permet aux commentaires automatiques imparfaits de passer inaperçus. « Alors que la gĂ©nĂ©ration automatique de contenus de toutes longueurs reste un dĂ©fi, la gĂ©nĂ©ration de textes courts, dans un domaine prĂ©cis, est dès aujourd’hui rĂ©alisable Â», Ă©crivent-ils.

L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.
S’abonner

Voir les contributions

RĂ©utiliser ce contenu

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil Ă  la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez Ă  lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.

Lecture restreinte

Votre abonnement n’autorise pas la lecture de cet article

Pour plus d’informations, merci de contacter notre service commercial.