Il ne manquait plus que cela. Alors que l’Internet est déjà inondé de fake news, de trolls ou de bots, une équipe chinoise de Microsoft annonce avoir créé une IA permettant de générer de faux commentaires sur les sites de presse. Dans un article publié sur arXiv, les chercheurs arguent de l’utilité de leur recherche : de faux commentaires peuvent permettre de lancer la conversation autour d’un article quand aucun humain n’a commenté. Ils peuvent aussi, assurent-ils, améliorer l’expérience de lecture sous un article peu commenté.

Le bot, nommé DeepCom, a ingurgité une base de données de millions de commentaires d’articles postés en chinois et une autre base de données de commentaires en anglais, issus de Yahoo! News. L’IA s’attache d’abord à définir le sujet principal de l’article, celui qui doit générer normalement le plus de commentaires. Par exemple, le nom de l’actrice ou acteur principal si l’article porte sur un film. Ensuite, DeepCom lâche son com’.

Faux commentaire généré par DeepCom

Exemple de faux commentaire généré par DeepCom. En rouge, ce que le bot a jugé important et digne d’être commenté dans l’article.

Comme l’illustre cet exemple d’un article sur une équipe de NBA, DeepCom est encore loin d’être pertinent et de pouvoir vraiment lancer la conversation. Qu’en sera-t-il quand ce genre d’outil sera plus performant ? La publication des chercheurs chinois a suscité l’ironie sur les réseaux sociaux. Arvind Narayanan, informaticien et professeur associé à l’Université de Princeton, salue avec sarcasme l’irruption de cette « nouvelle technique de machine learning dont l’intérêt principal semble être le trolling et la désinformation ».

Les auteurs de l’étude sont conscients des questions éthiques que pose leur outil : « Il y a un risque que des internautes ou des organisations utilisent ces techniques à grande échelle pour publier de faux commentaires, à des fins de manipulation ou de persuasion politique. » Malgré cet avertissement timide, « l’article n’aborde pas les usages  inattendus potentiels de l’outil », dénonce Arvind Narayanan. « Malheureusement, EMNLP [la prestigieuse conférence dans laquelle sera présentée cette étude] ne semble pas demander aux auteurs de questionner les implications éthiques de leur travail. La sécurité informatique a un long historique de travaux utilisés par la suite à mauvais escient ».

Un DeepCom plus robuste, capable de produire des commentaires crédibles, pourrait devenir l’outil rêvé pour l’astrosurfing, cette pratique consistant à créer artificiellement un mouvement de foule sur Internet. En Chine, on parle de « water army » pour qualifier ces usines à trolls payés pour commenter de manière insincère sur les réseaux, une technique actuellement utilisée pour tenter de discréditer les manifestants pro-démocratie à Hong-Kong. Dans le cadre d’une expérience récente, une filiale de Google avait montré qu’il était possible d’acheter les services de troll russes spécialisés dans la désinformation pour seulement 250 dollars.  Une intelligence artificielle pourrait encore faire baisser la facture.