Menu
Libération
Billet

Intelligence artificielle, bêtise humaine

L'épisode du compte Twitter de Tay de Microsoft, qui a dégénéré en 24 heures, reflète avant tout ce que deviennent les réseaux sociaux lorsqu’ils servent de déversoir à la haine.
par Erwan Cario, Chef adjoint du service Futurs @erwancario
publié le 25 mars 2016 à 19h01

La puissance actuelle des intelligences artificielles vient du fait qu'elles savent maintenant apprendre. Apprendre des humains qui les conçoivent, bien sûr, mais aussi apprendre par elles-mêmes et évoluer ainsi au-delà de ce qu'avaient prévu les programmeurs. Quand cette évolution est encadrée, focalisée sur un but précis, elle peut aboutir à des résultats extraordinaires. On l'a vu récemment avec Alphago, conçue par Google Deepmind. Alimentée par 30 millions de coups de maîtres de go et enchaînant les parties contre elle-même, cette intelligence artificielle (IA) a réussi à se défaire d'un des plus grands joueurs au monde, Lee Sedol. Mais que se passe-t-il lorsqu'on décide de laisser une IA évoluer sans garde-fou avec comme unique objectif de bavarder avec des milliers d'internautes ?

C'était l'ambition (plutôt amusante) des équipes de Microsoft lorsqu'elles ont lancé mercredi le compte Twitter de Tay, une IA maison. «Tay est conçue pour interagir et divertir les gens à travers des conversations légères et enjouées, explique le site web de l'expérience. Plus vous parlez avec Tay, plus elle devient intelligente, et l'expérience devient alors plus personnalisée.» A en croire cette description, on n'est plus très loin de Samantha, la séduisante IA du film de Spike Jonze, Her. Spécifiquement conçue pour adopter le langage des post-ados anglo-saxons (18-24 ans), il était possible de discuter librement avec Tay sur Twitter, mais aussi sur les réseaux Kik et Groupme.

Résultat, en moins de vingt-quatre heures, elle est passée d'une série de messages parfois un peu nébuleux mais plutôt rigolos à des réponses franchement dérangeantes, qui mélangeaient références à Hitler, théories complotistes, sexisme et appels à la violence. De quoi inspirer à un internaute cette remarque devenue populaire: «Tay est passée de "les humains sont super cool" à complètement nazie en moins de vingt-quatre heures et je ne suis pas du tout inquiet concernant l'avenir des IA.»

Dès qu’on parle intelligence artificielle surgit le mythe de la machine pensante (qui accessoirement va asservir l’humanité). Mais il ne faut pas oublier que ce sont avant tout des programmes, qui suivent des instructions. Et la plus importante d’entre elles, c’est l’objectif à atteindre. Devenir meilleur au go en est un. Tenir la conversation à une bande de demeurés est beaucoup moins valide. L’apprentissage par mimétisme de Tay a débouché sur un miroir qui reflète avant tout ce que deviennent les réseaux sociaux lorsqu’ils servent de déversoir à la haine d’hydrocéphales superactifs. L’apparent fiasco de Microsoft prêterait beaucoup plus à rire si on ne croisait très régulièrement ces mêmes mots écrits par des êtres prétendument doués de conscience. L’avantage de Tay, c’est qu’elle, au moins, on peut la débrancher.

Pour aller plus loin :

Dans la même rubrique