Publicité

Chatbot GPT: une norme prévisible, ce n'est pas le langage

OPINION. L'intelligence n’est pas une compilation du savoir, la créativité n'a rien à voir avec la réponse la plus probable et le langage ne doit pas se réduire à une norme prévisible, argumente Thomas Robert, enseignant et docteur en philosophie

Image d'illustration — © Peter Morgan/Keystone
Image d'illustration — © Peter Morgan/Keystone

Le Temps est souvent revenu sur la révolution que représente ChatGPT, introduit fin novembre 2022. Vous pouvez lire:

Comme si la menace climatique ne suffisait pas, les ingénieurs de la Silicon Valley ont jugé opportun de poursuivre des recherches qui, selon leur aveu même, nous menacent dans notre humanité. L’on pourrait disserter longtemps sur l’hubris qui pousse des codeurs avec une vision limitée de ce qu’est l’être humain à tenter de développer une intelligence artificielle s’approchant de nous, ou, pire, nous surpassant. Il est désormais essentiel de déconstruire le récit élaboré par les promoteurs de l’intelligence artificielle et relayé sans beaucoup d’esprit critique et avec une sidération certaine par de nombreux médias et individus plus ou moins experts de domaines potentiellement affectés par l’avancée de l’intelligence artificielle.

Lire aussi: Il faut qu’on parle de ChatGPT

La question de l’intelligence artificielle s’articule essentiellement autour de problèmes linguistiques. En effet, il s’agit, pour la machine, de réussir à faire illusion au moyen de notre canal de communication de prédilection, à savoir le langage articulé. Or, la définition du langage privilégiée par les chercheurs en intelligence artificielle est contestable. Ces derniers ont une approche instrumentale du langage articulé. Il s’agirait d’un code permettant de faire passer le plus directement possible un message. Teintée d’une légitimité scientifique à travers les neurosciences, cette définition est en réalité tout à fait idéologique. Il s’agit de réduire le langage et l’expérience humaine à une norme prévisible. C’est en définitive sur ce modèle que sont construits les traducteurs automatiques et, plus récemment, la nouvelle génération de chatbots.

A l’approche instrumentale, objective et normalisée du langage articulé et, par extension, de l’expérience humaine, l’on peut opposer une définition passionnelle, subjective et créatrice. Plus proche de notre expérience quotidienne du langage, une telle approche fait de ce dernier une expression de soi aux contours multiples et imprévisibles dont le but n’est pas nécessairement une communication directe d’un message clair à des fins utiles. C’est à travers cette approche que le langage devient indissociable de notre personnalité et de nos cultures.

L’enjeu actuel autour de l’intelligence artificielle ne consiste pas à convoquer un débat académique sur ce qu’est le langage en mobilisant Rousseau, Darwin, Saussure ou encore Chomsky. Il s’agit désormais de reprendre le contrôle du récit conté par les enthousiastes de l’intelligence artificielle. En effet, le risque est que ces derniers nous convainquent que l’intelligence n’est rien d’autre qu’une compilation du savoir ou que la créativité se réduise à la réponse la plus probable. En d’autres termes, le danger le plus pressant n’est pas les avancées de l’intelligence artificielle, mais le discours les accompagnant et tendant à définir de façon rabougrie ce qu’est l’être humain. Trois siècles plus tard, les codeurs de la Silicon Valley tentent une nouvelle fois la théorie de l’homme-machine, il est de notre choix d’y succomber ou non.

Lire aussi: L’intelligence artificielle, pour quoi faire?