Version of Michelangelo's painting "The Creation of Adam" depicting the development of artificial intelligence and machine learning. AI chat concept. © Getty

« ChatGPT ne comprend absolument rien au monde ni à ce qu’il écrit »  

Spécialiste en éthique numérique et chercheuse à l’université de Namur, Antoinette Rouvroy décrypte les enjeux, éthiques et professionnels, que posent les dernières évolutions de l’intelligence artificielle. Elle appelle à accentuer la vigilance dans son usage. Entretien.

Dans quelle mesure l’intelligence artificielle, en particulier les dernières évolutions que préfigurent ChatGPT, impactera les métiers dits intellectuels (avocat, traducteur, doubleur de film, journaliste, etc.) ?

Il faut inverser le sens de la question. L’intelligence artificielle n’est qu’un outil. Il s’agit d’adapter l’outil aux pratiques professionnelles qui l’adoptent, et non d’adapter les pratiques professionnelles à l’outil. Avant de pouvoir déterminer l’usage que chaque métier, que chaque pratique, pourrait avoir de cet outil, il convient de comprendre en quoi consiste celui-ci consiste.

Ces IAs conversationnelles sont des algorithmes pré-entrainés sur des vastes ensembles de textes pour apprendre comment prédire statistiquement le mot suivant dans une phrase. Ils ne comprennent absolument rien au monde ni à ce qu’ils écrivent – les notions de vérité ou d’erreur factuelles n’ont strictement aucune pertinence dans cette logique algorithmique. Bien sûr, cela promet de pouvoir faire générer automatiquement du texte en quelques secondes à propos n’importe quel sujet, à coût marginal nul, mais absolument rien ne garantit la fiabilité des « contenus » ainsi générés.

Quelles conséquences peuvent avoir ces algorithmes ?

L’un des risques majeur est la contamination d’Internet par ces énoncés générés par ces grands modèles de langage, dont certains sont tout à fait précis et exacts, d’autres seulement partiellement vrais ou totalement erronés, sans qu’il soit possible de distinguer les uns des autres, alors qu’ils en viennent aussi à servir à leur tour de base d’entraînement pour d’autres intelligences artificielles.  Or, la capacité à se rapporter à un monde « commun », c’est-à-dire à une appréhension commune de ce qu’est le monde réel, est une pré-condition à toute possibilité, pour les êtres humains, de communiquer efficacement entre eux.

Une étude de l’université de Yale et d’Oxford prédit que tous les métiers, y compris intellectuels, seraient automatisables d’ici 100 ans. Crédible ?

Il n’y a là aucune fatalité. Ce genre d’anticipation distrait, par contre, de problèmes que posent le développement et le déploiement d’IAs dont la phase de « test » risque bien de durer pendant toute leur durée de vie. Les IAs de type ChatGPT ont été déployés sans avoir passé aucun des tests (robustesse, fiabilité, innocuité…) s’imposant normalement aux produits industriels avant toute mise sur le marché. Cet «exceptionnalisme numérique » ne se justifie que par une idéologie de l’innovation déconnectée de toute idée de progrès social, et qui tend à faire négliger tout principe de responsabilité, de précaution, de « soutenabilité ». Cela atteste, surtout, l’irresponsabilité des entreprises conceptrices de ces systèmes, du très faible niveau de réticence du public à l’égard de tout type d’innovation technologique malgré les risques (désinformation, cybersécurité, atteintes à la protection de la vie privée, propriété intellectuelle, automatisation du plagiat…)

Dans le monde de la justice, qu’on estime souvent l’un des plus exposés (en Estonie, par exemple, on a mis en place un juge robot pour les litiges mineurs). Imaginez-vous une place prééminente de l’intelligence artificielle dans ce milieu ?

Les juristes ont toutes les raisons du monde de se défier de systèmes qui sont certes capables de synthétiser une très vaste diversité de signaux numériques, mais incapables de conférer un sens quelconque au résultat de cette synthèse. Si la recherche par mots clés dans les bases de données de la législation et de la jurisprudence est essentiel au travail du juriste, elle ne suffit jamais à produire une plaidoirie ni une décision de justice, tout simplement parce que ni l’interprétation, ni le jugement ne sont réductibles au résultat d’un calcul fondé sur la détection quantitative, statistique, d’occurrences de mots à la suite les uns des autres. D’autant qu’étant pré-entraînés sur des vastes ensembles de données reflétant passivement les rapports de force et de domination endémiques dans la société, les algorithmes ont eux aussi tendance à reproduire plutôt qu’à amender l’état de fait. Seule l’interprétation courageuse des juges peut à cet égard faire évoluer la normativité vers un idéal de justice irréductible à l’optimisation d’un état de fait.

Voyez-vous des impacts positifs de l’IA ?

Avec cette « seconde vague » d’IA transformatrice – comme les Generative Pre-trained Transformers (GPTs) -, les algorithmes ne se contentent plus d’ordonnancer un monde préexistant, ils génèrent ou créent de nouveaux « objets » (textes, images, sons, vidéos) au départ de très grands ensembles de données. N’importe qui peut à présent faire produire des « œuvres » par l’IA et ce n’est pas un mal en soi, mais face à cette prolifération, tous les métiers qui requièrent l’interprétation et l’évaluation gagnent encore un peu plus en importance.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire