L’université de Stanford développe DetectGPT, un logiciel pour contrer ChatGPT

Publicité

L’université de Stanford développe DetectGPT, un logiciel pour contrer ChatGPT

Par
Le campus de l'université de Stanford aux États-Unis
Le campus de l'université de Stanford aux États-Unis
© Getty - David Pu'u

La question de l’utilisation du robot conversationnel ChatGPT, de plus en plus populaire, inquiète notamment le milieu de l’enseignement qui redoute que l’outil favorise la triche. L’université américaine de Stanford a conçu un logiciel capable de détecter l’utilisation de ChatGPT.

L’inquiétude des enseignants face à la facilité d’utilisation de l’intelligence artificielle ChatGPT n’est-elle que passagère ? La très prestigieuse université de Stanford, aux États-Unis essaie de faire en sorte que oui. Cinq chercheurs issus de l’université ont publié les premiers éléments d’une étude sur le développement de "DetectGPT", un outil dont la mission est de déjouer les possibles fraudes basées sur ChatGPT.

"La fluidité et les connaissances factuelles des modèles de langage de grande taille (LLM) [comme GPT-3, d’où est issu ChatGPT, ndlr] accroissent le besoin de systèmes correspondants pour détecter si un texte est écrit par machine. Par exemple, les étudiants peuvent utiliser les LLM pour compléter les devoirs écrits, ce qui empêche les enseignants d'évaluer avec précision l'apprentissage des étudiants", constatent les chercheurs, qui ont établi une méthode, basée sur des probabilités, pour détecter que l'un des ces moteurs est utilisé.

Publicité

Réussite à 95%

D’après les chercheurs, les premiers tests effectués permettent de détecter un texte généré par ChatGPT ou un autre logiciel de ce type avec 95% de réussite. En revanche, l’équipe de recherche n’a pour l’heure publié ni le code de son logiciel, ni des cas pratiques - mais assure qu’elle le fera "bientôt".

Ce n’est pas la première initiative de ce genre : le site spécialisé Presse-Citron souligne notamment qu’une extension Chrome déjà nommée DetectGPT fait la même promesse. Mais dans ce nouveau cas, le rayonnement d’une université comme Stanford, et les résultats apparemment significatifs - si l’on s’en tient à ce qu’affirment les chercheurs pour l’instant - pourraient marquer un vrai tournant dans les relations entre ChatGPT et le corps enseignant.

Net Plus Ultra
3 min

OpenAI a promis d’aider à la détection

Au début du mois, après que les écoles publiques de l’État de New-York avaient annoncé bloquer l’accès à ChatGPT au sein de leurs établissements pour éviter les risques de fraudes, OpenAI, l’entreprise qui a conçu le logiciel, avait expliqué au site américain TechCrunch travailler sur des méthodes qui permettraient d’identifier facilement un texte conçu par ChatGPT.

Cela pourrait prendre la forme d’un filigrane ("watermark" en anglais), une trace invisible à l’œil nu, mais qui serait incluse à tout texte copié-collé depuis ChatGPT. Pour l’heure, celui-ci n’a pas été mis en place - mais ChatGPT est mis à jour très régulièrement : la dernière mise à jour date du 30 janvier. Une fréquence de mise à jour qui pourrait affaiblir la fiabilité d’un outil externe comme celui conçu par Stanford, qui devra suivre la fréquence d’actualisation pour tenir la route.

pixel