Un avocat américain a utilisé ChatGPT pour préparer un procès... et n'a cité que des faux arrêts

Publicité

Un avocat américain a utilisé ChatGPT pour préparer un procès... et n'a cité que des faux arrêts

Par
La cour de justice de New-York, aux États-Unis
La cour de justice de New-York, aux États-Unis
© AFP - Bryan R. Smith

Dans un procès contre une compagnie aérienne, un avocat new-yorkais a été confondu par le juge en charge du dossier, pour avoir cité dans son mémoire juridique des cas qui n'existaient pas. L'avocat a reconnu avoir utilisé ChatGPT... et lui avoir demandé si ses informations étaient vraies.

L'avocat Steven Schwartz travaillait sur un procès contre une compagnie aérienne, Avianca, la plus grande compagnie colombienne. Mais selon le juge en charge du dossier, le mémoire juridique qu'il a fourni pour appuyer ses arguments est truffé d'erreurs. "Six des cas mentionnés se révèlent être des décisions judiciaires imaginaires, étoffées de citations et de références imaginaires", a déclaré le juge américain Kevin Castel.

Six cas cités, et six erreurs

Comment l'avocat new-yorkais, qui travaille pour un grand cabinet, en est-il arrivé là ? Dans une déclaration sous serment, Steven Schwartz a reconnu avoir utilisé le robot conversationnel ChatGPT pour l'aider à faire son dossier... mais sans vérifier en profondeur les éléments délivrés par l'algorithme. Pour seule vérification, il a tapé dans le champ de recherche de ChatGPT : "Est-ce que c'est une véritable affaire ?"

Publicité

"Oui", a répondu ChatGPT. Au moment de demander les sources, le logiciel a reconnu une confusion, mais a insisté sur la véracité des cas cités. Or, par exemple, une affaire dénommée "Varghese vs. China Southern Airlines Co. Ltd." n'a jamais existé – son contenu semble référer à une autre affaire, réelle, cette fois-ci, nommée "Zicherman vs. Korean Air Lines Co. Ltd.", mais qui date de 12 ans plus tard que le premier cas cité (et, donc, inventé par ChatGPT), selon le média spécialisé américain The Verge.

L'avocat "pas au courant" que ChatGPT pouvait se tromper

L'avocat a affirmé avoir "regretté d'avoir utilisé une intelligence artificielle générative pour remplacer la recherche légale", et reconnaît qu'il "n'était pas au courant de la possibilité que le contenu de ChatGPT soit erroné". Il s'est engagé à ne plus recourir à cet outil.

Mais ce n'est pas lui qui va devoir justifier de ses actes devant la justice : l'affaire a été transférée au district judiciaire du sud de New-York, où Steven Schwartz n'a pas le droit de pratiquer. C'est donc un autre avocat du même cabinet qui a récupéré le dossier, et qui devra expliquer au juge ce qu'il s'est passé. L'affaire a mis une nouvelle fois l'accent sur la nécessité de vérifier précautionneusement tout ce qui ressort de cet algorithme de génération de texte.

pixel