Rechercher

OpenAI poursuivie pour diffamation après que ChatGPT a généré une fausse plainte accusant un homme de détournement de fonds

OpenAI
Logo OpenAI. Getty Images

Un Géorgien a intenté un procès au créateur de ChatGPT, OpenAI, alléguant que le populaire chatbot avait généré un faux résumé juridique l’accusant de fraude et de détournement de fonds par le biais d’un phénomène que les experts en IA qualifient d’« hallucination artificielle ». Il s’agit du premier procès en diffamation intenté contre le créateur d’un outil d’IA génératif.

 

Faits marquants

  • Selon Bloomberg Law, l’affaire a été portée devant un tribunal de l’État de Géorgie par l’animateur radio Mark Walters, qui affirme que ChatGPT a fourni les détails d’une fausse plainte à un journaliste qui avait cherché à obtenir des informations sur un véritable procès en cours.
  • Le vrai procès a été intenté par la Second Amendment Foundation contre le procureur général de l’État de Washington, Bob Ferguson, une affaire dans laquelle M. Walters n’est pas impliqué.
  • L’animateur radio affirme que le chatbot a répondu à sa demande concernant cette affaire judiciaire réelle par le résumé d’une affaire totalement fictive dans laquelle le fondateur de la Second Amendment Foundation poursuivait M. Walters pour « escroquerie et détournement de fonds » au détriment de l’organisation.
  • Mark Walters, qui est l’animateur d’Armed America Radio, n’est pas impliqué dans le procès de Washington et n’a jamais travaillé pour la Second Amendment Foundation, ajoute le rapport.
  • Forbes a contacté OpenAI pour obtenir des commentaires sur le procès.

 

Trame

Le faux résumé juridique est probablement le résultat d’un problème relativement fréquent avec l’IA générative, connu sous le nom d’« hallucination artificielle ». Ce phénomène se produit lorsqu’un modèle de langage génère des informations complètement fausses sans aucun avertissement, parfois au milieu d’un texte par ailleurs exact. Le contenu halluciné peut sembler convaincant, car il peut ressembler superficiellement à des informations réelles et peut également inclure de fausses citations et des sources inventées. Sur sa page d’accueil, ChatGPT indique qu’il peut « occasionnellement générer des informations incorrectes » ou « produire des instructions nuisibles ou un contenu biaisé ». Lorsqu’on lui demande ce qu’est l’hallucination de l’IA, ChatGPT répond par une longue description du problème, qui se termine par : « Il est important de noter que les hallucinations de l’IA ne sont pas des perceptions réelles vécues par le système d’IA lui-même… Ces hallucinations font référence au contenu généré par le système d’IA qui peut ressembler à des perceptions humaines, mais qui est entièrement généré par les processus informatiques de l’IA ».

 

Contexte clé

OpenAI et ses concurrents, comme Google, ont tous deux reconnu qu’ils étaient préoccupés par les hallucinations artificielles, une question qui, selon certains experts, pourrait aggraver le problème de la désinformation en ligne. Lors de l’annonce de son dernier modèle d’apprentissage des langues, GPT-4, en mars de cette année, OpenAI a indiqué qu’il présentait des « limites similaires » à celles des modèles précédents. L’entreprise a lancé un avertissement : « Il n’est toujours pas totalement fiable (il « hallucine » des faits et commet des erreurs de raisonnement). Il convient d’être très prudent lors de l’utilisation des résultats des modèles de langage, en particulier dans les contextes à fort enjeu, en respectant le protocole exact (comme l’examen humain, la mise en place d’un contexte supplémentaire, ou l’évitement total des utilisations à fort enjeu) ». Le mois dernier, OpenAI a déclaré qu’elle travaillait sur une nouvelle méthode de formation à l’IA qui vise à résoudre le problème des hallucinations artificielles.

 

Fait surprenant

Le mois dernier, un avocat de Manhattan a suscité la controverse après avoir utilisé ChatGPT pour générer un dossier juridique dans le cadre d’un procès pour dommages corporels et l’avoir soumis au tribunal. Le document juridique généré par l’IA citait cependant plusieurs cas qui n’étaient pas réels.

 

Article traduit de Forbes US – Auteur : Siladitya Ray

<<< À lire également : Dix innovations permises par GPT-4  >>>

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC