Un animateur radio porte plainte contre OpenAI en raison d’une allégation qu’a générée ChatGPT, suite à une demande d’un journaliste.
Selon la victime, Mark Walters, ChatGPT aurait généré de fausses allégations contre lui. Et selon les déclarations de Walters, l’accusation porte sur le détournement de fonds. Jusqu’ici, aucune information sur sa demande de dommages-intérêts n’a été fournie.
Une réponse convaincante mais erronée
L’affaire Mark Walters tient ses origines de la demande d’un journaliste sur ChatGPT, appelé Fred Riehl, de résumer un cas réel devant le tribunal. L’outil a donc fourni et généré un faux résumé dont les détails semblent être convaincants, mais erronés. Et si certaines informations étaient factuelles, ChaTGPT a également fourni des allégations contre un animateur radio dénommé Mark Walters. Comme quoi, l’animateur aurait détourné plus de 5 000 000 de dollars d’une organisation à but non lucratif.
De son côté, Riehl affirme ne pas avoir publié le contenu que ChatGPT a généré suite à sa demande. Selon ses dires, il a tout simplement effectué une vérification sur les détails avec une autre partie. La question qui se pose est alors de savoir comment Walters a pu prendre connaissance de l’existence du document.
Un animateur radio porte plainte contre ChatGPT, qu’il accuse de mentir 👇https://t.co/xbgpnXaKyS
— Numerama (@Numerama) June 13, 2023
Accusation contre ChatGPT : premier procès et non la première plainte
ChatGPT, et tous les autres chatbots IA génèrent souvent de fausses informations. Et l’affaire mark Walters n’est pas le premier cas de poursuite contre l’IA si l’on prend on compte les nombreuses plaintes généralisées précédentes. Les erreurs et les réponses non factuelles existaient déjà après la sortie de son chatbot.
Mais OpenAI décline toute responsabilité sur les éventuelles fausses informations générées par ChatGPT. Tout utilisateur devrait trouver une clause de non-responsabilité sur la page d’accueil de l’outil. Sam Altman, PDG d’OpenAI ajoute même qu’il s’agit d’une IA fiable et qu’il préfère de loin l’IA que les livres.
Jusqu’ici, on ne peut pas encore affirmer l’existence d’un précédent juridique en ce qui concerne la responsabilité d’une entreprise pour les systèmes alimentés par l’intelligence artificielle.
- Partager l'article :