in

ChatGPT l’accuse de meurtre, une fausse accusation qui aurait pu lui coûter la prison 

Accusation à tort d'un utilisateur de ChatGPT indiquant qu'il a tué ses deux filles

Alors cette histoire, c’est pour vous apprendre qu’il ne faut jamais demander à ChatGPT d’essayer de trouver des informations à votre égard pour vérifier ce que le chatbot afficherait si quelqu’un essayait de chercher votre nom. Il s’agit du parcours d’Arve Hjalmar Holmen, un norvégien victime d’une fausse accusation de ChatGPT. Je vous raconte comment il s’est fait piéger et a failli se trouver en prison à cause d’une simple fausse accusation.

Accusé à tort, Holmen décide d’en parler avec Noyb, le centre européen pour les droits numériques. Celui-ci porte alors plainte contre OpenAI.

La victime, de son côté, exige la suppression de ces fausses allégations à son égard. Des accusations qui stipulent que Holmen est un criminel accusé du meurtre de ses deux enfants.

Mais que s’est-il vraiment passé ? ChatGPT aurait-il encore des hallucinations, alors qu’OpenAI affirme être à quelques pas de l’intelligence artificielle générale ?

YouTube video

Du jamais vu dans l’histoire des chatbots

On a déjà vu un chatGPT qui demandait à son utilisateur de manger des pierres, et d’autres qui suggèrent de mettre de la colle sur une pizza.

Mais cette fois-ci, la situation tourne mal lorsque ChatGPT invente toute une histoire d’horreur vis-à-vis de son utilisateur.

Non seulement le chatbot a avancé des faits inexistants sur Holmen, il a aussi fourni des données personnelles explicitement identifiables.

Comme l’a indiqué le rapport de Noyb, chatGPT aurait donné le nombre et le sexe des enfants de la victime, ainsi que des renseignements sur sa ville natale.

Déjà, à ce stade, ChatGPT n’a pas respecté et a violé les exigences de précision des données de la RGPD.

Le pire, c’est que le norvégien ne peut même pas corriger les informations et sa réputation est en jeu.

Certes, les chatbots nous envoient souvent un message indiquant de toujours vérifier les résultats. Mais à ce stade, on ne parle tout de même pas de petites erreurs.

Pas de fumée sans feu

Comme dit la phrase latine « Ubi fumus, ibi ignis », qui veut dire qu’il n’y a pas de fumée sans de feu, on peut croire qu’il y a une raison pour laquelle ChatGPT a fourni ces fausses accusations contre le norvégien.

Pour Holmen, le vrai problème, c’est que quelqu’un puisse croire à ce que fournirait ChatGPT si la personne cherche son nom sur ChatGPT Search.

En tout cas, ChatGPT semble ne plus produire de fausses accusations sur Holmen après une mise à jour.

Mais le mal est fait et OpenAI ne peut pas supprimer ces informations. L’entreprise dirigée par Sam Altman ne peut que bloquer les informations.

Ce qui veut dire que l’histoire de Holmen, bien qu’inventée par ChatGPT, restera toujours dans les données internes du chatbot.

Les conséquences seront donc à double tranchant si Holmen ne parvient pas à modifier ces informations.

Et justement, on aurait pu limiter les dégâts si les fausses informations n’étaient pas partagées.

Dans les deux cas, la RGPD s’applique aussi bien aux données partagées qu’aux données internes de ChatGPT.

Un norvégien porte plainte suite à une fausse accusation de ChatGPT

Réfléchissez à deux fois avant d’agir parce qu’il est impossible de supprimer les données d’OpenAI

Un chatbot d’une telle puissance, avec lequel vous partagez de fausses informations, peut ruiner votre vie en quelques secondes.

Vous vous rappelez certainement du cas du maire australien qui, lui aussi, était victime des fausses accusations de ChatGPT.

Mais aussi celui de l’animateur radio qui a poursuivi OpenAI en justice parce que ChatGPT avait fait, encre une fois, une fausse accusation contre lui pour détournement de fonds.

Ce que l’on peut tirer de cette histoire, si l’on considère les suppositions de Noyb, c’est qu’OpenAI a seulement installé des filtres pour que ChatGPT ne puisse pas générer des informations nuisibles.

Sauf qu’ils n’ont pas pu, ou n’ont pas voulu supprimer les fausses informations des données de formations de ses modèles.

Pour Kleanthi Sardeli, avocate spécialisée en protection de données chez Noyb, ni un filtre ni un message d’avertissement ne suffit pour prévenir toute atteinte à la réputation.

« Essayez d’ajouter un avertissement indiquant que vous ne respectez pas la loi et dites-moi si celle-ci va disparaître », a-t-elle ajouté.

YouTube video

Les entreprises d’IA ne respectent-elles pas la loi ?

Comme l’a indiqué Sardeli, les entreprises d’IA devraient cesser de faire comme s’il n’y avait pas de loi ou comme si les lois de ne s’appliquait pas à elles.

Pourtant, les géants comme OpenAI savent très bien que c’est leur réputation qui est en jeu. Pour Noyb, c’est la pression qui manque à OpenAI pour enfin redoubler d’efforts et prévenir, enfin, les fausses accusations.

Dans ce contexte justement, Noyb a déposé une plainte contre OpenAI auprès de Datatilsynet, l’autorité norvégienne de protection de données.

La demande exige un retrait immédiat des publications diffamatoires et un affinement de ses modèles pour supprimer les faux résultats

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *