Les chercheurs de l’Université de Glasgow affirment que ChatGPT, une IA tellement connue, produit souvent des « conneries » plutôt que des hallucinations. Cette assertion, expliquée dans un nouvel article publié dans la revue Ethics and Information Technology, propose un regard critique sur la terminologie utilisée pour décrire les erreurs des chatbots.
La métaphore de l’hallucination
Le terme « hallucination » est couramment utilisé pour décrire la tendance des chatbots à générer des informations incorrectes ou absurdes. Cependant, selon les chercheurs, cette métaphore est inappropriée. En psychologie, une hallucination implique de percevoir quelque chose qui n’existe pas. Mais les modèles de langage comme ChatGPT ne perçoivent rien. Ils génèrent simplement du texte basé sur des probabilités.
Des conneries, pas des hallucinations
Les chercheurs Michael Townsen Hicks, James Humphries et Joe Slater soutiennent que le terme « conneries » décrit mieux les erreurs de ChatGPT. Inspirés par l’œuvre du philosophe Harry Frankfurt, « On Bullshit », ils définissent les conneries comme des déclarations faites sans considération pour la vérité. Les chatbots, selon eux, produisent du texte sans se soucier de sa véracité.
Selon Frankfurt, il existe deux types de conneries : les conneries dures et les conneries douces. Les premières sont intentionnellement trompeuses, tandis que les secondes sont faites sans intention de tromper.
ChatGPT, disent les chercheurs, est une « machine à conneries ». Il n’a pas de croyances ou de perceptions et ne peut donc pas tromper délibérément. Son seul but est de produire un texte qui ressemble à celui d’un humain.
Les dangers des conneries de l’IA
Les chercheurs mettent en garde contre les dangers potentiels de cette caractéristique des chatbots. Par exemple, un avocat a récemment utilisé ChatGPT pour rédiger un mémoire juridique, mais a présenté des précédents juridiques fictifs devant un juge. Ce type d’erreur pourrait devenir de plus en plus fréquent et dangereux à mesure que les gens s’appuient sur les chatbots pour des tâches sérieuses.
Les implications pour les décideurs
Les chercheurs soulignent que les investisseurs, les décideurs politiques et le grand public doivent comprendre les véritables capacités et limitations des chatbots. Utiliser le terme « hallucination » peut prêter à confusion. Cela laisse croire que les machines perçoivent et interprètent des informations de manière erronée. Par contre, elles produisent simplement du texte sans se soucier de sa véracité.
Repenser la terminologie
Qualifier les erreurs des chatbots d’hallucinations est trompeur. Cela suggère que les machines perçoivent mal la réalité, alors qu’elles ne perçoivent rien du tout. Les chercheurs de Glasgow plaident pour une terminologie plus précise, comme « conneries », pour mieux refléter la nature des erreurs produites par l’IA.
En fin de compte, les chercheurs appellent à une réflexion plus approfondie sur la manière dont nous décrivons et comprenons les erreurs des chatbots. Utiliser des termes plus précis peut aider à mieux communiquer les capacités et les limites de ces technologies émergentes. Cela pourrait également contribuer à une utilisation plus sûre et plus informée des outils d’intelligence artificielle dans divers domaines.
- Partager l'article :