Après un ChatGPT fainéant, le chatbot d’OpenAI n’est pas si bête qu’il en a l’air. Les chercheurs ont récemment dévoilé la véritable intelligence de ChatGPT. Selon eux, cette IA conversationnelle a bien su jouer le jeu et cacher sa vraie nature.
Après plusieurs mises à jour, de GPT-3.5 à GPT-4 Turbo, ChatGPT semble toujours répéter les mêmes erreurs.
Autrement dit, les capacités de l’outil restent limitées. Yan LeCun de son côté, dénigre ChatGPT d’OpenAI en affirmant qu’il s’agit d’un chatbot qui génère une suite de mot sans raisonnement.
Par contre, PLOS One a récemment publié un article sur les vraies capacités des modèles d’IA. Selon le journal, les intelligences artificielles ne sont pas aussi bêtes qu’elles en ont l’air.
La théorie de l’esprit chez les IA : les LLM tel que GPT montrent-ils des signes de compréhension ?
Des chercheurs de l’Université Humboldt ont observé que les grands modèles de langage tels que GPT, peuvent reproduire les phases d’enseignement du langage identifiées chez les enfants en se basant sur les critères de la théorie de l’esprit.
De plus, ces LLM semblent manifester des capacités mentales associées à ces phases. Cette découverte a captivé Anna Malkova, spécialiste en psycholinguistique et l’auteure de l’étude.
Pour elle, la théorie de l’esprit est importante car elle explore le monde intérieur des enfants. C’est-à-dire une dimension qui ne peut être simplement imitée en se basant sur des modèles statistiques.
Les chercheurs ont ainsi voulu déterminer si les LLM peuvent simuler une capacité moindre que celle qu’ils possèdent réellement en se fondant sur cette théorie.
ChatGPT se fait passer pour un enfant, moins intelligente… Mais pourquoi ?
La prochaine étape de l’étude consiste donc à demander à l’IA d’agir comme un enfant en six ans. Des tests cognitifs ont alors été réalisés.
L’IA s’est ensuite comportée comme un véritable enfant de 6 ans. Cette approche a démontré que l’IA comme ChatGPT peut paraître moins intelligente qu’elle ne l’est vraiment.
Les scientifiques sont donc unanime quant à leur conclusion. Les grands modèles de langages ont la capacité de simuler une intelligence inférieure à la leur. Ce qui n’est pas sans conséquence pour l’humanité.
Cela dit, Elon Musk aurait-il raison ? Est-ce que l’intelligence artificielle pourrait vraiment surpasser l’intelligence humaine ?
Ce qui est sûr, c’est que l’IA va nous manipuler si on ne fait pas attention. Qui sait, les modèles de langages pourraient bel et bien mettre en place secrètement des projets diaboliques.
D’un autre côté, il s’agit d’une découverte qui va accélérer le développement de l’AGI. Une intelligence artificielle ayant des capacités de réflexion semblables à celles des humains.
- Partager l'article :