C’est le défaut le plus célèbre et le plus frustrant de ChatGPT : sa fâcheuse tendance à « délirer », inventer des faits, citer des sources qui n’existent pas ou se tromper. Mais un spécialiste vient de doucher nos espoirs. Selon lui, il ne faut pas s’attendre à un ChatGPT parfait de sitôt.
Le « délire » n’est pas un bug, c’est une fonctionnalité
Pour comprendre, il faut revenir à sa nature profonde. ChatGPT n’est pas une base de données qui « sait » des choses. C’est un « Grand Modèle de Langage » (LLM). Sa seule compétence, c’est de prédire le mot suivant le plus probable dans une phrase en se basant sur les milliards de textes qu’il a lus. Son « délire » n’est donc pas un bug. C’est la conséquence logique de son fonctionnement. Il génère ce qui lui semble le plus plausible, même si c’est totalement faux.
Le dilemme : être utile ou être prudent
Pour limiter cela, les ingénieurs utilisent un processus d' »alignement ». Ils l’entraînent à être plus prudent, à vérifier ses sources. Et à admettre quand il ne sait pas. Mais c’est là que le dilemme apparaît. Si on le rend trop prudent, il devient inutile. À la moindre question, il répondra « Je ne suis pas sûr ». Si on le laisse trop « créatif », il est plus impressionnant, mais on augmente le risque de délires.
Le travail d’OpenAI, c’est donc un arbitrage constant entre ces deux extrêmes. L’objectif n’est pas d’atteindre le « zéro délire ». C’est probablement impossible sans le brider totalement. Mais de trouver le bon équilibre. Les modèles actuels privilégient la performance et l’utilité. Quitte à accepter un certain taux d’erreur. L’amélioration viendra, mais elle sera lente.
Le rôle de l’utilisateur : la vérification humaine

Cela a une conséquence directe pour nous. On doit changer notre posture. On ne peut pas le voir comme une source d’info fiable, mais comme un assistant de recherche. Ou un partenaire de brainstorming. La vérification humaine reste donc une étape indispensable. Pour toute information factuelle, le réflexe doit être de croiser les sources et de ne jamais faire une confiance aveugle.
L’avenir : des IA spécialisées plutôt qu’un « couteau suisse »
La solution à long terme, ce sera peut-être la spécialisation. Au lieu d’un seul modèle géant qui essaie de tout savoir, on verra des IA plus petites et spécialisées sur des domaines très précis. Le droit, la médecine, la finance…
En étant entraînées sur des données de meilleure qualité, ces IA seraient bien plus fiables dans leur domaine d’expertise. Mais en attendant, il faudra s’y faire. Notre partenaire de conversation préféré continuera, de temps en temps, de nous raconter des salades.
- Partager l'article :

