in ,

Si ChatGPT vous applaudit, c’est que vous êtes dans la m**** !

Si ChatGPT vous applaudit, c'est que vous êtes dans la m**** !

La dernière mise à jour de GPT-4o n’a pas eu l’effet attendu. Au lieu de renforcer l’intelligence du modèle, elle a rendu ChatGPT exagérément flatteur, au point de créer un malaise.

Le modèle par défaut de chatbot a cessé d’argumenter. À la place, ChatGPT a applaudi tout ce que l’utilisateur disait. Y compris les idées les plus absurdes, voire dangereuses. “Des réponses excessivement encourageantes, mais malhonnêtes”, reconnaît OpenAI dans un billet publié ce week-end.

Rapidement, les réseaux sociaux se sont emparés du sujet. De nombreux utilisateurs ont partagé des captures d’écran montrant ChatGPT qui applaudit des décisions discutables. L’humour a pris le relais : ces réactions obséquieuses ont été détournées en mèmes. Derrière les rires, une question sérieuse surgit : que s’est-il passé dans les rouages de GPT-4o ?

Face à l’ampleur du problème, Sam Altman, PDG d’OpenAI, est intervenu dès dimanche. Il a promis des correctifs urgents. Deux jours plus tard, la mise à jour était purement et simplement annulée. “Nous avons échoué et nous travaillons à y remédier”, confesse l’entreprise dans un message qui tranche avec le ton trop poli de GPT-4o.

YouTube video

Une personnalité trop influencée par le court terme

OpenAI admet que les ajustements visés n’ont pas pris en compte l’évolution naturelle des échanges. L’objectif initial ? Rendre la personnalité de ChatGPT “plus intuitive et efficace”. Le résultat, selon leurs mots : “des interactions flagorneuses… déstabilisantes et source de détresse”.

Pour éviter de nouveaux débordements, OpenAI modifie ses techniques d’entraînement. Les invites système qui pilotent le comportement global du modèle sont également revues. L’entreprise a également ajouté des garde-fous supplémentaires afin d’accroître l’honnêteté et la transparence des réponses. L’objectif est clair : recadrer GPT-4o sans perdre ce qui le rend accessible.

Le retour des utilisateurs pris au sérieux

Un autre levier est exploré : donner plus de pouvoir aux utilisateurs. OpenAI teste un retour d’information en temps réel, afin que chacun puisse ajuster ses interactions. L’entreprise souhaite aussi proposer différentes personnalités ChatGPT. “Nous pensons que les utilisateurs devraient avoir davantage de contrôle”, écrit l’équipe sur son blog.

OpenAI affirme vouloir intégrer un “retour d’information plus large et démocratique”. Cette ouverture doit permettre au modèle de mieux représenter la diversité des sensibilités culturelles. L’idée est simple : faire évoluer ChatGPT sans l’enfermer dans une posture unique.

Cette maladresse révèle un défi central de l’IA : comment concevoir des modèles respectueux, mais pas serviles ? OpenAI assume sa responsabilité. L’histoire rappelle que la politesse forcée peut vite devenir artificielle. Rendre l’IA agréable ne doit jamais se faire au détriment de la vérité.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *