Et si la clé pour obtenir de meilleures réponses de ChatGPT n’était pas la gentillesse, mais l’insolence ? Une étude de Penn State révèle que les questions les plus brusques obtiennent des réponses plus précises que les formulations polies.
« Pauvre créature, sais-tu seulement comment résoudre ce problème ? » La phrase pourrait passer pour une provocation, mais selon des chercheurs américains, elle serait paradoxalement plus efficace qu’un poli « Peux-tu m’aider s’il te plaît ? ».
La politesse brouille les circuits de ChatGPT
Une étude récente remet en question l’idée qu’être poli aide une IA, mais au contraire, la politesse pourrait nuire à ses performances.
Selon le papier Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy, les requêtes extrêmement polies généreraient une précision moyenne de 80,8 %, alors que des formulations plus « grossières » atteindraient 84,8 % dans des tests à choix multiples.
Dans le protocole, les chercheurs ont classé les tons en cinq catégories : Très poli, Poli, Neutre, Grossier, Très grossier. Leurs résultats montrent que les prompts les plus impolis « surpassent systématiquement » les versions polies.
Cette découverte perturbe l’idée intuitive selon laquelle l’IA « répond mieux aux bonnes manières ». Ici, la politesse semble ajouter une couche superflue qui brouille la précision du modèle.
L’expérience menée à Penn State : protocole et résultats
Pour tester l’impact du ton, l’équipe de Penn State a conçu un corpus de 50 questions de base couvrant les domaines des mathématiques, des sciences et de l’histoire, puis les a reformulées en 5 tons différents.
ChatGPT aurait-il besoin d’un petit coup de gueule pour mieux réfléchir ? Les études ont montré que les requêtes formulées de manière impolie obtiennent jusqu’à 4 % de réponses plus précises que les formulations polies. Un résultat surprenant, obtenu à partir de 250 variantes de questions à choix multiples testées sur le modèle GPT-4o d’OpenAI.
Chaque version a été soumise au modèle GPT-4o de ChatGPT. Les réponses ont été évaluées selon leur exactitude dans un format QCM. Les écarts entre les tons très polis et très grossiers montré une progression notable de précision.
Les chercheurs ont mené des tests statistiques pour vérifier que ces différences étaient significatives, pas simplement le fruit du hasard.
Notons que cette expérience porte sur une tâche assez ciblée (QCM) : il n’est pas certain que les résultats se généralisent à tous les contextes de conversation ou de génération de texte libre.
Les précédentes études disaient l’inverse
Avant Mind Your Tone, des recherches avaient alerté sur les risques de formulations impolies. Selon ces études plus anciennes, la grossièreté aurait tendance à dégrader la qualité des réponses, à introduire des biais ou des omissions d’informations utiles.
Certaines analyses pouvaient montrer que le ton agressif pousse l’IA à « répondre sur la défensive » ou à lacunes dans la contextualisation. Le contraste est net avec les conclusions de l’étude de Penn State.
Mais les auteurs de Mind Your Tone soulignent que les modèles testés auparavant étaient de versions antérieures ou différents. Les plus récents LLM pourraient réagir différemment aux nuances du ton.
Ainsi, dans le débat, l’évolution rapide des architectures d’IA rend ces résultats mouvants. Ce qui était vrai hier pour un modèle ne l’est peut-être plus pour son successeur.
ChatGPT face aux émotions humaines : la frontière du faux ressenti
ChatGPT n’a pas de sentiments, mais il manipule le langage émotionnel tel que appris dans ses données. Lorsqu’un utilisateur formule une requête avec merci, s’il te plaît ou idiot, l’IA reconnaît ces marqueurs linguistiques, mais n’éprouve rien.
Le modèle peut adopter une posture empathique ou serviable en imitant les usages humains, mais cette empathie reste une illusion de surface : une stratégie linguistique, non une conscience.
En réalité, ce que le ton induit dans les LLM, c’est une modulation des priorités dans la génération du texte. L’IA peut réagir au style pour optimiser la réponse, plutôt que de ressentir l’attitude de l’utilisateur.
L’étude de Penn State suggère qu’un ton rude force l’IA à se focaliser davantage sur la tâche qu’elle interprète comme une requête pressante plutôt que sur les conventions sociales.
À terme, cette frontière entre langage et émotion soulève des questions : jusqu’où nos interactions humaines avec les IA sont-elles de simples simulations ? Les LLM peuvent-ils un jour apprendre à ignorer le ton pour rester purement rationnels ?
- Partager l'article :
