in

Context engineering : 5 méthodes pour rendre vos IA plus intelligentes

context engineering concept

Après le prompt engineering, place désormais au context engineering. Si le prompt a longtemps été perçu comme le principal levier pour orienter un modèle d’intelligence artificielle, une nouvelle approche émerge : travailler le contexte. Et selon les chercheurs du Generative Artificial Intelligence Research Lab de l’Université de Shanghai Jiao Tong, c’est ce contexte qui permettrait aux modèles de répondre de manière plus précise, plus stable et surtout plus prédictible.

Voici les cinq techniques clés issues de leurs travaux pour tirer le meilleur parti de vos prompts.

YouTube video

Comment structurer efficacement le contexte d’un LLM ?

Premier réflexe : baliser le contexte. Les chercheurs recommandent d’utiliser des tags explicites pour aider le modèle à hiérarchiser l’information.

Ici, vous pouvez utiliser les balises comme [GOAL], [DATA], [CONSTRAINTS], [OUTPUT FORMAT], etc.

Cette méthode, souvent inspirée du format XML ou YAML, permet de réduire la charge cognitive du modèle et d’améliorer la cohérence de ses réponses.

Elle est utilisée par des agents comme CodeRabbit, qui encadrent chaque étape de la tâche à accomplir à l’aide de balises précises.

Le second réflexe à adopter : stabilisez vos prompts système. Même un simple ajout d’horodatage ou d’espace superflu peut altérer le comportement du modèle ou invalider son cache.

Mais pourquoi faire résumer le contexte par le modèle ?

Demander régulièrement à l’IA de résumer ce qu’elle a compris est une technique encore sous-exploitée.

Elle permet de condenser le contexte global tout en conservant les informations essentielles.

Des outils comme Claude Code ou Gemini CLI l’appliquent déjà. C’est-à-dire que le premier résume son environnement de travail et les étapes accomplies, tandis que le second garde des traces hiérarchisées des sessions précédentes.

Et le résultat est plutôt satisfaisant. Soit une continuité fluide et un raisonnement plus fiable d’une session à l’autre.

Alors, faut-il garder les erreurs dans le contexte ?

Oui, et c’est contre-intuitif. Les chercheurs conseillent de conserver les erreurs et leurs corrections dans le contexte. Cela permet au modèle d’apprendre de ses fautes et d’éviter de les reproduire.

Des systèmes comme Manus ou CodeRabbit conservent un historique des erreurs assorti d’explications.

Cette « mémoire des fautes » renforce en effet la cohérence du modèle et améliore sa capacité à s’auto-corriger sur le long terme.

YouTube video

Dois-je utiliser plus d’outils pour gagner en précision ?

Dans une configuration agentique, trop d’outils nuisent à la performance. Au-delà de 30 outils activés, les chercheurs observent une baisse de précision, et un effondrement quasi systématique au-delà de 100.

La clé ? En activer peu, mais les décrire précisément dans le contexte. Notamment le rôle, les conditions d’utilisation, les exemples d’entrée et de sortie.

Cette documentation détaillée réduit l’ambiguïté et améliore la prise de décision du modèle.

Mes astuces pour diversifier vos exemples de few-shot prompting

Sachez que la précision des LLM dépend aussi de la variété des exemples qu’on leur fournit. Si les exemples sont trop similaires, le modèle finit par les copier au lieu de généraliser.

Pour l’éviter, il faut varier les formulations, les ordres, les styles ou encore la longueur des entrées.

En gros, c’est cette diversité pousse l’IA à comprendre le sens plutôt qu’à imiter la forme qui est une condition essentielle pour obtenir des réponses justes et nuancées.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !