Si Apple a caché un mini chatGPT sans ses iPhone, Samsung a aussi dévoilé une mini IA est plus performant que les LLM dans un raisonnement. Ils ont utilisé un TRM ou un Tiny Recursive Model. Alexia Jolicoeur-Martineau indique d’ailleurs que ce minimodèle de Samsung surpasse les modèles de langage volumineux.
Et sur les benchmarks, ce modèle écrase les LLM de raisonnement de grande taille, même avec ces quelque 7 millions de paramètres.
Oui, cela représente seulement 0,1 % de la taille des LLM que nous connaissons. Notamment GPT-5 d’OpenAI, Gemini 2.5 ou Claude 4.5 Sonnet.
Mais l’idée de Samsung contredit le fait que la taille est le seul facteur d’évaluation des performances d’un LLM.
Les grands modèles sont plus fragiles
Les grands modèles de langage (LLM) comme GPT ou Gemini sont connus pour leur puissance, mais aussi pour leur fragilité logique.
En générant leurs réponses jeton par jeton, ils sont susceptibles de commettre une erreur dès le départ. Cette dernière peut ensuite compromettre toute la suite du raisonnement.
Des méthodes comme la chaîne de pensée (Chain of Thought) ont tenté d’y remédier, mais elles restent coûteuses en calcul et peu fiables.
C’est face à ce constat que Samsung Research a décidé de repenser le concept même du raisonnement en IA.
Ils ont alors développé un modèle minimaliste, TRM, capable de raisonner, de s’autocorriger et d’améliorer sa réponse de manière itérative.
My brain broke when I read this paper.
— Jackson Atkins (@JacksonAtkinsX) October 7, 2025
A tiny 7 Million parameter model just beat DeepSeek-R1, Gemini 2.5 pro, and o3-mini at reasoning on both ARG-AGI 1 and ARC-AGI 2.
It's called Tiny Recursive Model (TRM) from Samsung.
How can a model 10,000x smaller be smarter?
Here's how… pic.twitter.com/MD2ZWYI1AQ
Comment fonctionne le nouveau mini-modèle d’IA de Samsung ?
Inspiré du précédent Modèle de Raisonnement Hiérarchique (HRM), le TRM s’appuie sur une idée simple.
Plutôt que de multiplier les réseaux neuronaux, il n’utilise qu’un seul petit réseau qui affine son raisonnement et sa réponse à chaque itération.
Concrètement, le modèle reçoit une question et une hypothèse initiale de réponse, passe par plusieurs étapes d’ajustement récursif pour améliorer son raisonnement interne et met à jour sa réponse finale jusqu’à 16 fois si nécessaire.
Grâce à cette approche, TRM peut corriger ses propres erreurs, tout en évitant les calculs complexes ou les théorèmes de convergence nécessaires au HRM.
Je tiens également à rappeler qu’une version à seulement deux couches obtient de meilleurs résultats qu’un modèle à quatre couches, car elle limite le sur-apprentissage.
Quelle est la clé du succès de TRM ?
Le secret réside dans un apprentissage plus intelligent. Samsung a introduit un mécanisme appelé ACT (Adaptive Computation Time), qui décide automatiquement quand le modèle a suffisamment amélioré une réponse avant de passer à la suivante.
Ce qui conduit à un entraînement plus rapide, donc moins coûteux et surtout sans perte de performance.
Cette simplification prouve qu’il n’est pas nécessaire de disposer d’énormes infrastructures pour atteindre un haut niveau de raisonnement.
Avec seulement 7 millions de paramètres, TRM offre une efficacité paramétrique exceptionnelle et pourrait bien inspirer une nouvelle génération de mini-modèles d’IA.
Le Tiny Recursive Model sur les benchmarks
Sur les Benchmarks, les chiffres parlent d’eux-mêmes. Et les performances affichées par le Tiny Recursive Model de Samsung dépassent largement les attentes :
- Sudoku-Extrême : 87,4 % de précision (contre 55 % pour HRM) ;
- Maze-Hard (labyrinthes 30×30) : 85,3 % (contre 74,5 %) ;
- ARC-AGI, un test d’intelligence abstraite : 44,6 % sur ARC-AGI-1 et 7,8 % sur ARC-AGI-2.
À titre de comparaison, Gemini 2.5 Pro de Google obtient 4,9 % sur le même test. Autrement dit, Samsung parvient à battre les géants du secteur avec un modèle bien plus léger et économe.
- Partager l'article :

