C’est la revanche éclatante de la French Tech apparemment. Alors que la Silicon Valley pensait avoir enterré la concurrence européenne, Mistral AI revient avec une double claque. Avec Devstral 2, codez sur votre propre PC, sans internet et pour une fraction du prix d’OpenAI. Google et Anthropic peuvent trembler, car la souveraineté numérique a enfin un visage.
On disait souvent que Mistral AI est en perte de vitesse face aux rouleaux compresseurs américains et aux nouveaux géants chinois.
Il n’en est rien pourtant. Début décembre, la pépite française a dévoilé Devstral 2 et sa version de poche Devstral Small 2.
Au-delà des annonces marketing, une question brûlante se pose pour tous les développeurs. Peut-on enfin se passer de GitHub Copilot ou de ChatGPT pour coder localement, gratuitement et sans faire fuiter ses données ?
J’ai alors mis les modèles à l’épreuve, et le résultat est sans appel.
Des performances qui humilient les géants
Sur le benchmark de référence SWE-bench Verified (qui évalue l’autonomie d’une IA pour résoudre des bugs réels), Devstral 2 affiche un score insolent de 72,2 %.
Il surclasse des références open source comme Kimi K2 Thinking et fait jeu égal avec DeepSeek V3.2.
Plus impressionnant encore : il ne concède que 8 petits points de retard sur le leader mondial, Claude Opus 4.5, alors que ce dernier est un modèle propriétaire infiniment plus lourd et coûteux. Avec seulement 123 milliards de paramètres, l’optimisation française fait des miracles.
Mais la véritable révolution est ailleurs. Elle réside dans Devstral Small 2. Ce petit modèle de 24 milliards de paramètres est conçu pour tourner sur un seul GPU.
Son score de 68 % sur le même benchmark est un exploit. Il offre d’ailleurs aux développeurs indépendants une puissance jusqu’ici réservée aux supercalculateurs.
Our next-generation coding model family Devstral 2 is available in two sizes: Devstral 2 (123B) under a modified MIT license, and Devstral Small (24B) under Apache 2.0.
Both SOTA, open-source, free to use, and available now via our API. pic.twitter.com/v4BKLwhCCd— Mistral AI (@MistralAI) December 9, 2025
Devstral 2 : 12 fois moins cher que Claude
C’est ici que Mistral assomme la concurrence. La grille tarifaire de Devstral 2 ressemble à une déclaration de guerre économique.
- Devstral 2 coûte 0,40 $ en entrée et 2 $ en sortie (pour 1M de tokens) ;
- C’est 3 fois moins cher que la star d’OpenAI (GPT-5.1-codex-max ;
- C’est 12,5 fois moins cher que Claude Opus 4.5 !
Pour une entreprise qui consomme du code à la chaîne, l’économie se compte en milliers de dollars mensuels.
Quant à Devstral Small 2, avec son coût dérisoire de 0,10 $ en entrée, il rend l’IA de pointe accessible à n’importe quelle start-up fauchée.
Le test vérité : coder sans internet sur un Mac Mini
La promesse est belle sur le papier, mais qu’en est-il dans la vraie vie ? Lors de nos tests, nous avons installé Devstral Small 2 sur un Mac Mini M4 (24 Go de RAM) via LM Studio et VS Code.
Le défi était de coder une calculatrice iPhone en JavaScript. Résultat ? Le modèle s’exécute localement sans broncher.
Certes, c’est plus lent que le Cloud (comptez 3 à 5 minutes pour 100 lignes), mais le code produit est propre, fonctionnel et esthétique.
Mais là où d’autres modèles hallucinent et inventent des fonctions qui n’existent pas, l’IA de Mistral s’est montrée d’une robustesse exemplaire : aucune erreur de syntaxe ou de logique.
Attention à la RAM !
Il ne faut tout de même pas jeter pas votre abonnement Cloud trop vite si vous avez un vieux PC. Le miracle « On-Device » a une contrainte physique : la mémoire vive.
Pour faire tourner Devstral Small 2 de manière fluide, il faut sacrifier de la qualité (version quantifiée en 4 bits) et disposer d’au moins 15 à 20 Go de RAM libres.
Par ailleurs, si le modèle promet une mémoire théorique immense, nous avons dû la brider à 16 000 tokens pour ne pas faire planter la machine.
En somme, c’est génial pour éditer des fichiers ou créer des petits projets. Mais pour analyser l’intégralité du code de Facebook en local, il faudra une machine de guerre (32 à 64 Go de RAM recommandés).
Devstarl 2 ou Devstral Sall 2 ? Lequel choisir ?
Pour un usage quotidien professionnel, Devstral 2 (via API ou gros serveurs) est aujourd’hui le meilleur rapport qualité/prix du marché, loin devant Google Gemini 3.
Pour les nomades, les paranoïaques de la donnée ou les voyageurs sans Wi-Fi, Devstral Small 2 est une bénédiction.
C’est d’ailleurs la configuration idéale pour coder efficacement, à moindre coût, sans dépendre de l’humeur de la Silicon Valley.
- Partager l'article :

