100 milliards de dollars, c’est ce qui a été indiqué par le président Macro lors du Sommet pour l’Action sur l’IA de Paris de mois de février dernier. Il a aussi décerné le prix du champion de l’IA à Mistral, la start-up française dirigée par Arthur Mensch. Et justement, dans le cadre du développement de l’industrie de l’IA française, Mistral vient d’annoncer Small 3.1 qui, comme son nom l’indique, est un modèle plus compact, mais plus performant que ceux d’OpenAI et de Google.
Avec seulement 24 milliards de paramètres, Mistral Small 3.1 devrait avoir la capacité de traiter des images et du texte en même temps.
On avait déjà le modèle Mistral Small 3, mais d’après la start-up, celui-ci est plus performant avec une fenêtre contextuelle de 128 000 jetons.
Le modèle est aussi multimodal. Et comme je viens de le dire, il prend en charge les images et les textes comme point d’entrée.
Mistral mise sur l’optimisation plutôt que sur les supercalculateurs
Si on se tourne vers les capacités proprement dites de Mistral Small 3.1, la vitesse de traitement de données est de près de 150 jetons par seconde.
À cette vitesse, le modèle peut parfaitement s’adapter aux applications nécessitant un meilleur temps de réponse.
Ce qui n’est pas un hasard puisque la stratégie qu’a adoptée Mistral dans le développement de ses modèles reposer sur l’amélioration et l’optimisation des algorithmes et de la formation au lieu de se concentrer davantage sur la puissance de calcul.
Si l’on se tourne vers la stratégie des géants comme OpenAI et xAI, ils préfèrent allouer la majorité des investissements dans les centres de données et les infrastructures.
Comme xAI en particulier qui a mis en place Colossus pour entraîner et former ses modèles les plus puissants et les plus volumineux.
Pour Mistral, il est question de développer des modèles plus petits tout en essayant d’optimiser leurs performances.
Introducing Mistral Small 3.1.
— Mistral AI (@MistralAI) March 17, 2025
Multimodal, Apache 2.0, outperforms Gemma 3 and GPT 4o-mini.https://t.co/BHLAAaKZ9w pic.twitter.com/DibHXaQDMm
Moins volumineux, mais plus puissant
Les modèles d’IA n’ont pas forcément besoin d’être volumineux pour offrir de meilleures performances.
Et c’est là justement que réside l’avantage de la stratégie que Mistral a adoptée. Avec un modèle plus compact, ils atteignent un public plus large.
Le modèle peut également fonctionner sur une architecture plus modeste. Donc plus besoin d’un superordinateur.
Un MacBook avec 32 Go de mémoire vive, ou un PC doté d’une puce graphique RTX 4090 suffit pour exécuter le modèle.
Ce qui veut dire que bientôt, le modèle de Mistral sera pris en charge même par les appareils ne disposant pas de grandes mémoires. Autrement dit, des PC à usage personnel.
On peut d’ailleurs prendre l’exemple de DeepSeek et de Baidu, ERNIE X1 récemment, qui ont respectivement des modèles plus petits, mais plus performants.
Et c’est ça l’objectif de Mistral si je prends compte de la situation actuelle. Et je pense honnêtement que l’on peut bel et bien rivaliser avec les États-Unis sans avoir à dépenser des milliards d’euros.
Mistral Small 3.1 : code source ouvert et accessibilité sur Hugging Face et Google Cloud
Second point que je considère comme une bonne idée de la part de Mistral avec Small 3.1, c’est que l’entreprise prévoit d’ouvrir le code source du modèle.
Et c’est exactement ce qu’a fait DeepSeek. La start-up chinoise a décidé de partager le code source pour que les développeurs locaux puissent participer à l’amélioration du modèle.
Je ne vous rappellerai plus ce qui s’est passé quand DeepSeek a lancé le modèle R1, il y a quelques semaines.
Reste à savoir si on y arrivera comme la Chine l’a fait. En attendant, vous pouvez déjà télécharger Mistral Small 3.1 via Hugging Face ou depuis l’API de Mistral.
Le modèle est aussi accessible sur la plateforme Vertex AI de Google Cloud. À vous donc de choisir le canal qui vous convient.
- Partager l'article :