Six ans après le lancement de GPT-2 en 2019, OpenAI lance un modèle open source. Est-il temps que l’entreprise retrouve sa mission principale ? Celle de faire profiter à l’humanité de l’intelligence artificielle ? En tout cas, les deux modèles gpt-oss-120b et gpt-oss-20b sont désormais disponibles en téléchargement sur Hugging Face.
Le lancement de ce modèle open source d’OpenAI fait suite à plusieurs tests de sécurité et de nombreuses mises à jour.
Raisons pour lesquelles l’entreprise a pris du temps avant de déployer le gpt-oss qui ne me semble pas être un nouveau modèle. Mais plutôt des pondérations, c’est-à-dire les valeurs numériques que le modèle a apprises au cours de son entraînement, et qui orientent ses réponses.
Cela dit, il y a une grande différence entre les modèles open source et ceux qui partagent leurs pondérations.
Qu’est-ce qu’un modèle de pondérations
Il est à mon avis important de comprendre comment fonctionne un modèle de pondérations avant d’entrer dans les détails de ce modèle open source d’OpenAI.
Ce type de modèle, en tant que LLM ouvert, va mettre à disposition les paramètres qu’il a appris pendant son entraînement. Ce qui permet ensuite de l’utiliser tel quel ou de le modifier et de le configurer en cas de besoin.
Un modèle de pondération peut donc s’adapter à des besoins spécifiques après avoir modifié ses pondérations.
De son côté, OpenAI n’a pas encore rendu publics de modèles entièrement open source. Sans doute pour éviter que des concurrents ne s’en servent afin de reproduire sa technologie à partir des données et du code d’entraînement.
En somme, un modèle de pondérations inclut aussi du code d’entraînement. Donc du code nécessaire pour entraîner et former le modèle.
Mais pratiquement, on ne peut pas exploiter un tel modèle. Sauf si on dispose d’une grande quantité de GPU Nvidia et d’une ressource importante en électricité.
Quelle différence entre gpt-oss-120b et gpt-oss-20b ?
Entre les deux modèles open source d’OpenAI, le gpt-oss-120b et gpt-oss-20b, la plus grande différence réside au niveau du nombre de paramètres qu’ils proposent.
Le terme paramètre désigne le nombre de configurations qu’un modèle peut déployer pour générer une réponse à chaque requête.
Pour gpt-oss-120b, il dispose de 117 milliards de paramètres. Quant au modèle gpt-oss-20b qui est plus petit, s’élève à 21 milliards de paramètres.
Vous l’aurez compris, plus le nombre de paramètres est élevé, plus le modèle sera gourmand en ressources.
En ce qui concerne gpt-oss-120b, il nécessite au moins un GPU Nvidia de 80 Go pour fonctionner correctement.
La bonne nouvelle, c’est qu’en tant que modèle compact open source, vous pouvez déployer gpt-oss-20b sur un PC de 16 Go de RAM.
Avec un ordinateur moderne, il est tout à fait possible d’utiliser gpt-oss-20b pour du codage sans nécessiter de connexion internet.
Par ailleurs, les deux modèles gpt-oss-120b et gpt-oss-20b sont déployés sous licence Apache 2.0 pour faciliter leur adaptation à votre système et à vos besoins.
We released two open-weight reasoning models—gpt-oss-120b and gpt-oss-20b—under an Apache 2.0 license.
Developed with open-source community feedback, these models deliver meaningful advancements in both reasoning capabilities & safety.https://t.co/PdKHqDqCPf— OpenAI (@OpenAI) August 5, 2025
Gpt-oss n’est pas un modèle multimodal
D’après l’annonce d’OpenAI, les modèles open source gpt-oss ne seront pas déployés en version commerciale.
Ils ont aussi une limite à ne pas négliger puisque ce n’est pas un modèle multimodal. Il ne peut donc pas prendre en charge les images, les audios et les voix.
Si vous souhaitez bénéficier de ces fonctionnalités, il va falloir vous tourner vers le cloud. Et donc vers les modèles commerciaux qu’OpenAI a développés.
Gpt-oss offre néanmoins la possibilité d’utiliser d’autres outils. Mais aussi certaines fonctionnalités telles que le raisonnement pas chaîne de pensée.
Ce qui veut dire que les modèles open source gpt-oss-120b et gpt-oss-20b peuvent toujours traiter les requêtes complexes tout en utilisant des langages de programmation comme Python.
Gpt-oss vs o3-mini et o4-mini
Je tiens à rappeler que le modèle gpt-oss a été entraîner avec les mêmes techniques qu’OpenAI a utilisées pour former les modèles o3 et o4.
Ce qui m’a permis de faire un petit test de performances entre les trois modèles. Et gpt-oss-120b se situe juste en dessous de o3 en termes de codage. Quant à gpt-oss-20b, il se positionne entre à3-mini et o4-mini.
Mais ce ne sont que les résultats des benchmarks. Il faudra faire des évaluations plus poussées, et en conditions réelles, pour connaître les vraies valeurs de gpt-oss par rapport à ses concurrents.
Pour le déploiement du modèle open source gpt-oss, OpenAI a dû entrer en collaboration avec d’autres partenaires.
L’un d’entre eux, AI Sweden, est un centre national suédois qui œuvre dans l’intelligence artificielle appliquée.
Les équipes chargées de développer gpt-oss, de leur côté, ont présenté le modèle comme une initiative expérimentale.
Le lancement de modèles plus pondérant va alors dépendre de l’adoption de gpt-oss par la communauté.
- Partager l'article :


