Il y a tout juste deux jours, on a publié un article sur Strawberry, le modèle d’OpenAI qui serait doté d’une capacité de raisonnement absolue. Aujourd’hui, on a droit à une bonne nouvelle de la part du géant californien de l’intelligence artificielle : le modèle o1. Celui-ci est plus léger et plus compact, certes, mais à bien y réfléchir, c’est le même modèle que Strawberry.
Ce modèle est apparemment plus performant que ceux que nous connaissons déjà. Il se rapproche d’ailleurs de l’intelligence humaine en matière de raisonnement.
Par contre, si on le compare avec GPT-4o, le plus puissant modèle développé par OpenAI jusqu’à aujourd’hui, o1, se déclinant sous deux variantes, o1-preview et o1-mini, coûte plus cher.
Mais est-ce qu’on peut le tester ? Les réponses dans les prochains paragraphes !
Déjà disponible depuis hier
La bonne nouvelle, c’est qu’OpenAI a confirmé la disponibilité de ces deux modèles o1 depuis hier, 12 septembre 2024.
Par contre, seuls les abonnés à ChatGPT Team et ChatGPT Plus y auront accès. Si vous êtes souscrit à l’offre Edu et Entreprise, vous y aurez accès d’ici la semaine prochaine.
Mais ne vous inquiétez pas si vous utilisez la version gratuite de ChatGPT. OpenAI a pensé à vous et vous offre la possibilité d’utiliser o1-mini.
Sauf que la date précise pour la sortie du modèle o1-mini pour ChatGPT free n’a pas encore été fixée.
En ce qui concerne les développeurs, l’accès à o1 semble plus onéreux. Pour un million de jetons d’entrée par exemple, il va falloir payer 15 $, soit 10 $ de plus que le prix de GPT-4o.
Et pour le prix des jetons de sortie, il est évalué à 60 $ par millions de jetons, soit une hausse de 75 % par rapport au tarif de GPT-4o.
La question qui se pose est de savoir s’il y a une explication plausible à cette tarification.
Peut-être la méthode d’apprentissage qu’a adopté OpenAI
Les précédents modèles GPT, dont GPT-2, GPT-3, GPT-3 et GPT-4, ont été formés à partir d’un très grand volume de données.
Mais l’entraînement du modèle o1 est principalement axé sur l’apprentissage par renforcement. Ce qui veut dire que le traitement de chaque requête ressemble à la manière dont les êtres humains résolvent leurs problèmes.
Cette approche permettrait au modèle o1 d’être plus précis dans la génération des réponses.
Jerry Tworek, responsable de la recherche chez OpenAI, affirme d’ailleurs qu’il y a moins d’hallucinations avec le modèle o1.
Il ajoute tout de même qu’ils n’ont pas encore résolu le problème à 100 %. Néanmoins, le modèle o1 arrive à résoudre les problèmes les plus complexes.
Meilleur que GPT-4o en math et en codage
Pour illustrer les capacités de raisonnement mathématique du modèle, le directeur des recherches d’OpenAI, Bob McGrew, a réalisé quelques tests en utilisant o1 pendant un examen de qualification pour l’Olympiade internationale de mathématiques.
Après l’évaluation, o1 a pu résoudre 83 % des opérations, contre seulement 13 % pour le modèle GPT-4o.
Ce que l’on peut dire au niveau des capacités de codage de o1, le modèle a obtenu de meilleurs résultats que 89 % des candidats qui y ont participé.
Mais moins performant dans les autres domaines
Si o1 est meilleur que GPT-4o en termes de résolution mathématique et de codage, il reste peu satisfaisant quand il s’agit d’autres domaines. En particulier en termes de connaissances factuelles.
Par ailleurs, contrairement à son prédécesseur, o1 ne dispose pas de fonctionnalités telles que la navigation web ou le traitement de fichiers et d’images.
OpenAI considère néanmoins que o1 va marquer l’avènement d’une catégorie entièrement nouvelle de capacités en intelligence artificielle.
Le choix de sa dénomination, « o1 », est en effet symbolique. Il évoque l’idée de remettre le compteur à 1. Donc un nouveau départ ou une rupture significative avec les précédentes approches.
Comment l’interface de o1 crée-t-elle une fausse impression d’humanité ?
Lors d’une démonstration, l’équipe d’OpenAI a soumis à o1 un casse-tête complexe concernant l’âge relatif d’un prince et d’une princesse.
Le modèle a pris environ moins d’une minute pour analyser le problème avant de fournir la solution correcte.
Tout au long de la vidéo de démonstration, o1 a exposé avec transparence son processus de réflexion. Et c’est ainsi que l’on peut observer les étapes du raisonnement du modèle en temps réel.
Mais ce qui m’a particulièrement frappé, c’est la similitude entre le mode de réflexion de o1 et celui d’un être humain.
Il ponctue ses réflexions d’expressions telles que « laissez-moi réfléchir » ou « voyons voir ». Ce qui crée ainsi une impression de cognition authentique.
Selon OpenAI, cette apparence de réflexion humaine est un moyen de démontrer que le modèle consacre plus de temps et d’efforts à l’analyse des problèmes plutôt qu’aux réponses.
Mais en tout cas, O1 opère sous une contrainte temporelle. Lorsqu’il approche de sa limite de temps, il peut indiquer qu’il doit accélérer son processus pour fournir une réponse rapidement.
Au début de son raisonnement, le modèle peut osciller entre différentes options. Il pourrait alors s’interroger sur la meilleure approche à adopter.
Ces caractéristiques contribuent à donner une impression d’humanité au processus de réflexion du modèle.
Sauf qu’il s’agit tout simplement d’une simulation algorithmique sophistiquée. En tout cas, OpenAI a réussi à relever le défi.
En ce qui nous concerne, nous sommes toujours ouverts aux commentaires donc n’hésitez surtout pas à partager vos impressions.
- Partager l'article :