Google a franchi une nouvelle étape majeure dans le domaine de l’intelligence artificielle conversationnelle avec l’annonce de Gemma mercredi dernier. Se basant sur une architecture similaire à leur gamme de pointe Gemini, Gemma reste exploitable localement sur des ordinateurs de bureau et portables. Il constitue d’ailleurs la première diffusion publique significative par Google d’un LLM depuis le lancement de ChatGPT d’OpenAI en 2022.
Les modèles Gemma sont proposés en deux dimensions distinctes : Gemma 2B et Gemma 7B. Chacune d’entre elles se décline selon des variantes pré-entraînées ou spécifiquement adaptées pour le suivi d’instructions. Dans le domaine de l’intelligence artificielle, les paramètres correspondent aux valeurs d’un réseau de neurones qui définissent le comportement d’un modèle d’IA. Parmi ces paramètres, on distingue un sous-ensemble dénommé les poids, stockés au sein de fichiers dédiés.
Google a-t-elle trouvé la perle rare en créant Gemma ?
Tirant parti de l’expertise de Google DeepMind en intelligence artificielle, Gemma représente l’avant-garde de la technologie des grands modèles de langage. Développée en étroite collaboration avec les meilleures équipes d’IA de Google, Gemma exploite les avancées révolutionnaires ayant mené à la création de Gemini, la famille de LLM les plus performants du marché. C’est cette même technologie de pointe qui alimente actuellement l’assistant virtuel Gemini AI, réputé pour son efficacité inégalée.
Gemma n’est pas un simple modèle de langage. Son nom, dérivé du latin « gemma » signifiant « pierre précieuse », symbolise l’essence même de cette innovation. Il s’agit en effet d’une véritable pépite technologique, taillée pour façonner l’avenir de l’intelligence artificielle conversationnelle.
Bien que Gemma marque une première pour Google en tant que grand modèle de langage ouvert depuis le lancement révolutionnaire de ChatGPT, son engagement dans la recherche ouverte sur l’IA ne date pas d’hier. L’entreprise a déjà apporté des contributions majeures qui ont façonné le paysage de l’intelligence artificielle telle que nous la connaissons aujourd’hui.
Aussi, Google est à l’origine du développement de l’architecture Transformer, pierre angulaire des modèles de langage modernes. Cette innovation phare a donné naissance à de nombreux outils pionniers. Notamment TensorFlow, BERT, T5 et JAX, véritables catalyseurs de progrès dans le domaine de l’IA.
Le vrai rival de GPT-4 arrive enfin sur le marché
Jusqu’à aujourd’hui, les LLM déjà disponibles semblent n’être qu’une démonstration technologique. En d’autres termes, on parle de modèle de langage à capacités limitées. Ou encore de technologies à fort taux de vantardise. Mais d’après les chercheurs, il s’agit tout de même d’une étape clé qui a permis d’établir une politique de confidentialité bien plus transparente pour les modèles sortis récemment.
Quant à Gemma, c’est un véritable concurrent direct pour les LLM tels que GPT-4 turbo d’OpenAI. À titre d’information, ce dernier est disponible exclusivement via l’application ChatGPT et une API cloud. Il ne peut donc pas être déployé localement. De son côté, Google aspire à renforcer son attractivité auprès des développeurs. Cela en consolidant sa position dans le domaine du cloud computing via Vertex AI.
D’après les déclarations de Google, le modèle 7B est présenté comme surpassant les modèles Llama 2 7B et 13B de Meta sur divers tests de référence. Il couvre également des domaines tels que les compétences mathématiques et la génération de code Python. Mais aussi les connaissances générales et les tâches de raisonnement de bon sens. Ce modèle est désormais accessible via Kaggle et Hugging Face. Et donc sur les plateformes communautaires dédiées à l’apprentissage automatique.
- Partager l'article :