in ,

Llama 4 : Meta lance trois nouveaux modèles d’IA pour rivaliser avec ChatGPT et Claude

Llama IA

Meta a récemment lancé sa nouvelle gamme de modèles d’intelligence artificielle Llama 4. La société mère de Facebook, d’Instagram et de WhatsApp dispose désormais de trois nouveaux modèles. À savoir Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. Et selon Meta, les trois modèles, bien que le troisième soit encore en phase d’entraînement, ont été formés sur une quantité de données massive pour disposer de la capacité de compréhension visuelle.

Sur le papier, Llama surpasserait mes modèles phares d’OpenAI et d’Anthropic, notamment GPT-’o et Claude Sonnet 3.7.

Et le lancement de Llama 4 semble faire suite au déploiement des modèles R1 et V3 de DeepSeek, deux modèles chinois open source qui auraient les mêmes caractéristiques que ceux de Meta.

Cela dit, les modèles Llama 4 Scout et Maverick sont déjà disponibles en téléchargement.

YouTube video

Premier modèle de Meta à utiliser l’architecture MoE ou mélange d’experts

Llama 4, d’après l’annonce de Meta, est son tout premier modèle d’IA qui utilise l’architecture MoE ou mélange d’experts.

Cette première cohorte de modèles offre donc une meilleure performante en termes de génération de réponses et de puissance de calcul.

À titre d’information, l’architecture MoE fonctionne en décomposant chaque tâche en plusieurs sous-tâches.

Chaque tâche sera en effet attribuée et exécutée par un modèle spécialisé, que l’on nomme expert. Et les modèles Llama 4 Scout et Maverick sont justement composés de plusieurs experts.

Pour Llama 4 Maverick, par exemple, le modèle possède au total 400 milliards de paramètres sur 17 milliards actifs.

Il est aussi composé de 128 experts contre 16 experts pour Llama 4 Scout sur 109 milliards de paramètres au total. Cette différence du nombre d’experts a un impact sur la capacité des deux modèles.

Maverick, le meilleur modèle pour un usage général

D’après les tests internes de Meta, Llama 4 Maverick, grâce à ces 128 experts actifs, est plus polyvalent.

L’entreprise le considère même comme le meilleur modèle pour des cas d’usage général en tant que chatbot.

Il surpasserait même Gemini 2.0 de Google et GPT-4o d’OpenAI sur plusieurs benchmarks. Dont le raisonnement, le codage, la compréhension multilingue et de contexte.

Par contre, quand je l’ai comparé avec Claude Sonnet 3.7 et GPT-4.5, Llama 4 Maverick a affiché des performances moins élevées.

Scout excelle dans l’écriture créative

Si Llama 4 Mavercik excelle dans l’écriture créative, entre autres, Scout quant à lui, est plus performant sur des tâches telles que le raisonnement et la synthèse des documents.

Ce modèle a d’ailleurs cette particularité de posséder une grande fenêtre contextuelle de 10 millions de jetons.

Cequi fait de lui le meilleur modèle de Llama pour l’exploitation et le traitement des documents volumineux.

Aussi, le modèle Llama 4 Scout peut fonctionner sur un seul GPU H100 de Nvidia. Ce qui n’est pas le cas pour Maverick qui nécessite un processeur graphique plus puissant comme le H100 DGX ou version ultérieure.

Behemoth, le plus puissant avec 288 milliards de paramètres actifs

En ce qui concerne le modèle Llama 4 Behemoth, comptant plus de 280 milliards de paramètres actifs et 16 experts, c’est le modèle le plus puissant de Meta.

Bien que Llama 4 Behemoth soit encore en phase d’entraînement, les tests internes de Meta indiquent qu’il surpasse déjà les meilleurs modèles d’OpenAI, de Google et d’Anthropic. Notamment GPT-4.5, Claude 3.7 Sonnet et Gemini 2.0.

Pourtant, à bien y réfléchir, on ne peut pas définir Llama 4 de modèle de raisonnement, contrairement à o3-mini et à o1 d’OpenAI.

À titre d’information, un modèle de raisonnement prend davantage de temps dans la génération de ses réponses.

Cela parce que chaque requête est décomposée et passe par une étape de vérification. C’est ainsi que l’on obtient de réponses plus fiables et plus précises.

Or, les modèles conventionnels ne disposent pas de cette capacité, ou de ce mécanisme d’autoévaluation.

YouTube video

Un modèle plus ouvert sur les sujets sensibles

D’après les informations communiquées par Meta, les nouveaux modèles Llama 4 ont été spécifiquement conçus pour être moins restrictifs face aux questions portant sur des sujets sensibles ou controversés.

La société indique que cette génération de modèles est capable d’aborder des thématiques politiques et sociales que les versions précédentes auraient refusé de traiter.

Meta souligne également que Llama 4 présente un équilibre amélioré, tout en maintenant certaines limites.

Le porte-parole de Meta a même déclaré que Llama 4 a été développé pour proposer des informations objectives et utiles sans imposer de perspective particulière.

De son côté, l’entreprise poursuit ses efforts pour améliorer la capacité de réponse du modèle afin qu’il puisse traiter un éventail plus large de questions et s’adapter à diverses perspectives sans favoriser un point de vue spécifique.

Ces ajustements ont vu le jour dans un contexte où certains proches de l’administration Trump critiquent les assistants IA pour leur supposée orientation politique progressiste.

Plusieurs personnalités proches du président Trump, notamment Elon Musk et David Sacks (conseiller en cryptomonnaies et IA), ont d’ailleurs publiquement reproché aux grands modèles d’IA de filtrer les opinions conservatrices.

Sacks a même accusé ChatGPT d’OpenAI d’être programmé avec une orientation idéologique et de déformer les informations politiques.

Mais le vrai problème, c’est que les biais en intelligence artificielle demeurent techniquement complexes et non résolus.

Même xAI, la compagnie d’intelligence artificielle fondée par Musk, a rencontré des difficultés pour créer un assistant conversationnel véritablement neutre politiquement.

Pourtant, ces défis n’ont pas empêché les entreprises du secteur, y compris OpenAI, de modifier leurs systèmes pour élargir leur champ de réponses, particulièrement sur les sujets controversés.

Les conditions d’éligibilité pour accéder à Llama

Le petit problème que j’ai constaté avec Llama 4, c’est que les trois modèles ne sont pas encore disponibles dans l’ensemble de l’Union européenne.

Sinon, Llama 4 Scout et Maverick sont accessibles en open source et les plateformes de réseaux sociaux comme WhatsApp, Messenger et Instagram intègrent le modèle après mise à jour.

Aussi, les nouvelles fonctionnalités IA de Llama 4 disponibles sur ces plateformes ne prennent en charge que l’anglais.

Il y a aussi un autre facteur qui pourrait empêcher les développeurs d’accéder à Llama 4. Et c’est la loi européenne sur la confidentialité des données en est la cause.

Ce qui veut dire que toutes entreprises ayant leur siège dans l’UE, et toutes personnes résidant dans un pays européen ne pourront pas bénéficier de la licence de Llama 4.

©Meta

Comment accéder ou télécharger Llama 4 ?

Meta a également imposé une autre condition pour accéder à Llama 4. Les entreprises qui comptent plus de 700 millions d’utilisateurs mensuels n’auront pas accès au modèle sauf après validation de Meta.

Sachez avant tout que même sans GPU, il existe quelques façons d’accéder gratuitement à Llama 4 depuis l’interface utilisateur.

Sinon, si vous avez suffisamment de GPU, il est préférable de télécharger les poids des modèles disponibles.

La méthode la plus directe consiste à utiliser la plateforme d’intelligence artificielle officielle de Meta.

Pour ce faire, rendez-vous simplement sur Meta.ai et engagez une conversation. Le modèle utilisé sur cette plateforme est déjà mis à jour vers Llama 4.

Pour confirmer que vous interagissez bien avec ce modèle, posez-lui la question suivante : « Quel modèle-vous êtes ? Llama 3 ou Llama 4 ? »

Il devrait vous répondre qu’il est construit sur Llama 4. Cette méthode présente l’avantage de ne nécessiter aucune inscription et offre un accès immédiat, mais elle comporte certaines limitations en termes de personnalisation et ne permet pas d’accéder à l’API.

YouTube video

Vous pouvez aussi télécharger les poids du modèle depuis Llama.com

Si vous préférez expérimenter avec les poids bruts du modèle, Meta les propose gratuitement. Dans ce cas, visitez Llama.com et complétez un formulaire de demande d’accès.

Une fois votre demande validée, vous pourrez télécharger Llama 4 Scout et Llama 4 Maverick.

Cette option vous donne un accès complet au modèle pour un déploiement local ou dans le cloud, mais nécessite une approbation préalable et ne fournit pas d’interface de discussion prête à l’emploi.

Besoin de l’API ? Rendez-vous sur OpenRouter.ai

OpenRouter.ai est une alternative intéressante qui offre un accès API gratuit aux modèles Llama 4.

Pour en profiter, inscrivez-vous gratuitement sur leur site et recherchez les modèles Llama 4 Maverick et Llama 4 Scout dans leur catalogue.

Vous pourrez alors commencer à discuter ou obtenir une clé API gratuite pour l’intégration. Cette solution propose à la fois une interface de discussion et un accès API, bien que des limites de tarification puissent s’appliquer.

Hugging Face pour les développeurs

Pour les développeurs, Hugging Face héberge également des modèles Llama 4 avec différents niveaux de précision.

Accédez à la page Llama 4 de Hugging Face, remplissez le formulaire d’accès sécurisé de Meta pour obtenir une approbation rapide, puis utilisez l’API Hugging Face Inference ou téléchargez les poids du modèle.

Cette approche offre une meilleure flexibilité et prend en charge le réglage fin. Par contre, elle nécessite une approbation et implique une configuration plus technique.

En somme, bien que Llama 4 Behemoth (400B) ne soit pas encore largement disponible, vous pouvez d’ores et déjà tester les versions Scout et Maverick gratuitement.

Cela peut se faire via Meta.ai pour une solution simple, sur OpenRouter.ai pour un accès API optimal, et depuis Llama.com pour les poids du modèle.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *