Après le lancement de Llama 3, Meta affirme avoir égalé avec les plus puissants modèles et revendique sa place en tant que leader du marché. Selon les informations, la société est en phase de déployer plusieurs modèles dans la famille Llama 3 d’ici peu. Notamment Llama 3 8B, Llama 3 70B.
Chaque nouveau modèle est plus performant que les précédents, avec plus de paramètres que la génération précédente.
Meta ajoute d’ailleurs qu’il a formé les deux modèles sur deux clusters de 24 000 GPU. Ce qui fait d’eux l’un des plus puissants modèles jamais réalisés.
Comparé à Mistral 7B et à Gemma 7B de Google, Llama 3 8B est affiche de meilleures performances. Du moins, c’est ce qu’indique les scores des benchmarks MMLU, ARC, MATH, GPQA et DROP.
Pour couronner le tout, Meta a décidé de créer ses propres tests de performances. Il s’agit d’un ensemble d’évaluation incluant l’écriture créative, le codage, le raisonnement et le résumé de document.
Comme par hasard, Llama 3 70B a surpassé le modèle Medium de Mistral, Calude 3 Sonnet, et même GPT-3.5 d’OpenAI.
Plus de précision, plus de maniabilité… Trop beau pour être vrai ?
D’après les déclarations de Meta, on devrait s’attendre à découvrir un assistant virtuel plus maniable.
Llama 3 devrait également avoir la capacité de fournir des réponses plus précises sur chaque demande des utilisateurs.
15 000 milliards de jetons ont été utilisés pour l’entraînement de Llama 3. C’est pourquoi Meta se vante d’avoir développé « la » plus puissante IA jusqu’à aujourd’hui.
Par contre, la société n’a fourni aucune information sur la provenance de ces données. Elle a juste déclaré qu’il s’agit de données provenant de sources accessibles au public.
Meta affirme également avoir utilisé des données synthétiques pour l’entraînement de Llama 3. Il aurait alors employé des données générées par l’intelligence artificielle.
En tout cas, Meta a pris conscience de l’importance de la diversité des données pour l’entraînement des modèles de langage.
Une suite de sécurités pour Llama 3
Meta a annoncé le développement de nouveaux canaux de filtrage de données. Une approche qui lui permet d’améliorer la qualité des données utilisées pour former ses modèles.
Par ailleurs, la firme a également mis à jour ses suites de sécurité génératives pour l’IA, notamment Llama Guard et CybersecEval.
Son objectif serait alors de prévenir les abus potentiels et les générations de texte non désirées à partir de modèles tels que Lama 3.
À ce titre, Meta a introduit un nouvel outil appelé Code Shield. Celui-ci a été conçu pour détecter les vulnérabilités de sécurité introduites par le code des modèles d’IA génératifs.
Malgré tout, il convient de rappeler que même avec ces mesures, le filtrage des données est loin d’être infaillible.
Bref, nous attendons avec impatience de voir comment les modèles Llama 3 se comportent dans des environnements réels.
- Partager l'article :