in

Les résultats de MLPerf dévoilés : Nvidia mène la course, suivi de près par Intel

Les résultats des dernières soumissions MLPerf effectuées par plusieurs entreprises IA ont été dévoilés. Cet outil de benchmarking évolue continuellement en tenant compte des nouvelles avancées de l’.

De nouvelles charges de travail IA intégrées à MLPerf

Mis en œuvre par des experts IA, MLPerf permet d’évaluer les performances des modèles de machine learning déployés par les entreprises du secteur. Et la bataille entre ces dernières s’intensifie puisque l’outil continue d’intégrer de nouvelles charges de travail. Sa suite s’enrichit à mesure que de nouvelles technologies émergent.

Plus tôt dans l’année, MLPerf s’est ouvert à l’IA générative en ajoutant un benchmark fondé sur un modèle -3 pour l’entraînement de grands modèles de langage (LLM). Et lors des récents tests, MLPerf a également ajouté à son arsenal un benchmark d’entraînement basé sur un générateur d’image à diffusion stable.

et font partie des fabricants qui ont soumis leurs systèmes à ce nouveau benchmark. , un nouvel entrant tardif dans l’arène de l’IA, rejoint la bataille dans le benchmark GPT-3 et se retrouve encore loin derrière Nvidia et Intel. Au total, les derniers tests MLPerf comprennent près de 200 résultats provenant de 19 entreprises soumissionnaires.

YouTube video

Nvidia domine la compétition avec ses GPU H100

Plusieurs fabricants ont aligné leurs meilleurs GPU afin de déterminer celui qui est le plus performant. Nvidia garde la première place avec ses systèmes alimentés par ses GPU H100.  Avec Eos, un supercalculateur IA doté de 10 752 GPU, l’entreprise réalise de nouvelles performances. Le GPU H100 a réussi le test d’entraînement basé sur un modèle GPT-3 en seulement moins de quatre minutes. Avec ce résultat, Nvidia réalise un gain d’environ trois fois comparé à ses résultats d’il y a six mois lors de l’intégration de ce test à la suite de MLPerf.

En ce qui concerne le benchmark d’entraînement basé sur un modèle de générateur de texte vers image à diffusion stable, les 1 024 GPU NVIDIA H100 ont terminé le test en seulement 2,5 minutes. Ainsi, l’entreprise réalise aussi un nouveau record pour cette nouvelle charge de travail IA.

Intel, un concurrent redoutable avec ses puces Gaudi 2

Intel a également soumis ses puces liées à l’IA aux tests de performances MLPerf. Et, d’après les résultats, avec ses puces Gaudi 2, la marque a effectué une avancée remarquable. Celles-ci ont démontré un gain de performance de 2x avec la mise en œuvre du FP8 dans le benchmark d’entraînement GPT-3 version 3.1. L’entraînement a été terminé en 153,58 minutes, s’il leur a fallu 311,94 minutes pour le réaliser en juin. Le temps d’entraînement des cartes est ainsi réduit de plus de la moitié. Avec ce résultat, l’écart entre Gaudi 2 et les puces de Nvidia se resserre.

Dans le benchmark de génération d’images à diffusion stable, Gaudi 2 a réalisé le test d’entraînement en 20,2 minutes, mais en utilisant BF16 avec 64 accélérateurs, soit environ la moitié de la vitesse du GPU H100 de Nvidia.  Pour tous les prochains tests d’entraînement MLPerf, la marque a annoncé d’activer le type de données FP8.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *