Les résultats des dernières soumissions MLPerf effectuées par plusieurs entreprises IA ont été dévoilés. Cet outil de benchmarking évolue continuellement en tenant compte des nouvelles avancées de l’intelligence artificielle.
De nouvelles charges de travail IA intégrées à MLPerf
Mis en œuvre par des experts IA, MLPerf permet d’évaluer les performances des modèles de machine learning déployés par les entreprises du secteur. Et la bataille entre ces dernières s’intensifie puisque l’outil continue d’intégrer de nouvelles charges de travail. Sa suite s’enrichit à mesure que de nouvelles technologies émergent.
Plus tôt dans l’année, MLPerf s’est ouvert à l’IA générative en ajoutant un benchmark fondé sur un modèle GPT-3 pour l’entraînement de grands modèles de langage (LLM). Et lors des récents tests, MLPerf a également ajouté à son arsenal un benchmark d’entraînement basé sur un générateur d’image à diffusion stable.
Intel et Nvidia font partie des fabricants qui ont soumis leurs systèmes à ce nouveau benchmark. Google, un nouvel entrant tardif dans l’arène de l’IA, rejoint la bataille dans le benchmark GPT-3 et se retrouve encore loin derrière Nvidia et Intel. Au total, les derniers tests MLPerf comprennent près de 200 résultats provenant de 19 entreprises soumissionnaires.
Nvidia domine la compétition avec ses GPU H100
Plusieurs fabricants ont aligné leurs meilleurs GPU afin de déterminer celui qui est le plus performant. Nvidia garde la première place avec ses systèmes alimentés par ses GPU H100. Avec Eos, un supercalculateur IA révolutionnaire doté de 10 752 GPU, l’entreprise réalise de nouvelles performances. Le GPU H100 a réussi le test d’entraînement basé sur un modèle GPT-3 en seulement moins de quatre minutes. Avec ce résultat, Nvidia réalise un gain d’environ trois fois comparé à ses résultats d’il y a six mois lors de l’intégration de ce test à la suite de MLPerf.
En ce qui concerne le benchmark d’entraînement basé sur un modèle de générateur de texte vers image à diffusion stable, les 1 024 GPU NVIDIA H100 ont terminé le test en seulement 2,5 minutes. Ainsi, l’entreprise réalise aussi un nouveau record pour cette nouvelle charge de travail IA.
Intel, un concurrent redoutable avec ses puces Gaudi 2
Intel a également soumis ses puces liées à l’IA aux tests de performances MLPerf. Et, d’après les résultats, avec ses puces Gaudi 2, la marque a effectué une avancée remarquable. Celles-ci ont démontré un gain de performance de 2x avec la mise en œuvre du FP8 dans le benchmark d’entraînement GPT-3 version 3.1. L’entraînement a été terminé en 153,58 minutes, s’il leur a fallu 311,94 minutes pour le réaliser en juin. Le temps d’entraînement des cartes est ainsi réduit de plus de la moitié. Avec ce résultat, l’écart entre Gaudi 2 et les puces de Nvidia se resserre.
Dans le benchmark de génération d’images à diffusion stable, Gaudi 2 a réalisé le test d’entraînement en 20,2 minutes, mais en utilisant BF16 avec 64 accélérateurs, soit environ la moitié de la vitesse du GPU H100 de Nvidia. Pour tous les prochains tests d’entraînement MLPerf, la marque a annoncé d’activer le type de données FP8.
- Partager l'article :