in

Les « 4 M » ou comment Google entend réduire l’empreinte carbone des modèles ML

Les "4 M" de Google

Grâce aux « 4 M », les modèles de ML ne consomment pas plus de 15 % d’énergie chez .

L’ et le machine learning ont transformé notre vie du moindre aspect au plus important. Mais pour y parvenir, ces systèmes reposent sur le traitement d’une grande quantité de données et une énorme consommation d’énergie.

La formation des modèles de machine learning coûte cher à l’environnement

L’intelligence artificielle et le machine learning ont deux aspects paradoxaux. D’un côté, elle fournit des solutions aux scientifiques pour protéger l’environnement, mais d’un autre côté, elle a elle-même un impact environnemental et climatique. Dans un article, Google se concentre sur le coût énergétique de la formation des modèles de NLP (traitement de langage naturel) et sur les 4 M que nous verrons plus tard.

En 2019, une étude a montré que la formation d’un modèle de langage équivaudrait à 300 000 kg d’émissions de CO2. Notons que Google utilise des sources d’énergie renouvelable pour répondre à 100 % de sa consommation énergétique opérationnelle. La compagnie s’est également engagée à décarboniser la totalité de ses besoins en énergie d’ici 2030.

Entre 2019 et 2020, la moyenne globale d’utilisation d’énergie sans carbone dans ses centres de données était de 61 à 67 %. Actuellement, ils fonctionnent avec 90 % d’énergie décarbonée.

Google présente les « 4 M » pour la réduction de l’empreinte carbone

Dans l’article, le géant du numérique affirme que la formation et l’inférence ML ne représentent pas plus de 15 % de sa consommation d’énergie totale. Google repose sur quatre pratiques clés qu’elle appelle les « 4 M » (Model, Machine, Mechanization, Map Optimization).

La compagnie soutient que la sélection d’architectures ML efficaces, comme les modèles épars, améliore la qualité de l’apprentissage et permet de réduire le temps de calcul jusqu’à 10 fois. Ensuite, pour améliorer les performances énergétiques de 2 à 5 fois, le deuxième point consiste à privilégier des processeurs et des systèmes optimisés pour la formation ML.

La mécanisation fait référence à l’utilisation des centres de données cloud qui peuvent accueillir jusqu’à 50 000 serveurs. Cela permettrait de réduire la consommation d’énergie de 1,4 à 2 fois. Enfin, le dernier point — l’optimisation des cartes — souligne la possibilité pour les clients de choisir un emplacement de serveur cloud où l’énergie est la plus propre.

Google précise que les 4 M sont accessibles dans tous les services.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *