in

Cette méthode vise à réduire la consommation énergétique du machine learning

réduire la consommation énergétique du machine learning

Réduire la consommation énergétique des modèles de machine learning est une préoccupation croissante dans le domaine de l’IA.

Des chercheurs ont publié un nouvel article dans lequel ils présentent en quelques points une nouvelle méthode pour tenter de résoudre ce problème. Les suggestions vont du plafonnement de l’utilisation d’énergie à une formation nocturne et hivernale des modèles.

Machine learning: le besoin croissant de réduire la consommation énergétique

Au cours des dernières années, les acteurs du domaine du machine learning ont fait face à un défi grandissant : la consommation d’énergie. Une étude en 2020 a démontré que pour décupler les performances d’un modèle ML, il faut compter 10 000 fois plus de calcul et une quantité d’énergie conséquente.

Des chercheurs du MIT Lincoln Laboratory et de la Northeastern University ont mené une nouvelle étude qui explore différentes techniques pour réduire la consommation énergétique du machine learning. Ils suggèrent principalement une limitation de la puissance utilisée pour la formation et l’inférence.

Au cours de l’étude, ils ont entraîné différents modèles NLP avec quatre puissances différentes : 100W, 150W, 200W et la valeur par défaut 250 W. Les chercheurs ont alors constaté que le plafonnement de puissance permet de réduire la consommation d’énergie au détriment du temps de formation. Avec la limite à 150W, la consommation d’énergie diminue d’environ 13,7 % tandis que le temps de formation augmente de 6,8 %, par rapport à 250 W. À 100W, cette augmentation atteint 31,4 % tandis qu’à 200W, le temps est similaire à la valeur par défaut. Ces résultats suggèrent donc qu’un plafonnement à 150W pourrait être une approche envisageable pour consommer moins d’énergie.

D’autres découvertes inattendues

La consommation énergétique est souvent associée au temps de formation des modèles ML. Mais dans cet article, les chercheurs affirment que c’est l’inférence et non l’entraînement qui est le plus gourmand en énergie. Par conséquent, le déploiement des modèles aurait une empreinte carbone plus importante.

À cela, ils suggèrent que l’inférence et, par la même occasion, la formation, des modèles soient programmés à des moments plus opportuns. Pendant l’hiver, et notamment la nuit, les centres de données sont plus énergétiquement efficaces. Selon eux, une courte inférence nocturne pourrait réduire la consommation énergétique du machine learning de 10 %. Mieux encore, un déplacement de l’été à l’hiver permettrait une réduction de 33 %.

Les travaux appellent aussi à une « déclaration sur l’énergie » à la fin des nouveaux articles de recherche sur l’IA. Et pour finir, les chercheurs soulignent l’efficacité des installations des fournisseurs cloud, qui reste la meilleure alternative.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *