Quand OpenAI a lancé ChatGPT, il y a près de deux ans, on ne s’est pas attendu que le chatbot allait conquérir le monde entier. Aujourd’hui, l’assistant conversationnel d’OpenAI compte pas moins de 200 millions d’utilisateurs par semaine. Pour l’entreprise, ça représente un énorme avantage, mais pas pour la planète qui est en danger à chaque fois que vous posez une question à ChatGPT.
Si le développement d’un modèle de langage coûte généralement très cher, ça a également un impact significatif sur notre écologie.
Une étude a été menée à l’Université de Californie comme quoi, pour une dizaine, voire une cinquantaine de questions posée à ChatGPT, son supercalculateur consomme 500 ml d’eau pour se refroidir.
Alors, imaginez la quantité d’eau nécessaire pour les nombreux chatbots qui existe sur le marché.
Les tours de refroidissement des centres de données assèchent nos réserves d’eau
Ce que vous ne savez peut-être pas, c’est que dans tous les centres de donnes, surtout ceux des systèmes d’IA, l’ensemble des serveurs est refroidi par des tours de refroidissement.
C’est ainsi que l’on maintient la température et par la suite, éviter la surchauffe. Or, l’eau qui sort des tours de refroidissement n’est pas récupérable.
À titre d’exemple, l’entraînement du modèle GPT-3 a nécessité environ 700 mètres cubes d’eau. Je n’ose même pas imaginer la quantité d’eau qu’OpenAI a utilisée pour former le modèle GPT-4o.
Parallèlement, Microsoft, le principal partenaire d’OpenAI et qui a investi jusqu’à 13 milliards de dollars dans l’entreprise, a également annoncé une hausse de 34 % au niveau de sa consommation d’eau entre 2012 et 2022.
Cette augmentation correspond à 2 500 piscines olympiques. Shaolei Ren, cercheur à l’université de Californie, avance que cette consommation excessive est généralement due à l’entraînement de Copilot et de la collaboration entre Microsoft et OpenAI.
« Le problème, c’est que la majorité d’entre nous ne connaît pas le danger qu’implique l’utilisation quotidienne des chatbots comme ChatGPT. Et c’est là que ça s’aggrave puisqu’à défaut d’informations sur les ressources nécessaires pour faire fonctionner ces systèmes d’IA, on ne pourra jamais les conserver », a-t-il ajouté.
De son côté, Microsoft indique avoir des objectifs de durabilité assez clairs dans sa politique. Notamment la surveillance de ses émissions, l’accélération des progrès de développement d’IA, et l’utilisation d’énergie renouvelable pour l’alimentation de ses centres de données.
L’IA générative va vider les nappes phréatiques de la ville de Des Moines qui fait déjà face à la sécheresse
Microsoft, partenaire clé d’Open AI, s’est aussi engagé à fournir les ressources informatiques massives nécessaires au développement des futurs modèles d’IA.
Cela implique la construction de vastes centres de données. Et l’Iowa, avec ses grands espaces et son climat tempéré, semble offrir l’environnement idéal pour ces installations.
Par contre, à Des Moines, capitale de l’Iowa, chaque requête adressée à ces systèmes d’IA tels que ChatGPT contribue à aggraver la sécheresse locale.
ChatGPT est responsable… de l’aggravation de la sécheresse aux USA. Comment ?
— Disclose (@Disclose_ngo) September 19, 2024
Pour le savoir, lisez "Planète Investigation", la nouvelle newsletter de @Disclose_ngo qui vous fait découvrir une enquête majeure sur l’environnement passée sous les radarshttps://t.co/Tf7UgABdGD pic.twitter.com/56QqbWqwBG
Ces centres de données consomment en effet des milliers de litres d’eau souterraine au quotidien. Quitte à vider les nappes phréatiques du pays.
L’étude conclut alors en soulignant les conflits potentiels liés à l’utilisation de l’eau par l’IA générative aux États-Unis.
Ce problème est d’autant plus préoccupant que 44 millions d’Américains n’ont déjà qu’un accès limité à l’eau potable.
Et je parle même pas du projet Colossus d’Elon Musk qui deviendra le plus grand centre de données du monde.
- Partager l'article :