La croissance rapide des centres de données pour l'intelligence artificielle (IA) soulève des inquiétudes croissantes concernant leur impact environnemental. Alors que la demande mondiale en électricité pour ces infrastructures devrait plus que doubler d'ici 2030, des chercheurs du MIT et d'autres institutions explorent des solutions pour réduire leurs émissions de gaz à effet de serre. Ces efforts se concentrent sur l'amélioration de l'efficacité énergétique des algorithmes et la refonte de la conception des centres de données.
Points Clés
- La demande électrique des centres de données devrait atteindre 945 térawattheures d'ici 2030.
- Environ 60% de cette augmentation de la demande sera couverte par des combustibles fossiles.
- Les innovations visent à réduire le carbone opérationnel et le carbone intrinsèque des infrastructures.
- Des améliorations algorithmiques et matérielles peuvent réduire la consommation d'énergie de l'IA.
- La planification intelligente des charges de travail et l'utilisation d'énergies renouvelables sont cruciales.
L'augmentation de la consommation énergétique des centres de données
Les infrastructures qui hébergent et entraînent les modèles d'intelligence artificielle consomment des quantités d'énergie de plus en plus importantes. Un rapport de l'Agence Internationale de l'Énergie (AIE) d'avril 2025 estime que la demande mondiale en électricité de ces centres de données dépassera 945 térawattheures d'ici 2030. Ce chiffre est légèrement supérieur à la consommation énergétique totale du Japon.
Une analyse de Goldman Sachs Research d'août 2025 prévoit qu'environ 60% de cette demande accrue sera satisfaite par la combustion de combustibles fossiles. Cela pourrait entraîner une augmentation d'environ 220 millions de tonnes des émissions mondiales de carbone. À titre de comparaison, parcourir 8 000 kilomètres avec une voiture à essence produit environ 1 tonne de dioxyde de carbone.
Statistique Clé
En 2030, la demande électrique des centres de données pourrait dépasser la consommation annuelle du Japon, avec une contribution significative des énergies fossiles aux émissions de carbone.
Réduction du carbone opérationnel et intrinsèque
Les discussions sur la réduction de l'empreinte carbone de l'IA générative se concentrent souvent sur le «carbone opérationnel». Il s'agit des émissions liées à l'utilisation des processeurs, ou GPU, à l'intérieur d'un centre de données. Cependant, il est essentiel de considérer également le «carbone intrinsèque», c'est-à-dire les émissions générées lors de la construction du centre de données.
« Nous sommes sur une voie où les effets du changement climatique ne seront pleinement connus que lorsqu'il sera trop tard pour agir », déclare Jennifer Turliuk, MBA '25, qui travaille à aider les décideurs politiques, les scientifiques et les entreprises à considérer les coûts et avantages multifacettes de l'IA générative. « C'est une occasion unique d'innover et de rendre les systèmes d'IA moins gourmands en carbone. »
La construction d'un centre de données implique des tonnes d'acier, de béton, d'unités de climatisation, de matériel informatique et de kilomètres de câbles. Tout cela consomme une quantité massive de carbone. C'est pourquoi des entreprises comme Meta et Google étudient des matériaux de construction plus durables. Le coût est également un facteur important dans ces décisions.
L'impact de la construction des centres de données
Les centres de données sont des bâtiments de grande taille. Le plus grand du monde, le China Telecomm-Inner Mongolia Information Park, couvre environ 1 million de mètres carrés. Ces infrastructures ont une densité énergétique 10 à 50 fois supérieure à celle d'un immeuble de bureaux normal, selon Vijay Gadepally, scientifique principal au MIT Lincoln Laboratory. « Le côté opérationnel n'est qu'une partie de l'histoire. Certaines de nos actions pour réduire les émissions opérationnelles peuvent aussi aider à réduire le carbone intrinsèque, mais nous devons en faire davantage à l'avenir », ajoute-t-il.
Comprendre le Carbone Intrinsèque
Le carbone intrinsèque fait référence aux émissions de gaz à effet de serre produites lors de la fabrication des matériaux, du transport et de la construction d'un bâtiment ou d'une infrastructure. Pour les centres de données, cela inclut la production de béton, d'acier, de composants électroniques et de systèmes de refroidissement.
Stratégies pour réduire les émissions opérationnelles
Plusieurs stratégies peuvent être mises en œuvre pour diminuer les émissions de carbone opérationnelles des centres de données d'IA. Ces mesures peuvent être comparées à celles utilisées pour économiser l'énergie à la maison.
« Même si vous avez les pires ampoules de votre maison en termes d'efficacité, les éteindre ou les baisser consommera toujours moins d'énergie que de les laisser fonctionner à plein régime », explique Vijay Gadepally. De la même manière, la recherche du Supercomputing Center a montré que « réduire » la puissance des GPU dans un centre de données, afin qu'ils consomment environ trois dixièmes de leur énergie, a un impact minimal sur la performance des modèles d'IA. Cela facilite également le refroidissement du matériel.
Matériel moins énergivore et optimisation des algorithmes
Une autre stratégie consiste à utiliser du matériel informatique moins gourmand en énergie. Les charges de travail intensives de l'IA générative, comme l'entraînement de nouveaux modèles de raisonnement, nécessitent souvent de nombreux GPU fonctionnant simultanément. L'analyse de Goldman Sachs estime qu'un système de pointe pourrait bientôt compter jusqu'à 576 GPU connectés.
Cependant, les ingénieurs peuvent parfois obtenir des résultats similaires en réduisant la précision du matériel informatique. Par exemple, ils peuvent utiliser des processeurs moins puissants, mais optimisés pour une charge de travail IA spécifique. Il existe également des mesures pour améliorer l'efficacité de l'entraînement des modèles d'apprentissage profond avant leur déploiement.
Le groupe de Gadepally a découvert qu'environ la moitié de l'électricité utilisée pour entraîner un modèle d'IA sert à obtenir les 2 ou 3 derniers points de pourcentage de précision. Arrêter le processus d'entraînement plus tôt peut économiser beaucoup de cette énergie. « Il peut y avoir des cas où une précision de 70% est suffisante pour une application particulière, comme un système de recommandation pour le commerce électronique », dit-il.
Les chercheurs peuvent également tirer parti d'autres mesures d'amélioration de l'efficacité. Un postdoctorant du Supercomputing Center a par exemple créé un outil. Il a permis d'éviter environ 80% des cycles de calcul gaspillés. Cela a considérablement réduit la demande énergétique de l'entraînement sans diminuer la précision du modèle.
Améliorations de l'efficacité et les 'negaflops'
L'innovation constante dans le matériel informatique continue d'améliorer l'efficacité énergétique des modèles d'IA. Même si les améliorations de l'efficacité énergétique ont ralenti pour la plupart des puces depuis 2005, la quantité de calcul que les GPU peuvent effectuer par joule d'énergie s'est améliorée de 50 à 60% chaque année, selon Neil Thompson, directeur du FutureTech Research Project au MIT.
« La tendance toujours en cours de la 'Loi de Moore' d'obtenir de plus en plus de transistors sur une puce reste importante pour de nombreux systèmes d'IA, car l'exécution d'opérations en parallèle est très précieuse pour améliorer l'efficacité », explique Thompson. Encore plus significatif, ses recherches indiquent que les gains d'efficacité des nouvelles architectures de modèles doublent tous les huit ou neuf mois. Ces architectures peuvent résoudre des problèmes complexes plus rapidement, consommant moins d'énergie pour obtenir les mêmes résultats, voire de meilleurs.
Le concept de 'negaflop'
Thompson a inventé le terme « negaflop » pour décrire cet effet. De la même manière qu'un « négawatt » représente l'électricité économisée grâce à des mesures d'économie d'énergie, un « negaflop » est une opération de calcul qui n'a pas besoin d'être effectuée grâce à des améliorations algorithmiques. Cela inclut la suppression de composants inutiles d'un réseau neuronal ou l'utilisation de techniques de compression. Ces techniques permettent aux utilisateurs d'en faire plus avec moins de calcul.
« Si vous avez besoin d'utiliser un modèle très puissant aujourd'hui pour accomplir votre tâche, dans quelques années, vous pourrez peut-être utiliser un modèle beaucoup plus petit pour faire la même chose. Cela aurait une empreinte environnementale beaucoup plus faible. Rendre ces modèles plus efficaces est la chose la plus importante que vous puissiez faire pour réduire les coûts environnementaux de l'IA », affirme Neil Thompson.
Maximiser les économies d'énergie
Réduire la consommation globale d'énergie des algorithmes d'IA et du matériel informatique diminuera les émissions de gaz à effet de serre. Cependant, toutes les sources d'énergie ne sont pas égales, ajoute Vijay Gadepally. « La quantité d'émissions de carbone par kilowattheure varie considérablement, même au cours de la journée, ainsi que sur un mois et une année », dit-il.
Les ingénieurs peuvent tirer parti de ces variations en ajustant la flexibilité des charges de travail de l'IA et des opérations des centres de données pour maximiser la réduction des émissions. Par exemple, certaines charges de travail d'IA générative n'ont pas besoin d'être effectuées entièrement en même temps. Diviser les opérations de calcul pour que certaines soient effectuées plus tard, lorsque la part d'électricité provenant de sources renouvelables comme le solaire et l'éolien est plus élevée, peut grandement contribuer à réduire l'empreinte carbone d'un centre de données, explique Deepjyoti Deka, chercheur scientifique au MIT Energy Initiative.
Centres de données intelligents et stockage d'énergie
Deka et son équipe étudient également des centres de données « plus intelligents ». Dans ces centres, les charges de travail d'IA de plusieurs entreprises utilisant le même équipement informatique sont ajustées de manière flexible pour améliorer l'efficacité énergétique. « En considérant le système dans son ensemble, notre espoir est de minimiser la consommation d'énergie et la dépendance aux combustibles fossiles, tout en maintenant les normes de fiabilité pour les entreprises et les utilisateurs d'IA », explique Deka.
Les chercheurs explorent également l'utilisation d'unités de stockage d'énergie à long terme dans les centres de données. Ces unités stockent l'énergie excédentaire pour les périodes où elle est nécessaire. Avec ces systèmes, un centre de données pourrait utiliser l'énergie stockée, générée par des sources renouvelables pendant une période de forte demande. Cela permettrait d'éviter l'utilisation de générateurs de secours diesel en cas de fluctuations du réseau.
« Le stockage d'énergie à long terme pourrait changer la donne ici. Nous pouvons concevoir des opérations qui modifient réellement le mix d'émissions du système pour qu'il repose davantage sur les énergies renouvelables », ajoute Deka.
Optimisation par la Localisation
La localisation d'un centre de données peut réduire son empreinte carbone. Par exemple, Meta opère un centre à Luleå, en Suède, où les températures plus fraîches réduisent les besoins en électricité pour le refroidissement. Des études envisagent même des centres de données sur la lune, alimentés presque entièrement par des énergies renouvelables.
Solutions basées sur l'IA pour la transition énergétique
Actuellement, l'expansion de la production d'énergie renouvelable sur Terre ne suit pas le rythme de croissance rapide de l'IA. C'est un obstacle majeur à la réduction de son empreinte carbone, selon Jennifer Turliuk. Les processus d'examen locaux, étatiques et fédéraux requis pour les nouveaux projets d'énergie renouvelable peuvent prendre des années.
Des chercheurs au MIT et ailleurs explorent l'utilisation de l'IA pour accélérer le processus de connexion de nouveaux systèmes d'énergie renouvelable au réseau électrique. Par exemple, un modèle d'IA générative pourrait simplifier les études d'interconnexion. Ces études déterminent l'impact d'un nouveau projet sur le réseau électrique, une étape qui prend souvent des années.
L'IA pourrait jouer un rôle majeur dans l'accélération du développement et de la mise en œuvre des technologies d'énergie propre. « L'apprentissage automatique est excellent pour gérer des situations complexes, et le réseau électrique est considéré comme l'une des machines les plus grandes et les plus complexes au monde », ajoute Turliuk.
- L'IA pourrait aider à optimiser la prédiction de la production d'énergie solaire et éolienne.
- Elle pourrait identifier les emplacements idéaux pour de nouvelles installations.
- L'IA pourrait être utilisée pour la maintenance prédictive et la détection de pannes pour les panneaux solaires ou d'autres infrastructures d'énergie verte.
- Elle pourrait surveiller la capacité des câbles de transmission pour maximiser l'efficacité.
En aidant les chercheurs à collecter et analyser d'énormes quantités de données, l'IA pourrait éclairer des interventions politiques ciblées. Ces interventions viseraient à obtenir le meilleur rendement des domaines tels que les énergies renouvelables, explique Turliuk. Avec ses collaborateurs, elle a développé le Net Climate Impact Score. Ce cadre peut aider à déterminer l'impact climatique net des projets d'IA, en considérant les émissions et autres coûts environnementaux, ainsi que les avantages environnementaux potentiels futurs.
En fin de compte, les solutions les plus efficaces résulteront probablement de collaborations entre les entreprises, les régulateurs et les chercheurs, le monde universitaire montrant la voie, conclut Jennifer Turliuk. « Chaque jour compte. C'est une occasion unique d'innover et de rendre les systèmes d'IA moins intenses en carbone. »





