L’intelligence artificielle (IA) suscite des sentiments mitigés dans le débat sur la transition écologique. D’un côté, son développement rapide — notamment, c’est l’éléphant dans la pièce, celui des IA génératives — intensifie la pression énergétique sur les data centers. De l’autre, elle représente un levier puissant pour optimiser leur fonctionnement et réduire leur empreinte carbone, à condition de l’utiliser judicieusement. On verra qu’en plaçant l’IA au service de la sobriété numérique, elle peut accélérer la transition écologique des infrastructures numériques.
Optimisation énergétique et réduction de la charge inutile : l’IA comme outil de pilotage fin
L’IA est déjà employée dans de nombreux data centers pour améliorer l’efficacité énergétique, notamment en optimisant et réduisant les besoins en refroidissement. Google, par exemple, a réduit de 40 % la consommation liée au refroidissement de certains de ses sites grâce à un système d’apprentissage automatique développé avec DeepMind. Ces technologies permettent une régulation dynamique en temps réel de la température, de la ventilation et de la charge des serveurs, en s’adaptant aux conditions environnementales.
Microsoft a adopté une approche similaire, combinant l'IA avec des captuers pour surveiller les performances énergétiques et identifier les dérives avant qu’elles ne deviennent problématiques.
Ces exemples montrent ainsi comment l’intelligence artificielle peut optimiser la gestion des ressources. D'une part, en réalisant des économies significatives en matière de consommation d’électricité. Mais également, en réduisant les émissions indirectes, comme celles liées à la consommation d’eau.
Un autre usage de l’IA dans les data centers concerne la gestion des charges de travail allouées. En effet, en analysant les pics d’utilisation et les prévisions de trafic, des modèles prédictifs peuvent répartir les calculs sur différents serveurs ou les décaler dans le temps pour éviter les surcharges inutiles. Cela favorise une meilleure utilisation des ressources matérielles, tout en réduisant la nécessité de prendre des marges pour estimer la capacité de ses machines.
Certaines entreprises intègrent même des données sur la disponibilité des énergies renouvelables pour adapter le moment où les tâches sont exécutées. On parle alors de carbon-aware computing, une approche prometteuse mais encore peu généralisée.
Vers une IA sobre : une nécessité écologique et économique
Cependant, ces gains ne suffiront pas à contenir l’explosion de la consommation énergétique globale si les modèles d’IA eux-mêmes continuent de croître de manière exponentielle. L’entraînement de GPT-3, par exemple, aurait nécessité plus de 1 200 MWh d’électricité — soit la consommation annuelle moyenne de 130 foyers européens — et généré plus de 500 tonnes de CO2. Et ce chiffre ne prend pas en compte le coût environnemental de l’infrastructure, du refroidissement ou de la réutilisation du modèle à grande échelle.
D’où l’importance croissante du concept d’IA frugale ou sobre : une démarche visant à réduire l’empreinte environnementale des systèmes d’intelligence artificielle, sans compromettre leur utilité. Cette approche se traduit concrètement par :
- Des modèles plus petits mais spécialisés, répondant à des besoins ciblés sans nécessiter des milliards de paramètres.
- L’optimisation des algorithmes pour consommer moins d’énergie lors de l’inférence, en ajustant la précision des calculs ou en utilisant des formats de données plus légers.
- Le recyclage de modèles existants, par du transfer learning, plutôt que de tout réentraîner depuis zéro.
- La mutualisation des ressources de calcul dans des environnements partagés, plutôt que des clusters dédiés peu utilisés.
En diminuant la taille, la fréquence ou la complexité des modèles utilisés, on réduit logiquement la charge de calcul sur les serveurs - et donc, la consommation électrique des data centers. D’ailleurs, cette logique de sobriété s’applique également au déploiement : limiter les appels inutiles à l’IA, par exemple en évitant qu’un assistant vocal déclenche des calculs en ligne pour des requêtes triviales - ou encore sensibiliser les utilisateurs aux impacts de l’IA lors de leurs dialogues avec les IA génératives les plus répandues aujourd’hui.
Plusieurs initiatives vont dans ce sens : le programme Green AI du Allen Institute, ou autre exemple, l’indicateur Carbon Emissions désormais intégré à la plateforme Hugging Face.
Efficacité et sobriété, une convergence nécessaire
Oui, l’intelligence artificielle peut contribuer activement à la transition écologique des data centers. En tant qu’outil d’optimisation, elle améliore significativement l’efficacité énergétique. Et lorsqu’elle est pensée dans une logique de sobriété — depuis sa conception jusqu’à son déploiement — elle permet de limiter la consommation liée à son propre usage.
Cependant, l’IA n’est pas une solution miracle. Son impact réel dépendra de son intégration dans des stratégies globales, combinant pilotage intelligent des ressources, éco-conception des services numériques, et infrastructures alimentées par des énergies peu carbonées. Car un data center optimisé reste émetteur, s’il repose sur un mix énergétique polluant (un petit clin d'œil aux initiatives de data center “made in France” qui pourraient permettre des réductions drastiques aux équivalents CO2).
Par Ceyhan Dalkilic.
Diplômé des Arts et Métiers ParisTech avec un Master en Recherche, Innovation, Conception et Ingénierie obtenu en 2018, Ceyhan Dalkilic débute sa carrière en tant que Consultant chez Solutec. Il intègre par la suite le cabinet mc2i en décembre 2020, en tant que Consultant. Il évolue plus tard vers le poste d'Offer Manager - Innovation et Technologies, qu'il occupe pendant 2 ans avant d'occuper son poste actuel. Aujourd'hui, Ceyhan est Manager, depuis décembre 2023.