
Intelligence artificielle, une croissance de l’infrastructure sous haute tension
L’intelligence artificielle irrigue l’innovation dans toutes les industries. Son utilisation explose et, avec elle, sa consommation électrique. La demande d’IA est telle qu’elle interroge quant à la capacité des infrastructures énergétiques actuelles à suivre le rythme.
Avr 2025Par Éric Masson, associé Stratégie d’Entreprise chez IBM Consulting France
L’accélération de la croissance de la consommation d’IA est directement liée à l’augmentation des activités d’entraînement des modèles ainsi qu’au volume exponentiel d’inférences en temps réel qui correspond à l’exécution des requêtes utilisateurs.
Ces activités sont massivement exécutées aujourd’hui dans des centres de données. L’Agence internationale de l’énergie (IEA) prévoit une consommation électrique des data centers de plus de 1 000 TWh dès 2026, un chiffre supérieur à la consommation combinée de la France et de l’Allemagne. Une autre étude de Goldman-Sachs prévoit une augmentation de 160 % de la demande mondiale en énergie des data centers entre 2024 et 2030, notamment due à une consommation multipliée par plus de 8 pour l’IA. Cette hausse de la consommation énergétique nécessiterait une petite quarantaine de nouvelles tranches nucléaires rien que pour l’IA et plus de 85 pour couvrir l’ensemble des besoins pour les centres de données ! L’étude estime que seulement 10 % de cette capacité sera disponible d’ici à 2030. Prenant en compte les besoins additionnels induits par l’électrification galopante de nos comportements – vies connectées, transition énergétique (industrie, mobilités…), usages individuels (climatisation, chauffage)… – il devient clair qu’un mur énergétique se dresse devant nous et qu’il va nous falloir beaucoup d’innovations pour le traverser et éviter des conflits d’usage. Concernant l’IA, l’innovation à laquelle nous allons maintenant nous intéresser est celle qui transforme l’infrastructure d’IA.
Les trois piliers qui construisent la consommation énergétique
L’infrastructure de calcul est le premier pilier de consommation énergétique de l’IA. Pour les applications IA, le marché est aujourd’hui largement dominé par les GPU de Nvidia (98 % de part de marché pour les GPU en data centers). Les TPU de Google, massivement utilisées aujourd’hui pour des besoins internes (data centers Google Cloud), sont des Asic développés spécifiquement pour accélérer le machine learning et plus économes en énergie que les GPU. Quant aux NPU, elles représentent une technologie encore plus récente, leur architecture imite celle d’un cerveau. Elles sont spécialisées pour les tâches d’IA et le machine learning, et sont moins consommatrices en énergie que les GPU. La recherche du meilleur mix entre vitesse de calcul, versatilité des types de traitement et coût énergétique est au cœur de l’innovation pour l’ensemble des fabricants. Tous travaillent sur la réduction de la consommation énergétique.
L’infrastructure de données est le deuxième pilier de consommation d’énergie pour l’IA.
Le stockage, la gestion d’ensembles massifs de données, leurs traitements continus (data pipelines) entraînent une consommation d’électricité élevée. Le développement de centres de données durables, alimentés par des énergies renouvelables, pour le refroidissement par exemple, le recours à la compression des données et à des formats de stockage plus efficients énergétiquement ou l’utilisation de stratégies cold storage permettant d’adapter le stockage des données en fonction de leur fréquence de consultation nourrissent une innovation au service de la diminution de la consommation électrique pour les infrastructures de données.
L’infrastructure réseau est le troisième pilier de l’infrastructure IA. Le besoin en transferts rapides de données entre les nœuds de calcul et les unités de stockage nécessite des interconnexions à haut débit consommatrices d’énergie électrique. L’optimisation des interconnexions (NVLink, Infiniband), l’apprentissage fédéré ou l’edge computing, qui déporte l’exécution des modèles d’IA au plus proche des utilisateurs (sur leurs smartphones, sur les devices IoT…), développent des trajectoires d’innovation qui offrent davantage de frugalité énergétique.
Alors que l’IA poursuit sa croissance exponentielle, ses besoins énergétiques présentent un défi majeur pour les infrastructures mondiales. L’innovation dans les infrastructures de calcul, de données et de réseau doivent rapidement garantir le développement d’une IA beaucoup plus durable.
Bio express
Éric Masson dirige la ligne de service Stratégie d’Entreprise d’IBM Consulting France, une entité qui regroupe des consultants en management rompus aux problématiques de direction générale ou fonctionnelle et susceptibles d’en tirer des sujets de transformation. Il a occupé plusieurs postes dans des cabinets de conseil de référence, chez un grand du marketing et un leader mondial de la fourniture de données, de services et de technologies dans le domaine de la santé.