La demande en énergie des centres de données américains pourrait presque tripler au cours des trois prochaines années, consommant jusqu'à 12 % de l'électricité du pays, alors que l'industrie subit une transformation en matière d'intelligence artificielle, selon un rapport non publié soutenu par le ministère de l'Énergie et consulté par Reuters.

Le rapport du Lawrence Berkeley National Laboratory, dont la publication est prévue vendredi, intervient alors que l'industrie énergétique américaine et les agences gouvernementales tentent de comprendre comment l'augmentation de la demande des centres de données des grandes technologies affectera les réseaux d'électricité, les factures d'énergie et la météo.

D'ici 2028, la consommation énergétique annuelle des centres de données pourrait atteindre entre 74 et 132 gigawatts, soit entre 6,7 % et 12 % de la consommation électrique totale des États-Unis, selon le rapport du Berkeley Lab. disponibilité et demande pour un type de puce d’intelligence artificielle appelé GPU. Actuellement, les centres de données représentent un peu plus de 4 % de la charge énergétique du pays.

« Cela nous indique vraiment où se situe la frontière en termes de demande croissante d'énergie aux États-Unis », a déclaré Avi Shultz, directeur du Bureau de l'efficacité industrielle et de la décarbonisation du DOE.

La demande en énergie des centres de données est restée pratiquement stable du début au milieu des années 2010 malgré une croissance significative du secteur, après que l'efficacité informatique et le passage de petits centres dispersés à de grands sites basés dans le cloud réduiront le besoin d'équipements informatiques et les frais généraux énergivores. .

À partir de 2017, le déploiement de serveurs accélérés par GPU a permis de plus que doubler la consommation d'énergie du secteur sur une période de six ans, selon le rapport.

L’IA, qui nécessite des puces de plus en plus puissantes et des systèmes de refroidissement intenses, est le principal moteur de la croissance prévue des centres de données.

Lorsque le dernier rapport a été publié en 2016, les serveurs d'IA dans les centres de données représentaient environ 2 % de la consommation énergétique totale des serveurs.

« Il y a beaucoup de différence dans l'industrie entre l'époque où nous l'avons examiné en 2016 et celle où nous l'examinons aujourd'hui », a déclaré le chercheur principal du rapport, Arman Shehabi, scientifique au Berkeley Lab, et son équipe de chercheurs recommandent de publier le rapport. rapport annuel ou tous les deux ans pour suivre de plus près les tendances des centres de données.

Les estimations du rapport sont basées sur des calculs de consommation électrique des GPU installés et d'autres équipements informatiques des centres de données, en utilisant des informations accessibles au public, des sociétés d'études de marché et des analyses réalisées par des dirigeants du secteur de l'énergie et des centres de données.

Les chercheurs ont recommandé des stratégies pour accroître la transparence dans l'industrie, notamment en collectant davantage d'informations sur les centres de données, qui seraient rapportées de manière anonyme, sur la consommation d'électricité et des détails tels que les capacités de traitement et le type de charge de travail, qui sont désormais considérés comme une propriété exclusive.

« En montrant quelle est la consommation d'énergie et, plus important encore, ce qui cause la croissance de la consommation d'énergie, cela nous aide à réfléchir aux opportunités qui existent pour réaliser des gains d'efficacité », a déclaré Shehabi. Le rapport fait également des suggestions pour poursuivre la recherche et le développement de stratégies d'efficacité énergétique pour les centres de données d'IA en plein essor du pays.

Avec des informations de Reuters.

A lire également