L'impact environnemental de l'IA générative commence à inquiéter
Une étude de l'Agence internationale de l'énergie pointe l'impact de l'IA générative sur la consommation d'électricité du parc de datacenters dans le monde. Avec la diffusion de plus en plus large de la technologie, les usages pèsent désormais plus que l'entraînement des modèles.
PublicitéSelon l'AIE (Agence internationale de l'énergie), l'appétit énergétique des datacenters pourrait devenir si élevé que leur besoin en électricité équivaudrait à celui de l'ensemble du Japon, soit plus de 1 000 TWh en 2026 dans l'hypothèse la plus pessimiste de l'agence. Dans son scénario central, plus modéré, l'AIE prévoit une consommation totale d'un peu plus de 800 TWh dans deux ans. Quelle que soit l'évolution réelle dans les deux ans qui viennent, on avoisine un doublement de l'appétit des datacenters en 4 ans, la consommation en 2022 étant estimée à 460 TWh (soit 2% de la demande mondiale d'électricité). Le tout alors que l'agence anticipe, tous usages confondus, une croissance moyenne de la demande en électricité dans le monde de 3,4% par an d'ici à 2026.
Aux États-Unis, qui concentrent un tiers des 8 000 datacenters en fonctionnement en 2022, la consommation de ces infrastructures devrait représenter 6% de la demande d'électricité en 2026 (contre 4% en 2022). Pour l'Europe et ses 1240 datacenters en 2022, l'AIE prévoit un passage de 100 TWh il y a deux ans à 150 TWh en 2026, avec la création de nouveaux centres. Certains pays seront réellement mis sous tension : en Irlande, où le parc de datacenters croit rapidement (82 en fonctionnement, 14 en construction et 40 supplémentaires planifiés), la part de l'électricité nationale engloutie par les centres IT devrait tutoyer le tiers du total en 2026, ce qui a poussé le régulateur du pays à mettre en place de nouveaux critères afin d'éviter de mettre en péril la stabilité du réseau électrique du pays. Enfin, le cas de la Chine reste moins détaillé par le rapport (faute de données détaillées), l'AIE estimant toutefois que les datacenters du pays auront besoin de 300 TWh en 2026, soit 40 TWh de plus que les États-Unis à la même période.
Le moteur de recherche dopé à l'IA générative ? Deux réacteurs nucléaires
Pour expliquer cette envolée des besoins énergétiques, l'AIE met sur la sellette deux technologies très gourmandes en ressources : l'IA et les cryptomonnaies. L'agence s'inquiète notamment des besoins exponentiels de la première. Et illustre l'explosion de la consommation électrique qu'elle induit au travers de deux exemples. A commencer par l'évolution de la recherche sur Internet, de plus en plus dopée à l'IA générative. « En comparant la demande moyenne d'électricité d'une recherche Google (0,3 Wh d'électricité) à celle d'une requête ChatGPT d'OpenAI (2,9 Wh par requête) et en considérant 9 milliards de recherches quotidiennes, cela nécessiterait près de 10 TWh d'électricité supplémentaire en un an », explique le rapport. Soit environ un tiers de la production annuelle de la centrale de Gravelines et de ses 6 réacteurs pour cette seule transition.
PublicitéAutre élément mis en avant par l'AIE, les ventes de Nvidia, qui domine très largement le marché des accélérateurs GPU pour les applications d'IA. En 2023, le constructeur a « livré 100 000 unités consommant au total 7,3 TWh par an », relève l'agence. Sauf qu'en 2026, l'industrie s'attend à voir les besoins en GPU être multipliés par 10 par rapport à l'an dernier. Même en anticipant une amélioration de l'efficacité énergétique de chaque unité de calcul, l'explosion de la consommation d'énergie provenant du parc de GPU s'annonce donc massive.
Les modèles génériques en question
Pour effectuer ses projections, l'AIE se heurte à l'absence de transparence d'un segment d'une industrie qui ne sait que trop que la consommation électrique de modèles d'IA déployés toujours plus largement et comportant de plus en plus en plus de paramètres est un sujet embarrassant à l'heure où ces acteurs tentent de se parer des habits du numérique responsable. OpenAI, par exemple, ne divulgue aucune information sur les capacités des datacenters faisant fonctionner ses modèles d'IA générative, ni même la taille (soit le nombre de paramètres) de GPT 4.
En novembre, des chercheurs de la start-up franco-américaine Hugging Face et de l'université Carnegie Mellon publiaient une étude sur le coût environnemental de l'usage massif l'IA, au-delà de la seule phase d'entraînement des modèles, elle-même gourmande en énergie. Et de pointer que l'analyse de l'impact des usages aboutit à des conclusions très différentes de celles à laquelle on parvient en se concentrant sur cette seule phase d'apprentissage.
« La formation d'un modèle unique pour des tâches multiples peut en effet être plus économe en énergie, si l'on ne considère que les coûts d'entraînement, mais ces gains peuvent facilement être annulés au cours de la durée de vie du modèle, étant donné la quantité d'inférences effectuées lorsque ces modèles sont déployés dans des applications à large audience, telles que le chat et la recherche sur le web », écrivaient alors Sasha Luccioni, Yacine Jernite et Emma Strubell, se basant sur l'étude de 88 modèles et de 10 tâches de nature différente. Et de pointer le fait que les architectures génératives polyvalentes sont de plusieurs ordres de grandeur plus coûteuses en émissions de gaz à effet de serre que les systèmes spécialisés sur une tâche donnée. Y compris quand on contrôle le nombre de paramètres du modèle générique, ajoutaient les chercheurs. Cette même étude mettait aussi en évidence l'impact environnemental de la génération d'images, jusqu'à 100 plus émettrice de CO2 par inférence qu'une classification de texte.
Article rédigé par
Reynald Fléchaux et Jacques Cheminat
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire