Les data centers émettent aujourd'hui environ cent quatre-vingts millions de tonnes de CO2 par an, soit un demi pour cent des émissions mondiales. L'aviation commerciale, elle, en émet huit cent quatre-vingt-deux millions de tonnes, soit environ deux pour cent. Le rapport est de un à cinq. Mais la trajectoire est ce qui compte, et c'est là que les courbes racontent quelque chose de préoccupant : la consommation électrique des data centers croît de douze pour cent par an depuis 2017, quand celle des autres secteurs progresse de deux à trois pour cent. Si cette dynamique se maintient, les projections de l'Agence internationale de l'énergie placent les data centers à neuf cent quarante-cinq TWh en 2030 et potentiellement mille deux cents TWh en 2035. On ne parle plus d'un secteur marginal.
Le gouffre énergétique, chiffre par chiffre#
En 2024, les data centers mondiaux ont consommé quatre cent quinze TWh, soit environ un virgule cinq pour cent de l'électricité mondiale, selon le rapport Energy and AI de l'AIE publié en 2025. Pour situer : c'est plus que la consommation électrique annuelle de la France entière. La projection 2030 porte ce chiffre à trois pour cent de l'électricité mondiale, avec une croissance de quinze pour cent par an, quatre fois plus rapide que n'importe quel autre secteur industriel.
L'intelligence artificielle pèse pour l'instant entre cinq et quinze pour cent de cette consommation. Mais sa part projetée en 2030 se situe entre trente-cinq et cinquante pour cent. L'entraînement d'un modèle comme GPT-4 a nécessité environ cinquante GWh. Une requête GPT-4o consomme 0,42 Wh contre 0,30 Wh pour une recherche Google classique, soit quarante pour cent de plus. Et l'inférence, c'est-à-dire le moment où le modèle répond à vos questions, représente entre quatre-vingts et quatre-vingt-dix pour cent de la puissance mobilisée par l'IA. L'entraînement fait les gros titres ; l'usage quotidien fait les factures.
J'ai passé deux jours à reconstituer les bilans énergétiques des trois principaux hyperscalers à partir de leurs rapports de durabilité 2024. Ce qui m'a frappé, c'est l'écart entre ce qu'ils annoncent et ce que les chiffres disent quand on les lit attentivement.
Ce que les rapports de durabilité ne mettent pas en avant#
Microsoft a consommé 29,8 millions de MWh en 2024, soit une hausse de cent soixante-seize pour cent par rapport à 2020. Google atteint 32,2 millions de MWh, en hausse de cent douze pour cent sur la même période. Amazon ne publie pas sa consommation électrique brute de la même façon, mais son empreinte carbone totale atteint 68,25 millions de tonnes de CO2 équivalent.
Là où ça devient intéressant, c'est dans la distinction entre deux méthodes de comptage que presque personne ne lit dans les rapports : le market-based et le location-based. Le market-based comptabilise les certificats d'énergie renouvelable (RECs) achetés par l'entreprise ; le location-based mesure les émissions réelles liées au mix électrique là où les serveurs tournent physiquement. La différence est vertigineuse. Les émissions Scope 2 location-based de Microsoft s'élèvent à 9,96 millions de tonnes de CO2, en hausse de cent trente pour cent. En market-based, ce chiffre tombe à deux cent cinquante-neuf mille tonnes. Un facteur de presque quarante.
Google affiche 11,28 millions de tonnes en location-based (hausse de quatre-vingt-douze pour cent), et des chiffres market-based beaucoup plus flatteurs. L'écart n'est pas une erreur comptable ; c'est le fossé entre acheter un certificat attestant que quelqu'un, quelque part, a produit de l'énergie renouvelable, et alimenter effectivement ses serveurs avec cette énergie. Les deux approches sont légales, normées. Mais elles ne racontent pas la même histoire.
Sur ce point, j'ai encore du mal à trancher. Les RECs financent réellement des projets renouvelables. Dire qu'ils ne servent à rien serait faux. Mais les présenter comme preuve de neutralité carbone, quand les émissions réelles explosent, c'est au minimum un exercice de communication sélective.
L'eau qu'on oublie de compter#
On parle beaucoup d'électricité. Beaucoup moins d'eau. Google a consommé trente milliards de litres d'eau en 2024, en hausse de vingt-huit pour cent. Aux États-Unis, les data centers ont utilisé environ soixante-quatre milliards de litres en 2023, avec un doublement possible d'ici 2028. Le refroidissement des serveurs, et particulièrement des puces dédiées à l'IA, est extraordinairement gourmand en eau. Les systèmes de refroidissement par évaporation, les plus courants, consomment des volumes qui entrent en compétition directe avec l'agriculture et l'usage domestique dans les régions où ces centres s'implantent.
En Irlande, cas extrême mais révélateur, les data centers représenteront trente-deux pour cent de la consommation électrique nationale en 2026. Quand un seul secteur capte un tiers de l'électricité d'un pays, on dépasse le sujet technique pour entrer dans le politique.
La course au nucléaire des géants du cloud#
Face à cette équation énergétique impossible à résoudre avec les seuls renouvelables, les hyperscalers se tournent vers le nucléaire avec une détermination qui aurait paru surréaliste il y a cinq ans.
Microsoft a signé un accord de vingt ans pour redémarrer la centrale de Three Mile Island, huit cent trente-cinq mégawatts, avec un soutien du Département américain de l'énergie d'un milliard de dollars. Le retour en service est prévu entre 2027 et 2028. Amazon a tenté un accord de connexion directe à la centrale de Susquehanna pour neuf cent soixante mégawatts, un deal à six cent cinquante millions de dollars, mais la FERC a rejeté la connexion directe. Google mise sur les petits réacteurs modulaires (SMR) avec Kairos Power, cinq cents mégawatts prévus opérationnels après 2030. Meta a lancé un appel d'offres pour un à quatre gigawatts de capacité nucléaire. Au total, plus de dix gigawatts de capacités nucléaires nouvelles ont été signés par les hyperscalers en 2025.
Quand j'ai vu les chiffres de Three Mile Island, j'ai dû vérifier trois fois. Redémarrer la centrale la plus tristement célèbre de l'histoire nucléaire américaine pour alimenter des serveurs d'intelligence artificielle ; même dans un roman d'anticipation, l'éditeur aurait trouvé ça un peu gros.
La France dans l'équation#
La France héberge quatre cent soixante data centers de plus d'un GWh, consommant 3,9 TWh. L'Île-de-France concentre soixante-quatre pour cent de cette capacité. La croissance a été de vingt et un pour cent entre 2022 et 2023, et les investissements annoncés lors du sommet Choose France atteignent environ six milliards d'euros.
Le mix électrique français, avec une intensité carbone d'environ trente grammes de CO2 par kWh grâce au nucléaire, confère à la France un avantage structurel par rapport à des pays qui alimentent leurs data centers avec du charbon ou du gaz. Mais cet avantage ne vaut que si la capacité de production suit la demande. La question n'est plus de savoir si les data centers s'installent en France ; c'est de savoir si le réseau peut absorber cette croissance sans compromettre les engagements de neutralité carbone du pays.
Le budget carbone restant pour limiter le réchauffement à un degré et demi se réduit chaque année. Quand un secteur croît de quinze pour cent par an en consommation électrique pendant que d'autres stagnent, il capte une part disproportionnée de ce budget. C'est un arbitrage que les pouvoirs publics devront expliciter, et qu'ils esquivent pour l'instant.
Trajectoires croisées#
Le mix énergétique mondial des data centers reste à soixante pour cent fossile, vingt-sept pour cent renouvelable, quinze pour cent nucléaire. Les projections pour 2035 envisagent soixante pour cent d'énergie propre et quarante pour cent fossile, ce qui placerait les émissions du secteur entre trois cents et cinq cents millions de tonnes de CO2. Pour rappel, l'aviation commerciale est à huit cent quatre-vingt-deux millions de tonnes. La convergence n'est pas pour demain, mais la pente est sans équivoque.
Le PUE (Power Usage Effectiveness) moyen mondial était de 1,56 en 2024, selon Uptime Institute. Les hyperscalers affichent entre 1,09 et 1,15, contre plus de 2,5 en 2007. L'efficacité énergétique s'est considérablement améliorée. Mais les gains d'efficacité sont systématiquement dévorés par la croissance du volume. C'est le paradoxe de Jevons appliqué aux serveurs : plus chaque calcul consomme peu, plus on calcule, et plus la consommation totale grimpe.
Mon interprétation, et c'est bien une interprétation : les engagements "net zero" des hyperscalers reposent massivement sur des certificats d'énergie renouvelable et sur des projets nucléaires qui n'existent pas encore. En location-based, c'est-à-dire dans le monde physique, leurs émissions augmentent. La question n'est pas de savoir si l'IA est utile ; c'est de savoir si nous sommes prêts à assumer son coût climatique réel plutôt que son coût comptable.
Le Haut Conseil pour le Climat interroge déjà la crédibilité de la trajectoire française. Ajouter un secteur dont la consommation quadruple en quinze ans ne simplifie pas l'équation. Il ne s'agit pas de freiner l'IA par principe, mais d'exiger des comptes qui reflètent la réalité physique, pas des colonnes de tableur décorées de certificats verts.
Sources#
- IEA 2025, "Energy and AI", Energy demand from AI. iea.org
- ATAG, Aviation facts and figures, émissions 2023. atag.org
- Carbon Brief 2025, "AI: five charts that put data centre energy use and emissions into context". carbonbrief.org
- Policy Review 2025, "Big Tech's 2025 sustainability reports". policyreview.info
- Amazon 2024 Sustainability Report. sustainability.aboutamazon.com
- SDES 2024, "La consommation d'électricité des centres de données entre 2018 et 2023". statistiques.developpement-durable.gouv.fr
- Uptime Institute 2024, Global Data Center Survey, PUE trends.





