ChatGPT : chaque question consomme autant d’énergie qu’un four

ChatGPT, la star des intelligences artificielles génératives, se veut une révolution douce. Mais quand Sam Altman s’aventure à quantifier son coût énergétique, les chiffres résonnent plus fort qu’un grille-pain lancé à pleine puissance. Derrière les réponses fluides d’une machine bavarde, c’est une autre forme de chaleur qui s’accumule.

Anton Kunin
By Anton Kunin Last modified on 12 juin 2025 8h19
chatgpt-internet-intelligence-artificielle-web-temps-reel
ChatGPT : chaque question consomme autant d’énergie qu’un four - © Economie Matin
8.200Avec ses 500 millions d'utilisateurs, ChatGPT consommerait autant d'énergie que 8.200 foyers américains.

Une requête ChatGPT : combien d’énergie et d’eau exactement ?

Le 10 juin 2025, Sam Altman, PDG d’OpenAI, publie un billet de blog intitulé The Gentle Singularity, dans lequel il révèle : « La requête moyenne utilise environ 0,34 wattheure, soit environ ce qu'un four utiliserait en un peu plus d'une seconde, ou ce qu'une ampoule à haute efficacité utiliserait en quelques minutes ». Et ce n’est pas tout. Sam Altman précise que cette même requête nécessite environ « 0,000085 gallon d'eau, soit environ un quinzième de cuillère à café ». Cette eau est utilisée pour refroidir les centres de données où les puces brûlent d’intensité.

Ces chiffres peuvent sembler anodins pris individuellement. Mais, répétés des millions de fois par jour, ils prennent une ampleur que même Sam Altman reconnaît : « Le coût de l’intelligence devrait à terme converger vers un niveau proche de celui de l’électricité ». Une ambition presque visionnaire, mais sans méthode de calcul vérifiable.

Retour vers le futur : ChatGPT vs Google 2009

Alors, est-ce beaucoup ou pas ? Pour tenter une comparaison, le média The Decoder rappelle qu’en 2009, Google estimait qu’une requête classique nécessitait 0,3 wattheure. Autrement dit, une requête ChatGPT consommerait aujourd’hui autant qu’une recherche Google... d’il y a seize ans. Une égalité symbolique, presque nostalgique, mais qui n’a rien d’innocent.

Selon le site ZME Science, certains chercheurs comme ceux d’Epoch.ai avancent un chiffre plus prudent pour ChatGPT : 0,3 Wh par requête, dans des conditions de calcul optimales. Ce qui change radicalement dès qu'on traite des requêtes complexes avec fichiers joints ou longs dialogues : jusqu’à 40 Wh, soit plus de 100 fois plus qu’une recherche web ancienne génération.

La transparence, elle, reste en berne. Sam Altman n’a publié ni formule, ni données brutes, ni audit indépendant. « C'est environ 10 fois moins que l'estimation largement citée de 3 watts-heure ! », remarque ZME Science, rappelant que les chiffres précédents évoquaient une consommation dix fois supérieure.

La facture totale : 7,4 GWh et 90 piscines par mois

À l’échelle, le tableau devient vertigineux. En extrapolant les données d’Altman, le média Sherwood News avance qu’avec 500 millions d’utilisateurs actifs hebdomadaires effectuant chacun 10 requêtes hebdo, ChatGPT consommerait environ 7,4 gigawattheures d’électricité par mois. Soit autant d'énergie que 8.200 foyers américains sur la même période. Et côté eau ? 1,8 million de gallons par mois. L’équivalent de 90 piscines résidentielles américaines. Pour du texte généré à la volée, cette image a de quoi rafraîchir les ardeurs les plus technophiles.

Un dernier chiffre : si chaque requête mobilise 0,34 Wh, alors 1000 requêtes = 340 Wh, soit la consommation moyenne d’un réfrigérateur moderne sur une demi-journée.

Ce que les chiffres ne disent pas

Derrière ces chiffres se cache une question de méthode. À quoi correspond une « requête moyenne » ? Quelle est la part de cette consommation due à l’infrastructure Azure ou Oracle utilisée par OpenAI ? Quel rôle joue l’optimisation du modèle (GPT-4o, plus léger) dans la réduction des coûts ?

Les critiques se multiplient sur l’absence de clarté. Aucun audit externe, aucune méthodologie partagée. Tout repose sur une confiance implicite dans le discours officiel. La comparaison avec Google, si séduisante soit-elle, reste un tour de passe-passe rhétorique.

Et pourtant, les usages s’emballent. Le futur proche semble condamné à une croissance exponentielle de l’empreinte énergétique de l’IA. Comme le note The Verge, « des chercheurs estiment que la consommation énergétique de l’IA pourrait dépasser celle du minage de Bitcoin d’ici fin 2025 ».

L’intelligence artificielle aura-t-elle un prix ?

ChatGPT se veut fluide, rapide, naturel. Mais cette facilité d’usage masque une réalité thermique, électrique, matérielle. Ce que nous prenons pour une simple réponse textuelle exige des infrastructures complexes, des gigawatts bien réels, et une eau bien concrète. Pas de magie ici, juste une consommation qui, ligne après ligne, ampère après ampère, s’imprime dans notre futur énergétique.

Anton Kunin

Après son Master de journalisme, Anton Kunin a rejoint l'équipe d'ÉconomieMatin, où il écrit sur des sujets liés à la consommation, la banque, l'immobilier, l'e-commerce et les transports.

No comment on «ChatGPT : chaque question consomme autant d’énergie qu’un four»

Leave a comment

* Required fields