L’intelligence artificielle redéfinit notre quotidien, on l’utilise pour tout, de la rédaction à la génération d’image. Mais son impact environnemental devient une préoccupation majeure et l’écologie de l’IA sera un sujet central en 2026.
Dans ce contexte, Google a publié une étude affirmant qu’une requête sur son modèle Gemini consomme moins d’énergie que neuf secondes de télévision. Mais ce chiffre soulève des questions sur la méthodologie et les limites de telles estimations.
Cet article rédigé par l’équipe de Yiaho analyse ces données, explore les défis de la mesure de l’empreinte écologique de l’IA et interroge les perspectives d’une technologie plus durable.
Gemini : une consommation énergétique marginale ?
Selon l’étude de Google, une requête textuelle sur Gemini consomme 0,24 wattheure (Wh) d’électricité, 0,26 millilitre d’eau (l’équivalent de cinq gouttes) et émet 0,03 gramme de dioxyde de carbone équivalent.
Pour donner un ordre de grandeur, cela correspond à l’énergie utilisée par une télévision moderne en neuf secondes, soit environ 100 Wh.
Ces chiffres se concentrent sur la phase de traitement actif des requêtes, incluant l’énergie des processeurs, des systèmes de refroidissement des centres de données et des serveurs en veille. Mais l’entraînement des modèles d’IA, étape notoirement énergivore, est exclu de ces calculs, ce qui limite la portée de l’analyse.
Comparaison avec ChatGPT : un manque de clarté ?
À titre de comparaison, Sam Altman, PDG d’OpenAI, a déclaré en juin 2025 qu’une requête sur ChatGPT consomme environ 0,34 Wh et 0,3 ml d’eau. Ces valeurs, légèrement supérieures à celles de Gemini, restent difficiles à évaluer faute de détails méthodologiques.
L’absence de transparence d’OpenAI rend toute comparaison rigoureuse impossible, révélant un problème structurel : l’absence de standards universels pour mesurer l’impact énergétique de l’IA.
Les obstacles à une mesure fiable
Évaluer l’empreinte environnementale d’une requête IA est une tâche complexe.
Google a adopté une approche intégrant l’énergie des infrastructures, des systèmes de refroidissement et des serveurs inactifs, nécessaires pour absorber les pics de trafic. Pourtant, plusieurs zones d’ombre persistent.
La définition d’une « requête » reste vague : s’agit-il d’un mot, d’une phrase ou d’un texte plus long ?
De plus, Google ne divulgue pas le volume quotidien de requêtes sur Gemini, rendant impossible une estimation de l’impact global.
Enfin, l’absence de validation par un tiers indépendant, comme l’admet Google, invite à la prudence face à ces résultats.
Vers une IA plus écolo ?
Malgré ces chiffres encourageants pour une requête isolée, l’impact cumulé de l’IA à l’échelle mondiale est significatif. Les centres de données consomment déjà 1 à 2 % de l’électricité globale, un pourcentage qui pourrait croître rapidement avec l’essor de l’IA.
Lire également à ce sujet : Est-ce que l’IA pollue ? La réponse est étonnante !
Des initiatives émergent toutefois : Google investit dans des infrastructures alimentées par des énergies renouvelables, et des recherches visent à optimiser les algorithmes pour réduire leur consommation énergétique, notamment lors de l’entraînement.
Un effort louable, mais des progrès à faire
L’étude de Google sur Gemini marque une étape vers plus de transparence dans un secteur souvent opaque. Cependant, sans normes internationales, sans audits externes et sans prise en compte de l’entraînement des modèles, ces données restent partielles.
Pour que l’IA s’inscrive dans une démarche durable, les acteurs technologiques devront harmoniser leurs méthodes de mesure et communiquer plus ouvertement. En attendant, les utilisateurs et observateurs du secteur ont un rôle clé à jouer pour maintenir la pression sur ces enjeux cruciaux.
Source : Connaisancedesénergies


