Combien consomme l’IA ?
Combien consomme l’IA : Le prix du clic ou le poids du watt ?
Avant-propos : cet article traitera de la consommation énergétique de l’IA.
On l’imagine souvent vaporeuse, flottant dans un « Cloud » immatériel. Pourtant, l’Intelligence Artificielle possède un corps de silicium, un appétit énergétique vorace et une facture bien réelle. Derrière chaque réponse de ChatGPT ou chaque tri automatique de vos photos, une mécanique électrique s’emballe.
Pourtant, la performance n’est pas synonyme de démesure. Toute la question est de savoir où placer le curseur entre l’IA dépensière et l’IA frugale. Voyage au cœur de la machine, du gigawatt-heure à la micro-seconde.
La consommation énergétique de l’IA : comprendre les ordres de grandeur
De la trotteuse d’une montre à des milliers de voitures électriques, l’impact énergétique de l’IA dépend surtout de l’échelle à laquelle on l’observe. C’est ici que les chiffres racontent une histoire radicalement différente selon la technologie choisie et ce qu’on fait avec, révélant un véritable paradoxe énergétique.
L’entraînement de l’IA : comprendre le coût énergétique de la création
L’entraînement est le moment où l’on construit le cerveau de l’IA. C’est un investissement énergétique massif et ponctuel.
GWh
L’entraînement d’une IA Générative (GenAI)
On parle ici en Gigawattheures (GWh). Imaginez 10 000 berlines électriques faisant le plein simultanément : c’est le prix d’un seul entraînement de grand modèle.
KWh
L’entraînement d’IA Traditionnelle (Non générative)
Il dépend du modèle, mais nos entraînements chez Neovision consomment généralement entre 1 et 10 kWh. C’est la modeste chaleur d’un radiateur électrique allumé le temps d’une heure à d’une seule nuit. La différence est abyssale.
L’inférence de l’IA : la consommation invisible de l’usage au quotidien
L’inférence correspond à l’utilisation de l’IA une fois entraînée.
Wh
L’inférence d’IA Générative
Elle consomme des Wattheures (Wh). Une réponse LLM est bien plus coûteuse qu’une requête Google classique. C’est également ici que réside le piège : si l’effort individuel semble infime, sa répétition mondiale crée un effet de masse colossal.
mWh
L’inférence d’IA Traditionnelle (non-générative)
Environ 3 mWh (milliwattheures).
Il faudrait cliquer 6 000 fois avec une souris pour atteindre cette consommation.
µWh
L’inférence d’IA embarquée
La reine de la frugalité avec seulement 3 µWh (microwattheures), l’énergie nécessaire pour faire avancer la trotteuse d’une montre d’une seconde.
Le paradoxe énergétique :
Si l’entraînement est une tempête isolée, l’inférence est une pluie fine mais éternelle. À l’échelle mondiale, l’usage quotidien pèse beaucoup plus lourd que la phase de création initiale.
L’Open Source : Véritable levier pour la transparence et la sobriété
L’Open Source n’est pas un label écologique ; c’est le meilleur moyen d’obtenir un audit énergétique rigoureux. En IA, l’Open Source n’est pas qu’une question de licence, c’est une question de transparence radicale.
Auditabilité et contrôle d’un code Open Source
Avant d’optimiser, il faut voir. Ouvrir le code, c’est allumer la lumière dans la salle des machines. Là où les modèles fermés (ChatGPT, Gemini, Claude, etc.) sont des boîtes monolithiques intouchables, l’Open Source nous offre un observatoire précis.
Plutôt que de subir une consommation « moyenne », l’Open Source nous donne les manettes pour garantir les efforts liés à l’optimisation énergétique de nos modèles.
Savoir exactement ce que l’on consomme et avoir le pouvoir de modifier le code pour réduire cette empreinte, c’est reprendre le contrôle.
Le scalpel de l’ingénieur : forger la sobriété par l’expertise
Optimisation de l’usage (Inférence) :
- Dimensionnement : Adapter la taille de l’architecture au besoin réel.
- Optimisation métier : Concentrer l’algorithme sur les données pertinentes pour éviter les calculs superflus.
- Modèles hybrides : Orchestrer plusieurs architectures spécialisées.
Optimisation de l’entraînement :
- Minimisation des cycles : Réduire le nombre de lancements grâce à une visibilité totale.
- Sélection de la donnée : Privilégier la qualité pour raccourcir les temps de calcul.
- Contrôle des biais : Corriger les erreurs tôt pour éviter des ré-entraînements coûteux.
Cette exigence de clarté s’incarne aujourd’hui dans des travaux réalisés à Neovision pour mesurer (et non plus juste estimer) la consommation énergétique de chacun des entraînements des modèles développés pour nos clients.

Estimer l’invisible : L’énigme des « Boîtes Noires »
Les modèles fermés (ChatGPT, Gemini, Claude) ne communiquent pas sur leur « recette » énergétique, mais nous pouvons traquer leur empreinte.
La course à l’efficience
Si les modèles fermés ne communiquent pas leur « recette » énergétique, la course à l’efficience est lancée. Google a, par exemple, divisé par 40 la consommation de ses inférences entre 2024 et 2025.
Tous ces efforts prennent en compte entre autres l’optimisation des modèles d’IA, mais aussi l’infrastructure nécessaire à leur fonctionnement (on pourrait écrire tout un article sur le bilan des datacenters, HPC, etc.).
Guide pratique : Arbitrer entre recherche web et IA
- Si vous pouvez mener à bien votre tâche avec 1 recherche web, choisissez votre moteur de recherche préféré.
- Si votre tâche implique des heures de recherche manuelle, d’analyse et de synthèse, une inférence avec votre LLM favori sera peut-être un meilleur compromis.
Faire le bon choix demande de la pratique, n’ayez pas peur : entraînez-vous !

Des outils qu’on vous recommande
Compar:IA
Le portail Compar:IA (en bêta) poursuit un objectif pédagogique. Il permet de découvrir de nouveaux modèles, de tester pour apprendre lequel est le plus adapté à ses besoins, et de comprendre comment bien les utiliser au regard de leur consommation énergétique.
Sur le principe du vote, l’utilisateur découvre les données de consommation réelle de son inférence après avoir voté pour sa réponse préférée. Un filtre permet également de ne sélectionner que les modèles les plus frugaux.
EcoLLM
EcoLLM est une extension de navigateur qui permet d’utiliser vos comptes LLM habituels (en conservant votre contexte et vos fonctionnalités payantes) tout en estimant la consommation de chaque requête en temps réel.
Green-Algorithms.org
Green Algorithms est un peu plus brute de décoffrage et pour les plus aguerris. Il vous permet de calculer selon le lieu où il est fait. Un serveur en France (nucléaire) n’a pas le même impact qu’un serveur dans un pays où l’électricité est produite à base de charbon.
L’impact positif de l’IA, un engagement gravé dans le code
L’efficience énergétique ne peut plus être une réflexion après-coup. Passer de l’estimation à la mesure réelle avec des outils pensés pour l’IA et utiliser l’Open Source pour retailler plus justement les modèles sont des leviers concrets pour sortir du gigantisme électrique.
La performance d’une IA se mesure maintenant à sa capacité à délivrer le résultat le plus précis pour chaque watt consommé. La sobriété n’est pas un frein à l’intelligence et elle se matérialise énormément dans l’utilisation de la technologie par chacun.
Pour aller plus loin dans des cas d’usage et en culture G-IA :
Pour les petit.e.s techos et scientos parmis vous qui souhaitent décortiquer des sources connexes :
- Elsworth C, Huang K, Patterson D, Schneider I, Sedivy R, Goodman S, et al. Measuring the environmental impact of delivering AI at Google Scale. Disponible sur: https://services.google.com/fh/files/misc/measuring_the_environmental_impact_of_delivering_ai_at_google_scale.pdf
- Touvron H, Lavril T, Izacard G, Martinet X, Lachaux MA, Lacroix T, et al. LLaMA: Open and Efficient Foundation Language Models [Internet]. arXiv; 2023 [cité 17 févr 2026]. Disponible sur: http://arxiv.org/abs/2302.13971
- Fernandez J, Na C, Tiwari V, Bisk Y, Luccioni S, Strubell E. Energy Considerations of Large Language Model Inference and Efficiency Optimizations. Disponible sur: https://aclanthology.org/2025.acl-long.1563.pdf