Prestations

Conception de site web, optimisation du référencement, stratégie websociale… Quelle que soit votre problématique digitale, nous avons les experts et les garanties qu’il vous faut ! Nous consultants vous accompagnent avant, pendant et après la mise en place de votre projet pour un résultat à la hauteur de vos ambitions.

Formations

Organisme reconnu et certifié, Tous les Jeudis met en place des formations personnalisées en fonction de vos attentes. N’hésitez plus à faire appel à nos formateurs pour faire monter en compétence vos équipes sur des thématiques digitales variées.

Tous Les Jeudis

IA et environnement : l’impact caché de l’IA générative

Écouter une version audio de cet article

Derrière chaque réponse de l’IA générative, il y a des serveurs qui tournent, des litres d’eau évaporés et des tonnes de CO₂ émises. Tour d’horizon (non exhaustif) d’un impact environnemental encore largement sous-estimé.

Quand l’IA consume et assèche la planète pour vous répondre (même si c’est moins pire)

On ne va pas se mentir, l’IA générative, c’est impressionnant, les progrès sont bien là mais il existe de nombreuses facettes obscures. Son impact sur l’environnement en est une. Du big data au infrastructures en passant par l’entrainement de l’IA, retour sur toutes les phases du process qui nuisent à la planète.

Constitution et prétraitement des données

Commençons par la base : la collecte et la préparation des données. Aujourd’hui, on se sert de corpus gigantesques pour entraîner les modèles. Selon certaines estimations, on pourrait facilement dépasser plusieurs dizaines de téraoctets (To) de données (voire des centaines de To dans certains cas), si l’on inclut non seulement du texte, mais aussi des images, des vidéos, etc. Pour comparaison, la totalité de Wikipédia en texte brut représente une dizaine de gigaoctets ; 50 To, c’est donc plus de 5000 fois cette masse d’information, même si le chiffre exact varie selon les sources et le mode de stockage.

Ces données doivent être stockées dans des data centers, qui tournent 24h/24. Malgré des progrès dans les architectures modulaires et les systèmes de refroidissement, l’énergie consommée reste importante. Avant même l’entraînement, il faut prétraiter (nettoyer, filtrer, normaliser), ce qui représente de gros volumes de calcul. En conséquence, la consommation énergétique grimpe en flèche, et ce n’est qu’une première étape.

Entraînement des modèles

C’est ici que les compteurs s’affolent vraiment. L’entraînement des grands modèles constitue l’opération la plus lourde et la plus coûteuse en énergie. Les chiffres exacts restent difficiles à obtenir, car les entreprises communiquent peu. Cependant, selon des estimations et des extrapolations de chercheurs indépendants, l’entraînement de GPT-4.5 aurait consommé près de 700 MWh, contre environ 1 200 MWh pour GPT-4. Pour donner un ordre de grandeur, 700 MWh équivalent à la consommation annuelle d’environ 175 foyers. Les techniques de quantification, le pruning intelligent et les architectures sparsifiées (type Mixture-of-Experts) permettent effectivement de réduire la consommation, tout comme l’amélioration du ratio flops/watt des GPU/TPU récents.

On évoque souvent la baisse des émissions de CO₂ associées : GPT-4.5 émettrait environ 250 tonnes de CO₂, contre 500 tonnes pour GPT-4. Là encore, ce sont des estimations. La réalité dépend fortement du mix énergétique (part de solaire, éolien, nucléaire, etc.) et des lieux où se trouvent les data centers. À titre de comparaison, 250 tonnes de CO₂ correspondent à environ 200 allers-retours Paris-New York en avion (avec ~1,2 tonne de CO₂ par trajet). Malgré ces avancées, l’entraînement reste très gourmand, et chaque réentraînement ou fine-tuning régulier rajoute une couche à la facture globale.

Inférence et utilisation

Une fois le modèle entraîné, vient la phase d’inférence (réponse aux requêtes). Selon certaines estimations, GPT-4.5 consommerait environ 2,3 Wh par requête (contre environ 2,9 Wh pour ses prédécesseurs). Ce serait l’équivalent d’une ampoule LED de 10 W qui tournerait une dizaine de minutes. Cela peut paraître peu, mais quand on reçoit des millions, voire des milliards de requêtes par jour, le total annuel devient astronomique.

Des techniques comme le batching (traiter plusieurs requêtes en une seule fois) et le caching réduisent le coût unitaire, mais la demande mondiale en IA ne cesse de croître (assistants virtuels, moteurs de recherche, création artistique, etc.). Résultat : même si l’inférence est un peu plus efficace qu’avant, l’effet « masse critique » fait que la consommation totale continue de monter.

Infrastructures cloud et refroidissement

Tout cela repose sur des data centers de plus en plus sophistiqués. Les fournisseurs cloud (Google, Microsoft, Amazon, etc.) s’engagent à utiliser davantage d’énergies renouvelables et adoptent des systèmes de refroidissement ultra-innovants (free-cooling, immersion liquide…). La réduction de la consommation d’eau et d’énergie pour refroidir les serveurs constitue un progrès notable, cependant à l’échelle mondiale, l’IA pourrait requérir entre 4,2 et 6,6 milliards de m³ d’eau en 2027 pour le refroidissement, soit 4 à 6 fois la consommation annuelle du Danemark​. C’est beaucoup…

En 2025, on estime que les data centers représentent encore 1,8 % de la consommation électrique mondiale, et la tendance est à la hausse. Le refroidissement est une exigence vitale pour éviter la surchauffe, mais il contribue à augmenter l’empreinte globale. En clair, malgré les progrès technologiques, la demande reste élevée et la vigilance s’impose.

Fabrication du hardware et gestion des déchets électroniques

N’oublions pas le hardware. Les puces (CPU, GPU, TPU…), les modules de mémoire, les cartes mères, etc., contiennent de nombreux métaux et terres rares : du silicium bien sûr, mais aussi du cuivre, de l’or, du cobalt, du néodyme, tant d’autres éléments issus de mines. L’Ademe souligne que l’extraction de ces métaux est souvent très polluante et énergivore, avec des procédés impliquant des produits chimiques toxiques​. Par exemple, l’extraction de métaux rares en Afrique ou en Chine se fait souvent au prix de dégradations environnementales locales (pollution des eaux, émissions toxiques)​. Chaque serveur haute performance incorpore une part de ces impacts « cachés » survenus lors de sa fabrication.

Le renouvellement rapide du matériel – pour rester performant face à la concurrence – entraîne aussi une accumulation de déchets électroniques. Certains programmes arrivent à réduire d’environ 30 % ce flux par rapport à quelques années auparavant, mais on reste sur des volumes élevés. Qu’on le veuille ou non, chaque étape, de l’extraction à l’assemblage, alourdit l’empreinte carbone.

Transparence des grands groupes: le flou artistique de l’empreinte environnementale

Les grands acteurs de l’IA – qu’il s’agisse d’OpenAI, de Google, de Microsoft ou encore d’Amazon – revendiquent régulièrement des efforts pour « verdir » leurs infrastructures. Pourtant, on constate un véritable déficit de transparence autour de leurs consommations réelles d’énergie et de leurs émissions de CO₂. Si certains chiffres sont publiés, ils demeurent parcellaires ou varient d’un rapport à l’autre, laissant planer le doute sur la véracité des annonces.

Les indicateurs clés : un grand flou

Les chiffres fiables et vérifiables sur la consommation énergétique des géants du cloud, tels qu’AWS, Azure ou Google Cloud, se font rares. Alors que divers rapports pointent l’impact considérable des data centers sur la consommation électrique mondiale, les informations publiées par ces entreprises demeurent souvent vagues et fragmentaires. On ne dispose la plupart du temps que de données globales, englobant tous les services de la firme, sans qu’il soit possible de distinguer clairement la part attribuable à l’activité IA, pourtant grande consommatrice de calcul et d’énergie.

Lorsque ces acteurs communiquent des « bilans carbones », on observe fréquemment des variations de l’ordre de 20 à 40 % d’une année à l’autre, sans qu’il soit possible de déterminer avec précision si ces fluctuations traduisent une réelle réduction des émissions ou simplement un changement de méthode de calcul. La situation est d’autant plus confuse que la transparence sur les hypothèses retenues et les périmètres pris en compte reste limitée, ce qui empêche toute comparaison fiable entre différents fournisseurs.

Pour pallier ce manque d’informations, chercheurs et ONG tentent de produire leurs propres évaluations, en se fondant sur le parc de serveurs répertorié dans chaque data center, l’intensité carbone moyenne du pays d’implantation et diverses estimations relatives au taux d’occupation des machines. Cette approche, essentiellement basée sur des hypothèses et des recoupements, donne lieu à des résultats soumis à caution et sujets à controverse. Faute d’accès à des données détaillées et publiques, les travaux indépendants ne peuvent qu’avancer des ordres de grandeur, ce qui nourrit l’incertitude et ouvre la porte à différentes interprétations sur l’empreinte réelle de l’IA à grande échelle.

Les raisons de l’opacité

La première source d’opacité réside dans la volonté de protéger des secrets industriels. Dans un secteur ultra-compétitif où la taille des modèles, les techniques d’entraînement ou encore la puissance de calcul utilisée peuvent conférer un avantage stratégique, les acteurs sont peu enclins à divulguer des données détaillées qui pourraient servir à leurs concurrents. De la même manière, le manque d’obligations légales en matière de publication des données d’empreinte carbone contribue à entretenir le flou. Certaines initiatives réglementaires naissent çà et là, mais elles ne couvrent pas toujours l’ensemble des régions où les géants du cloud opèrent, laissant une large marge de manœuvre en matière de communication.

Un autre élément favorisant cette discrétion est la pratique du greenwashing. Les entreprises mettent volontiers en avant leurs ambitions de neutralité carbone ou de recours croissant aux énergies renouvelables, mais on peine souvent à trouver des informations précises sur la proportion exacte d’électricité verte utilisée ou la manière dont sont réalisées les compensations d’émissions. Sans méthodologie commune ni audits indépendants, ces déclarations sont difficilement vérifiables et peuvent masquer des réalités moins reluisantes. L’ensemble de ces facteurs explique pourquoi, malgré les discours sur la nécessaire transparence, les chiffres concrets demeurent rares et difficiles à interpréter.

Initiatives pour plus de transparence

Face à ce manque de clarté, des initiatives émanent à la fois de la recherche, de la société civile et d’organismes spécialisés pour tenter de percer le voile sur la consommation énergétique et les émissions de CO₂ des géants du cloud. Des ONG et des instituts comme le Carbon Disclosure Project (CDP) cherchent à standardiser les pratiques de reporting en invitant les entreprises à publier volontairement des bilans carbone complets et vérifiés. Dans certains pays, des labels ou certifications commencent également à émerger pour récompenser les data centers les plus vertueux, en imposant des critères sur l’origine de l’énergie ou le niveau de performance énergétique atteint.

La pression de l’opinion publique et des médias contribue elle aussi à pousser les groupes technologiques à une certaine forme de transparence. Des enquêtes indépendantes et des reportages approfondis mettent régulièrement en lumière le décalage entre les promesses d’un cloud « vert » et la réalité des pratiques industrielles. Dans cette dynamique, certains chercheurs tentent d’élaborer des méthodologies plus robustes pour évaluer l’impact de l’IA, en prenant en compte la totalité de la chaîne de valeur, de l’extraction des matières premières à l’entraînement et à l’inférence des modèles. Ces travaux, bien que freinés par le manque d’accès aux données internes, contribuent progressivement à instaurer un climat de demande citoyenne pour un reporting plus honnête.

Conséquences pour les utilisateurs et les entreprises clientes

L’absence de données fiables rend la comparaison entre différentes IA particulièrement délicate. Qu’il s’agisse d’une PME souhaitant héberger ses modèles IA ou d’un particulier qui souhaite utiliser un agent conversationnel plus « eco-responsable « , il est complexe de déterminer quel solution offre réellement la meilleure performance énergétique.

En outre, faute de clarté sur la répartition des émissions entre l’entraînement, l’inférence et la fabrication du matériel, il devient difficile de cibler des leviers d’action pour réduire concrètement l’empreinte. Des stratégies plus fines de mutualisation des ressources ou d’optimisation de l’infrastructure pourraient être mises en œuvre si les clients disposaient d’informations détaillées sur la répartition de la consommation énergétique, mais la pénurie de données laisse souvent planer le doute sur l’efficacité réelle des mesures prises.

Tous Les Jeudis

Vers un usage plus responsable par les entreprises et les utilisateurs

Les fournisseurs ne sont pas les seuls concernés. Les entreprises qui adoptent l’IA générative et les utilisateurs finaux peuvent aussi influer sur la balance écologique. Voici quelques pistes pour éviter de démultiplier l’empreinte sans réflexion.

Idem pour la génération d’images : plutôt que de passer des heures à essayer d’obtenir un visuel B2B pour lequel l’IA n’a aucune donnée d’entrainement, autant passer par une banque images. Vous éviterez ainsi toute frustration et ferez également un geste pour la planète.

Évaluer la pertinence de l’IA générative

Première question : ai-je vraiment besoin d’une IA pour répondre à ma demande ? Il est parfois plus rapide, moins impactant pour la planète et plus fiable d’utiliser un moteur de recherche, voire une calculatrice ou, soyons fou : son cerveau ! Allez courage, un petit calcul mental n’a jamais tué personne.

Privilégier des modèles compacts et spécialisés

Quand le recours à l’IA est avéré utile, pourquoi ne pas miser sur des modèles plus compacts ? Plutôt que d’appeler systématiquement GPT-4.5, l’entreprise ou l’utilisateur peut choisir un modèle plus frugal. À la clé, une empreinte inférence réduite et souvent des réponses plus ciblées.

Pour les particuliers, il existe des LLM légers (quelques milliards de paramètres) qui tournent sur un PC local. Selon diverses enquêtes, plus de la moitié des entreprises envisagent d’utiliser ce type de « petits modèles » spécialisés. L’idée : diminuer la consommation électrique, réduire la latence, tout en répondant à la majorité des besoins.

Choisir des fournisseurs engagés

Autre levier : sélectionner des plateformes et des services d’IA dont la politique environnementale est claire et, si possible, neutre en carbone. De même, on peut héberger ses modèles sur des data centers bénéficiant de labels « verts » ou certifiés quant à leur usage d’énergies renouvelables.

Cette démarche encourage les acteurs les plus responsables et pousse les autres à améliorer leurs pratiques s’ils ne veulent pas perdre de parts de marché.

Optimiser l’utilisation et mutualiser

Chacun peut agir à son niveau pour adopter de bons réflexes : ne pas multiplier les requêtes inutiles, regrouper les tâches pour réduire le nombre d’appels, éviter de laisser un modèle tourner en tâche de fond pour rien, etc. Du côté des entreprises, mutualiser les ressources au lieu de lancer plusieurs serveurs sous-exploités est un moyen efficace d’éviter le gâchis énergétique.

Certaines sociétés planifient aussi l’entraînement des modèles aux heures où l’électricité est « plus verte » (forte production d’éolien, par exemple) ou utilisent des batteries alimentées par du solaire. Des gestes moins visibles, mais qui peuvent faire une différence significative à grande échelle.

Suivre et réduire l’empreinte en continu

Peu d’entreprises (environ 12 %, d’après certaines études) intègrent un suivi formel de l’empreinte carbone ou de la consommation d’eau liée à l’IA dans leur gouvernance. Pourtant, celles qui le font constatent que la part de l’IA dans leurs émissions pourrait bondir de 2,6 % à 4,8 % sous deux ans.

Mesurer, c’est pouvoir cibler les optimisations : si la majorité de l’empreinte vient de l’inférence, on peut pousser davantage la quantification ; si c’est l’entraînement, on peut choisir de déporter certaines tâches sur des moments de faible empreinte carbone. Fixer des objectifs (par exemple, « réduire de 20 % le CO₂ par requête l’an prochain ») motive la recherche de solutions techniques.

Former et sensibiliser les équipes/utilisateurs

Enfin, il est essentiel de diffuser la culture du Green IT auprès des équipes, pour qu’ils intègrent l’efficacité énergétique dans leur consommation d’IA (prompts, appels API, etc.). Pour le grand public, faire prendre conscience que « l’IA, c’est des serveurs qui tournent » favorise un usage plus modéré. Le parallèle est simple: de la même façon qu’on évite de streamer en 4K quand ce n’est pas nécessaire, on n’appelle pas GPT-4.5 pour réaliser une petite division si 2 secondes de réflexion suffisent à y répondre.

Partager cet article

Actualités

SEO : Contenu IA vs contenu humain, est-ce vraiment pareil pour Google ?

À l'heure où les IA génératives s’improvisent Content Manager, un flou artistique persiste autour de leur traitement par les algorithmes de recherche

Vous trouvez que l’IA est paresseuse : voici pourquoi…

Ah, l'intelligence artificielle... Cette merveille technologique censée nous libérer des tâches fastidieuses se retrouve parfois accusée du vice même qu'elle devait nous épargner : la paresse. Paradoxal, n'est-ce pas ?…

IA et environnement : l’impact caché de l’IA générative

Derrière chaque réponse de l’IA générative, il y a des serveurs qui tournent, des litres d’eau évaporés et des tonnes de CO₂ émises. Tour d’horizon (non exhaustif) d’un impact environnemental…

Avec « 4o Image generation », OpenAI nous remet (enfin) une claque

ChatGPT vient de lancer son nouveau générateur d’images et ne faisons pas les pisse-froid : bien que le modèle soit encore perfectible, il est réellement très prometteur.

Comment rédiger une charte d’utilisation de l’IA générative en entreprise ?

Oui, cet article est long. Très long. Par contre une chose est sûre : chaque paragraphe est essentiel pour bien comprendre les enjeux, les risques et les éléments clés à…

Avec l’IA, n’ayez pas peur : osez la polygamie

Arrêtez cette relation exclusive avec ChatGPT (ou n'importe quelle autre IA) et commencez à explorer d'autres outils.

NEWSLETTER

Inscrivez-vous et recevez tous les jeudis, la newsletter de Tous Les Jeudis !