andres-siimon-BBqVpTE4vw4-unsplash

L'IA, meilleure ennemie du climat ?

© Andres Siimon

L'intelligence artificielle constitue-t-elle une nouvelle bombe climatique ? Si les enjeux sont réels, ils se concentrent en particulier sur l'IA générative qui est en pleine phase de démocratisation. La bonne réponse pourrait reposer sur un subtil équilibre. Pour l'heure, difficile à trouver.

Depuis le lancement de ChatGPT en novembre 2022, l'intelligence artificielle générative s'impose à une vitesse vertigineuse. En février dernier, une enquête Ipsos révélait que 39 % des Français étaient d'ores et déjà utilisateurs de cette technologie. Un rythme d'adoption sans précédent, plus rapide encore que celui des réseaux sociaux au début des années 2010.

Une frénésie qui enthousiasme autant qu'elle inquiète dans un monde qui peine encore à prendre à bras-le-corps la question climatique. Dans ce contexte, des discours opposés se font face. D'un côté, Sam Altman, patron d'OpenAI, la maison mère de ChatGPT, promeut une IA capable de « réparer le climat » . De l'autre, chercheurs et ONG s'alarment d'un impact démesuré sur la consommation énergétique. Ce à quoi Demis Hassabis, patron de Google DeepMind rétorque que l'énergie requise par les systèmes d'IA va bien être « considérable » mais que « ce que nous allons récupérer en retour, ne serait-ce que pour les solutions climatiques de ces modèles, va largement compenser les coûts énergétiques ».

Entre les deux, existe un discours pragmatique à l'image de celui porté par Simon Stiell, secrétaire exécutif de l'ONU pour le climat, qui déclarait en 2023 : « Il est de plus en plus évident que l'intelligence artificielle peut s'avérer un instrument précieux dans la lutte contre les changements climatiques ». L'intelligence artificielle cristallise ainsi une équation en forme de paradoxe : peut-elle être simultanément une solution et un problème pour le climat ?

Le trou noir de la transparence

Quand on pose une équation, encore faut-il pouvoir disposer de données fiables pour parvenir au bon résultat. Or, celles-ci se font extrêmement rares. « Il y a un manque de transparence regrettable de la part des principaux acteurs du secteur » , constate Thomas Brilland, ingénieur sobriété numérique à l'ADEME. « Par exemple pour les modèles propriétaires, on ne connaît pas le nombre de paramètres dans ChatGPT ni les données d'entraînement utilisées... L'opacité est totale »poursuit ce spécialiste de l'impact environnemental du numérique

Selon une analyse conduite notamment par Sasha Luccioni, pionnière dans la recherche sur l'impact environnemental de l'IA sur le climat, 84 % de l'utilisation des modèles de langage (LLM) en mai 2025 concernait des modèles sans aucune transparence environnementale. « Cela me sidère que l'on puisse acheter une voiture et connaître sa consommation précise de carburant, mais qu'on utilise tous ces outils d'IA tous les jours sans avoir la moindre mesure d'efficacité, aucun facteur d'émission, rien » , déplore la chercheuse.

Un flou savamment entretenu par les géants de la tech. Lorsque Sam Altman affirme dans un post sur son blog en juin dernier qu'une requête ChatGPT consomme 0,34 watt-heure, soit l'équivalent de ce qu'un four utiliserait en un peu plus d'une seconde, le chiffre est invérifiable et les experts se gardent bien de le prendre pour argent-comptant. De la même manière, la théorie selon laquelle une requête ChatGPT équivaudrait à la consommation énergétique de 10 recherches Google classiques - sans IA - ne repose sur aucune base solide.

La problématique centrale de l'explosion énergétique

Pourtant, « mesurer ces impacts n'est pas un problème ou une difficulté technique. Ça vient d'un réel manque de transparence et d'incitation » assure Thomas Brilland. Ce que l'on sait en revanche, c'est que la trajectoire est vertigineuse. Benjamin Paulmier, consultant pour le cabinet de conseil Carbone 4, pose le cadre : « Au niveau global, l'empreinte carbone de l'IA représente aujourd'hui aux alentours de 60 millions de tonnes de CO2 équivalent. En poursuivant sur la trajectoire actuelle, nous atteindrons 400 millions de tonnes d'ici 2030 » . Soit une multiplication par 8 en l'espace d'une petite poignée d'années.

Mais comment comprendre cette explosion ? « Lorsqu'on fait une recherche classique sur Google, on interroge la base de données de Google qui est comme un grand catalogue mis à jour continuellement » , explique Benjamin Paulmier. « Lors d'une requête à l'IA générative, on sollicite un modèle mathématique très lourd, avec des milliards de paramètres et qui doit effectuer des milliards d'opérations pour répondre. L'impact est forcément beaucoup plus fort » poursuit-il.

Pour effectuer ces milliards d'opérations, l'IA nécessite d'immenses fermes de serveurs : ce sont les fameux centres de données (ou data centers), dont la croissance, portée également par le cloud et la 5G, est elle aussi exponentielle. L'Agence Internationale de l'Énergie (AIE) prévoit que la consommation de ces derniers passe de 1,5 à 3 % de la demande d'électricité mondiale d'ici 2030. À cette échéance, « à peu près la moitié de la puissance informatique tirée en data center le sera à des fins d'IA contre 10 à 15 % aujourd'hui » , précise Benjamin Paulmier.

Électricité, ressources, eau : des impacts à considérer

Alors que la France a déjà pris des retards importants pour tenir ses objectifs de neutralité carbone en 2050, le risque de déraillement climatique est réel. « En 2022, le numérique représentait 4,4 % de l'empreinte carbone de la France selon notre estimation, ce qui est déjà plus que des secteurs comme l'aviation ou les poids lourds. Avant l'arrivée de l'IA générative, on prévoyait déjà un triplement d'ici 2050. Nous sommes en train de revoir cette estimation mais il n'y a pas de doute sur le fait qu'elle le sera à la hausse » prévient Thomas Brilland, qui alerte également sur les potentiels conflits d'usage.

En Irlande, les data centers consomment déjà 21 % de l'électricité nationale. « C'est de l'électricité qui n'ira pas à l'électrification des usages » confirme Benjamin Paulmier. Le fait que l'électricité en France soit abondante et décarbonée ne résout pas plus l'équation : « ce dont on a besoin pour électrifier le transport, l'industrie, le chauffage, c'est de plusieurs centaines de térawattheures. Il faut que la production passe d'environ 600 TWh aujourd'hui à 1 000 à 1 500 TWh. Prendre une part croissante du gâteau pour l'IA finira par poser un problème » . Dans des pays moins-disants que la France, le constat est plus inquiétant encore. Aux États-Unis, plusieurs centrales à charbon ont ainsi vu leur date de fermeture être reportée pour répondre à la demande des data centers. Et, partout dans le monde, de nouveaux projets de centrales à gaz sont uniquement justifiés par l'IA.

Comme tout usage numérique, l'intelligence artificielle a nécessairement des impacts physiques. « On a besoin de puces extrêmement puissantes pour construire des data centers, ce qui demande des ressources importantes. Il faut aussi de l'eau pour les refroidir. Ce refroidissement se fait par évaporation, il n'y a donc pas de restitution comme c'est le cas pour d'autres usages » indique Thomas Brilland. Aux États-Unis, la Virginie du Nord, qui abrite la « Data Center Alley » à Ashburn, a ainsi vu sa consommation d'eau bondir de plus de 60 % entre 2019 et 2023.

L'optimisation des data centers contrée par l'effet rebond

Face aux enjeux posés par ces multiples impacts, quid de la promesse d'une IA « solution » pour le climat ? Pour Benjamin Paulmier, il faut distinguer. « L'IA a un potentiel certain du côté des systèmes traditionnels – maintenance prédictive, optimisation d'un réseau énergétique. Mais pour l'IA générative, on peine encore à trouver des usages qui réduisent les émissions ». « Si l'IA sert à optimiser les processus actuels sans remise en question profonde, elle sera un accélérateur des émissions » , tranche Thomas Brilland, qui pointe des cas, notamment aux États-Unis, « où l'IA optimise l'extraction d'énergies fossiles ». « Ce sont potentiellement des dégâts climatiques largement pires que les impacts directs de l'IA générative », poursuit-il.

Même les gains d'efficacité se heurtent à une réalité implacable. « Les acteurs ont beau optimiser l'existant, on se retrouve face à des effets rebonds qui annulent tous les gains » , observe Benjamin Paulmier. « OpenAI a connu une multiplication par 5,8 des requêtes en un an. Ils sont passés de 500 millions à 2,6 milliards de requêtes par jour. Même si on gagne en efficacité, les usages explosent et font bien plus que compenser les gains » confirme Thomas Brilland. Les géants du secteur le reconnaissent d'ailleurs eux-mêmes. « Ils justifient la construction de nouveaux data centers par l'explosion des usages. Ils reconnaissent donc eux-mêmes l'effet rebond » , observe-t-il.

Une IA frugale est-elle possible ?

La marche de la démocratisation de l'usage de l'intelligence artificielle étant désormais inarrêtable, quelles sont les solutions avancées pour contenir ses impacts ? De nombreux experts, dont Sasha Luccioni, ne bataillent pas pour un renoncement à l'intelligence artificielle mais pour la quête d'une IA plus responsable, aussi appelée « IA frugale ». « La frugalité implique une remise en question du besoin. L'IA frugale, c'est celle où on a remis en question le besoin en amont et on y a répondu avec les moyens les plus efficients » explique Thomas Brilland. « Il s'agit aussi de dimensionner l'outil à sa problématique. On peut avoir des petits modèles entraînés sur des usages précis. Ce qui n'est pas frugal, c'est le grand modèle qui sait tout faire » complète Benjamin Paulmier. Plus normé, le modèle européen, qui s'est déjà aventuré sur le terrain de l'éthique avec son « AI Act » pourrait-il montrer la voie ? « Le terrain pousse à innover vers des modèles plus petits car les fonds sont moindres. En revanche, sur la réglementation, tout reste à faire » , décrypte Benjamin Paulmier.

Encore peu promue, l'intégration de « petits gestes » dans une routine IA pourrait avoir son utilité. Il s'agit par exemple de demander au modèle d'IA générative que l'on utilise de privilégier les réponses courtes ou d'éviter tant que possible de recourir à des outils de type « Deep Research ». Pour Thomas Brilland, la réponse à l'équation complexe posée par l'intelligence artificielle ne doit toutefois pas reposer uniquement sur les individus. « La solution est structurelle et passe sans doute par la réglementation. La première chose à faire consiste sans doute à imposer davantage de transparence » estime l'expert de l'ADEME. Manager chez Carbone 4, Zénon Vasselin rappelle en définitive que « le plus grand défi de l'humanité du XXIe siècle n'est pas d'avoir une IA toujours plus performante mais de gérer correctement le changement climatique, dans le respect du vivant ».

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
la journée des tendances 2026
commentaires

Participer à la conversation

Laisser un commentaire