L’IA générative ou la face cachée d’un mirage technologique

Deuxième volet de ma réflexion en trois actes sur les enjeux méconnus de ces technologies. Cette semaine j’explore les coûts environnementaux et les défis matériels de l’IA générative.

Le paradoxe de l’immatériel

Je suis frappé par cette façon dont la plupart des gens perçoivent l’intelligence artificielle générative. Ils l’imaginent comme une sorte d’entité éthérée, quasi mystique, flottant quelque part entre les nuages numériques, libérée des contingences terrestres. Cette conception désincarnée n’est pas sans rappeler nos anciennes représentations spirituelles, comme si nous avions simplement déplacé nos dieux des cieux métaphysiques vers les datacenters californiens.

Quelle ironie que cette vision, quand je constate qu’aucune technologie peut-être n’a jamais été aussi profondément ancrée dans la matérialité brute du monde ! J’observe quotidiennement ce paradoxe : plus nous croyons nous affranchir de la matière par le numérique, plus nous devenons dépendants de structures physiques monumentales et énergivores.

Car derrière chaque texte généré en quelques secondes par ChatGPT, derrière chaque portrait créé par Midjourney, se déploie une infrastructure colossale consommatrice de ressources terrestres. Les data centers qui hébergent ces modèles d’IA sont des cathédrales technologiques aux dimensions pharaoniques, dont l’empreinte écologique constitue peut-être le coût le plus troublant de cette révolution silencieuse.

Cette matérialité oubliée du virtuel nous confronte à un paradoxe ironique : alors même que nous cherchons à dépasser les limites de notre condition par la technologie, nous nous heurtons aux frontières bien réelles de notre planète. L’intelligence artificielle générative, dans sa quête prométhéenne d’une capacité créative semblable à celle de l’humain, se trouve ainsi contrainte par les mêmes limites physiques que les organismes biologiques : la disponibilité des ressources et l’équilibre des écosystèmes.

Cette facture climatique que personne ne reçoit

L’empreinte environnementale de l’IA générative constitue un coût majeur, souvent relégué aux annexes des rapports d’entreprise, quand il n’est pas tout simplement occulté. Cette dimension prend pourtant une importance vertigineuse dans le contexte actuel de crise climatique.

Les data centers qui hébergent nos modèles d’IA générative dévorent des quantités ahurissantes d’électricité, tant pour alimenter les milliers de processeurs que pour maintenir des systèmes de refroidissement dignes des plus grandes installations industrielles. Cette consommation s’inscrit dans un contexte où, aux États-Unis par exemple, environ 60% de la production électrique provient encore d’énergies fossiles comme le gaz et le charbon, une ironie pour des technologies censées incarner notre avenir post-carbone.

Le paradoxe est saisissant : ces technologies qui promettent de nous propulser vers un futur radieux reposent en grande partie sur les mêmes énergies carbonées dont nous cherchons désespérément à nous sevrer. Chaque conversation avec ChatGPT, chaque création d’image par Midjourney, contribue ainsi indirectement aux émissions de gaz à effet de serre qui menacent l’habitabilité même de notre planète. Une forme de schizophrénie technologique où la main gauche ignore délibérément ce que fait la main droite.

Les chiffres sont éloquents, selon les travaux de Sasha Luccioni (https://fr.wikipedia.org/wiki/Sasha_Luccioni) la génération de 1000 textes avec une IA comme ChatGPT consomme environ 0,042 kWh. Plus impressionnant encore, la génération de 1000 images avec une IA comme Stable Diffusion engloutit 60 fois plus d’énergie, soit 2,9 kWh. Pour rendre ces abstractions plus tangibles, générer une seule image avec l’IA équivaut approximativement à une charge complète de smartphone.

Dans un data center situé en Oregon, localisation privilégiée par Amazon pour ses infrastructures cloud, générer une image rejette environ 2,9 grammes de CO2 dans l’atmosphère, l’équivalent d’un trajet de 23 mètres en voiture. La production de 1000 images par an s’apparente donc à un trajet de 7 à 23 km en automobile, soit entre 1 et 2 kg de carbone libéré dans notre atmosphère commune.

Plus frappant encore : une simple requête sur ChatGPT consomme environ 5 fois plus d’électricité qu’une recherche traditionnelle sur Google (du moins dans la version non AI de Google, car avec l’arrivée des « AI Overviews » les choses risquent de changer). Un utilisateur intensif de ChatGPT, disons 50 requêtes quotidiennes pendant une année, génère ainsi environ 283 grammes de CO2, toujours en considérant un centre de données en Oregon. Une empreinte individuelle modeste, certes, mais qui, multipliée par des centaines de millions d’utilisateurs, dessine les contours d’un impact systémique considérable.

La situation devient d’autant plus préoccupante lorsqu’on observe que la consommation énergétique des modèles les plus avancés suit une courbe exponentielle vertigineuse. Un modèle comme GPT-4 nécessite une puissance computationnelle et donc une consommation électrique plusieurs fois supérieure à celle de son prédécesseur, illustrant une trajectoire technologique dont l’insoutenabilité à long terme semble inscrite dans son ADN algorithmique.

L’eau et les métaux rares sont les grands oubliés

L’impact environnemental de l’IA générative ne s’arrête malheureusement pas là ! L’extraction des matériaux nécessaires à la fabrication des composants électroniques, leur transformation industrielle, et finalement leur recyclage (ou leur mise au rebut), quand ils ne finissent pas dans des décharges à ciel ouvert quelque part en Afrique, constituent autant d’étapes générant une empreinte écologique monstrueuse qui est rarement comptabilisée.

À cela s’ajoute l’utilisation intensive d’eau nécessaire tant à l’extraction minière qu’à la fabrication des semiconducteurs et au refroidissement des data centers. Pour chaque kilowatt-heure consommé, un centre de données engloutit environ deux litres d’eau pour son refroidissement. À titre d’illustration, 50 requêtes à ChatGPT équivalent à la consommation d’une bouteille d’un demi-litre d’eau, un luxe invisible que nous nous offrons sans même en avoir conscience.

L’analyse du cycle de vie doit prendre également en compte la production de déchets électroniques, particulièrement problématique dans le contexte de l’IA générative où l’obsolescence des équipements est accélérée par l’évolution frénétique des modèles. Les puces spécialisées conçues pour une génération de modèles se retrouvent rapidement dépassées, créant un cycle de renouvellement matériel aux conséquences environnementales aussi considérables qu’invisibilisées. Selon une étude publiée dans la revue Nature le renouvellement des processeurs et autres cartes graphiques pourrait générer 2,5 millions de tonnes de déchets électroniques par an dès 2030 si aucune mesure d’atténuation n’est mise en œuvre. Pour rendre ce chiffre plus palpable : c’est l’équivalent de 13 milliards d’iPhone 15 Pro jetés à la poubelle.

Une autre étude projette que, selon les scénarios d’adoption, les déchets électroniques générés par l’IA générative pourraient atteindre entre 1,2 et 5,0 millions de tonnes au total entre 2023 et 2030, avec des augmentations annuelles pouvant grimper jusqu’à 2,5 millions de tonnes en l’absence de mesures de réduction. Ces déchets électroniques, véritables concentrés de substances toxiques, posent des risques majeurs pour la santé humaine et les écosystèmes.

Et pourtant, malgré l’urgence manifeste de la situation, seuls environ 12,5% des déchets électroniques sont actuellement recyclés, alors qu’ils constituent environ 70% des déchets toxiques produits annuellement à l’échelle planétaire.

Un horizon moins radieux qu’annoncé

Selon une étude publiée par Deloitte en suivant le rythme d’adoption actuel, l’IA pourrait nécessiter pas moins de 3550 térawattheures d’énergie en 2050. Pour donner une idée de ce que ce chiffre représente, en intègrant déjà « l’amélioration de l’efficacité énergétique des data centers » que nous promettent les industriels du secteur, cela représenterait 37% d’énergie en plus que celle consommée par l’intégralité de la France en 2023.

Même à plus court terme, les perspectives sont tout aussi vertigineuses. D’après une étude menée par Morgan Stanley, les coûts énergétiques de l’IA pourraient croître de 70% par an d’ici à la fin de la décennie. « D’ici 2027, l’IA générative pourrait consommer autant d’énergie que l’Espagne en 2022« , note le cabinet, qui reconnaît avoir été « surpris par ses propres projections ».

Il y a de quoi s’interroger sur la viabilité à long terme de la trajectoire actuelle !

La fin d’une illusion

Au cœur de l’IA générative, il y a une réalité économique incontournable, celui de l’accès à une puissance de calcul toujours plus grande. Autrefois réservé aux experts, ce sujet devient aujourd’hui un enjeu clé pour le développement du secteur, avec des conséquences majeures, aussi bien sur l’économie que sur l’environnement

Pendant plusieurs décennies, l’industrie technologique a vécu dans le confort douillet des effets de la loi de Moore, avec un doublement régulier des capacités de calcul à coût constant. Cette progression quasi-miraculeuse a permis des avancées spectaculaires dans de nombreux domaines, dont l’intelligence artificielle, créant une forme d’abondance de « calcul » qui a nourri notre imaginaire collectif, alimentant des récits techno-optimistes où la puissance de calcul semblait promise à une croissance infinie.

Mais voici que les limites physiques des semiconducteurs traditionnels commencent à se faire sentir avec une insistance croissante, alors même que les besoins en calcul de l’IA générative suivent une courbe exponentielle effrénée. Ce découplage crée une tension fondamentale dont nous commençons à peine à mesurer les implications : d’un côté, des modèles toujours plus gourmands en ressources, de l’autre, des gains d’efficience matérielle qui ralentissent inexorablement, confrontés aux lois implacables de la physique quantique.

Nous approchons ainsi d’une forme de « pic de calcul« , analogue au concept bien connu de pic pétrolier, où l’augmentation des capacités de calculs deviendrait de plus en plus coûteuse et complexe. Cette situation pourrait transformer profondément l’économie de l’IA générative, remettant en question la trajectoire actuelle d’une course effrénée vers des modèles toujours plus massifs, toujours plus énergivores, mais aux gains marginaux de plus en plus discutables.

Le grand jeu géopolitique des puces de silicium

Cette raréfaction relative des capacités de calcul a déclenché une véritable course aux armements dans le domaine des puces spécialisées pour l’IA. NVIDIA, longtemps leader incontesté avec ses GPU, fait face à une concurrence croissante d’acteurs comme AMD, Intel, ou encore des startups ambitieuses comme Cerebras et SambaNova. Les géants technologiques développent également leurs propres solutions, à l’image des puces TPU de Google ou des processeurs Apple Silicon intégrant des « Neural Engines » dédiés.

Cette compétition dépasse largement le cadre commercial pour s’inscrire dans une stratégie géopolitique mondiale aux enjeux colossaux. Les tensions entre les États-Unis et la Chine autour de l’accès aux semiconducteurs avancés illustrent l’importance fondamentale de cette ressource, désormais considérée comme un élément de souveraineté nationale non négociable. Les restrictions américaines sur l’exportation de puces IA vers la Chine, et les efforts de cette dernière pour développer une industrie locale autonome, dessinent les contours d’un nouveau « Grand Jeu » technologique dont les implications dépassent largement le seul domaine de l’intelligence artificielle.

Dans ce contexte géopolitique tendu, l’accès aux capacités de calcul nécessaires à l’entraînement et à l’exploitation des modèles d’IA générative devient un enjeu stratégique majeur. Cette situation pourrait accentuer les inégalités entre les acteurs disposant d’un accès privilégié à ces ressources et ceux qui en sont privés, créant de nouvelles formes de dépendance technologique et exacerbant les fractures numériques déjà béantes qui traversent notre monde.

La colonisation numérique

Au-delà des puces elles-mêmes, la fabrication des infrastructures d’IA nécessite des quantités considérables de matières premières, certaines relativement rares ou concentrées dans des zones géographiques spécifiques. Le silicium, certes abondant, mais aussi des métaux comme le cobalt, le lithium, le tantale ou les terres rares, constituent les éléments indispensables de cette économie computationnelle vorace.

L’extraction de ces ressources soulève des questions éthiques et environnementales d’une gravité que nous préférons souvent ignorer. Dans certaines régions, comme la République Démocratique du Congo pour le cobalt, l’exploitation minière s’accompagne de violations systématiques des droits humains et d’une dégradation significative des écosystèmes locaux. L’empreinte écologique de l’IA commence ainsi bien en amont de sa consommation énergétique, dès l’extraction des matières premières nécessaires à son existence, dans des territoires suffisamment éloignés de nos centres de décision pour que nous puissions en ignorer commodément les conséquences.

Cette dimension extractive de l’économie du calcul nous confronte à une réalité dérangeante : l’apparente immatérialité de l’IA générative masque une dépendance profonde aux ressources terrestres, avec toutes les problématiques géopolitiques, sociales et environnementales que cela implique. La « dématérialisation » promise par le numérique se révèle être, en réalité, une matérialisation différente, moins visible mais tout aussi consommatrice de ressources finies, déplaçant simplement les externalités négatives vers des populations et des écosystèmes sans voix au chapitre.

Les coûts cachés ou l’éléphant dans la pièce

Extraire les métaux rares, synthétiser les composants électroniques, assembler et transporter les produits : tout cela génère bien plus de CO2 que l’usage même de ces appareils, une vérité inconfortable que révèle une étude de Harvard de 2020. Ce travail de recherche montre que ce n’est pas tant l’usage des appareils électroniques qui émet du CO2 que leur fabrication, cette phase invisible pour l’utilisateur final.

L’évolution est frappante : entre l’iPhone 3GS de 2009 et l’iPhone 11 de 2019, la part de l’empreinte carbone due à la fabrication est passée de 49% à 86%, une tendance qui s’accentue à mesure que nos appareils deviennent plus complexes et spécialisés. Autre exemple révélateur : les data centers de Google et Facebook émettent 20 fois plus de gaz à effet de serre par la fabrication de leurs serveurs que par leur consommation d’électricité en fonctionnement.

Pourquoi cette disproportion ? Parce que l’usage des énergies non émettrices de gaz à effet de serre progresse dans l’exploitation des data centers, ce qui limite l’impact de leur usage. Pour la fabrication, en revanche, nous en sommes encore aux balbutiements d’une transition qui s’annonce longue et complexe.

Ainsi, quand nous tentons d’évaluer l’impact écologique de l’IA, il faudrait surtout regarder l’impact de la fabrication des composants et calculer la part utilisée spécifiquement pour faire tourner les systèmes d’IA (soit environ 25% pour ce qui concerne les serveurs). On peut comparer cette situation aux efforts pour rendre les voitures plus écologiques : il ne suffit pas de remplacer l’essence par de l’électricité verte, il faut aussi repenser fondamentalement la construction des véhicules eux-mêmes.

Et si la frugalité numérique était une solution

Face à ces contraintes matérielles et environnementales d’une amplitude inédite, l’optimisation des algorithmes eux-mêmes devient un axe de développement prioritaire. Cette quête d’efficience, longtemps secondaire face aux gains de performances brutes qui permettaient de séduire investisseurs et médias, émerge aujourd’hui comme une nécessité tant économique qu’écologique. Mais suffira-t-elle à inverser la tendance ?

Parmi les techniques les plus prometteuses figure la distillation des modèles (knowledge distillation), ce processus presque alchimique par lequel un modèle massif « enseigne » ses capacités à un modèle plus compact. Cette approche, inspirée par les mécanismes d’apprentissage humain, permet de capturer l’essentiel des performances tout en réduisant drastiquement les ressources nécessaires, comme si l’on parvenait à concentrer l’intelligence d’une bibliothèque entière dans un simple carnet de notes.

D’autres techniques, comme la quantification des poids (weight quantization) ou les sparse attention architectures, permettent de réduire significativement l’empreinte mémoire et computationnelle des modèles. Ces optimisations algorithmiques peuvent diminuer la consommation énergétique d’un facteur 4 à 10, sans impact majeur sur les performances perçues par l’utilisateur final. Une prouesse technique qui rappelle l’art du bonsaï : obtenir l’essence d’un arbre majestueux dans un format miniature, sans en sacrifier l’âme.

Cette recherche d’efficience nous rappelle une sagesse ancienne longtemps oubliée dans notre course à la démesure technologique : la véritable maîtrise ne réside pas dans la complexité mais dans l’élégante simplicité. L’artisan expérimenté n’est pas celui qui utilise le plus d’outils, mais celui qui sait accomplir le plus avec le minimum nécessaire. De même, l’avenir de l’IA générative pourrait bien appartenir non pas aux modèles les plus massifs, mais à ceux qui parviennent à accomplir le plus avec le moins de ressources.

La spécialisation des modèles

Une autre voie d’efficience consiste à privilégier des modèles spécialisés (SLM : Small Langage Model), calibrés avec précision pour des domaines ou des tâches spécifiques, plutôt que de poursuivre la chimère d’une intelligence artificielle générale aux ambitions démesurées. Ces modèles, plus modestes dans leur portée mais plus précis dans leur domaine d’expertise, nécessitent significativement moins de ressources tout en offrant une utilité pratique souvent supérieure, comme un scalpel ciselé surpasse un couteau suisse pour une opération chirurgicale délicate.

Cette approche est confirmée par les recherches minutieuses de Luccioni, qui a découvert que la consommation d’électricité dépendait beaucoup de la spécialisation du modèle. Plus le modèle d’IA est spécialisé, plus il est petit et moins il consomme. Elle recommande donc d’éviter les modèles généralistes (comme ChatGPT 4 ou Gemini) pour les tâches spécifiques et de privilégier des modèles plus compacts, spécialisés sur une tâche précise. Ou, plus simplement encore, de privilégier des modèles plus petits pour des tâches simples, comme le modèle Llama3 8b, dix fois plus petit que ChatGPT 3.5 mais tout aussi performant pour de nombreuses applications.

L’émergence récente de ces « small language models » (SLM) ou modèles de langage compacts marque peut-être un tournant dans l’évolution de l’IA générative. Des entreprises comme DeepSeek avec ses modèles V3 et R1, ou Google avec Gemma 3, illustrent cette tendance vers une plus grande efficience qui pourrait redessiner le paysage technologique dans les années à venir.

Cette spécialisation vertueuse nous rappelle qu’en biologie, l’évolution a rarement favorisé les organismes les plus complexes ou les plus gourmands en énergie, mais plutôt ceux qui ont su s’adapter avec précision à leur niche écologique. De même, l’avenir de l’IA générative pourrait s’orienter vers une constellation de modèles spécialisés, chacun excellant dans son domaine spécifique, plutôt que vers la chimère d’un modèle universel aux coûts écologiques insoutenables.

La créativité née de la nécessité

Au-delà des optimisations techniques, une approche plus fondamentale émerge dans certains cercles encore marginaux : l’innovation frugale, cette philosophie qui privilégie l’efficience et l’adéquation aux besoins réels plutôt que la surenchère technologique. Née dans les contextes de ressources limitées, cette approche trouve une résonance particulière face aux défis environnementaux de l’IA générative.

Cette philosophie de la frugalité numérique s’inscrit dans une réflexion plus large sur la sobriété technologique qui commence timidement à pénétrer les discussions des salles de conseil d’administration. Elle interroge notre tendance collective à privilégier systématiquement le « plus » au « mieux », et invite à repenser nos critères d’évaluation des technologies, en intégrant des dimensions comme l’impact environnemental, l’accessibilité, ou encore la résilience face aux contraintes matérielles.

L’innovation frugale nous rappelle aussi que les contraintes, loin d’être uniquement des obstacles à surmonter par une débauche de moyens, peuvent également être des moteurs puissants de créativité. Tout comme l’haïku japonais trouve sa force expressive dans un cadre formel très strict, ou comme les plus grands chefs créent des merveilles gustatives à partir d’ingrédients simples et locaux, l’IA générative pourrait trouver dans les contraintes écologiques une invitation à réinventer ses approches, pour plus d’élégance et d’efficience.

Délocaliser les calculs pour une intelligence distribuée

Une autre évolution significative, encore embryonnaire mais potentiellement disruptive, concerne la migration progressive du calcul des data centers centralisés vers les périphéries du réseau, ce qu’on appelle l’edge computing dans le jargon technique. Cette transformation de l’architecture même de l’IA générative pourrait avoir des implications considérables tant sur le plan économique qu’environnemental.

Je me suis beaucoup intéressé aux progrès en matière d’optimisation des modèles qui permettent désormais d’exécuter des versions réduites mais fonctionnelles d’IA générative directement sur les appareils des utilisateurs, ordinateurs personnels, smartphones, ou même objets connectés spécialisés. Cette approche présente plusieurs avantages écologiques non négligeables : réduction des besoins en infrastructure centralisée, diminution de la consommation liée à la transmission des données, et possibilité d’utiliser les ressources quand elles sont déjà actives, plutôt que de maintenir des armadas de serveurs en fonctionnement permanent.

Sur le plan environnemental, cette délocalisation du calcul pourrait contribuer à une répartition plus équilibrée de la charge computationnelle, évitant la concentration excessive des impacts dans certaines zones géographiques déjà sous pression. Elle permet également une meilleure adaptation aux ressources énergétiques locales, comme l’utilisation préférentielle des capacités de calcul lorsque l’énergie renouvelable est abondante, une forme d’opportunisme énergétique vertueux.

Cette tendance vers une intelligence locale, esquisse les contours d’une IA plus territorialisée, en phase avec les spécificités et les ressources de chaque contexte géographique, une forme de régionalisme numérique qui contraste avec l’uniformisation globalisée des grands modèles centralisés.

L’intelligence en essaim

Au-delà de la simple délocalisation, il existe une idée plus radicale d’une intelligence artificielle fondamentalement distribuée, où les capacités computationnelles seraient réparties entre de nombreux nœuds interconnectés. Ce modèle « en essaim » s’inspire directement de systèmes naturels comme les colonies d’insectes, où l’intelligence collective émerge de la collaboration d’entités individuellement limitées, un ballet coordonné qui produit une intelligence supérieure à la somme de ses parties.

Des initiatives comme Federated Learning (apprentissage fédéré) permettent déjà d’entraîner des modèles d’IA de manière distribuée, sans centraliser les données sensibles. Cette approche pourrait s’étendre à l’inférence elle-même, créant des réseaux d’intelligence artificielle où chaque appareil contribuerait à l’effort collectif en fonction de ses capacités disponibles, comme dans une immense symphonie computationnelle décentralisée.

Sur le plan environnemental, cette architecture distribuée présente l’avantage d’une meilleure résilience et d’une utilisation plus efficiente des ressources existantes. Plutôt que d’investir des milliards dans la construction effrénée de data centers massifs, elle valorise les capacités computationnelles déjà présentes dans notre environnement quotidien, des milliards d’appareils électroniques dont la puissance reste largement sous-exploitée, comme un vaste océan d’intelligence en jachère.

Cette vision d’une intelligence collaborative, distribuée comme un réseau neuronal à l’échelle planétaire, offre peut-être une voie de réconciliation entre nos ambitions technologiques et les contraintes écologiques. Elle suggère qu’une IA véritablement durable ne s’incarnera pas dans des cathédrales technologiques toujours plus imposantes, mais dans un tissu fin et résilient d’intelligences interconnectées, une forme de démocratie computationnelle qui contrasterait avec l’oligarchie actuelle des géants technologiques.

L’IA et l’humain, une comparaison … troublante !

Dans ce paysage complexe où s’entremêlent enjeux technologiques, écologiques et économiques, certains points méritent d’être nuancés pour éviter les simplifications réductrices et les postures moralisatrices trop faciles. Explorons certains paradoxes qui brouillent les lignes de notre réflexion collective.

Si l’on compare l’empreinte carbone de l’IA à celle d’un humain réalisant les mêmes tâches, les résultats bousculent certaines de nos certitudes. J’ai récemment étudié une recherche comparant le temps passé pour écrire ou produire une image (quelques secondes pour l’IA, quelques heures pour l’humain) et le coût carbone moyen d’un humain et de son ordinateur sur cette durée.

Les conclusions m’ont interpellé : une IA qui écrit une page de texte émettrait 130 à 1500 fois moins de CO2 qu’un humain accomplissant la même tâche ! De même, une IA qui crée une image émettrait 310 à 2900 fois moins de carbone que son homologue humain. À l’heure actuelle, l’utilisation de l’IA offrirait donc la possibilité d’effectuer plusieurs activités créatives à des niveaux d’émissions drastiquement inférieurs à ceux des humains, une statistique qui sera certainement mise en avant dans les prochaines campagnes marketing des entreprises d’IA.

Ce constat, s’il est techniquement exact, mérite cependant d’être examiné avec un regard critique. L’étude ne mentionne que brièvement, presque timidement, le risque d’effet rebond, cette loi implacable de nos sociétés technologiques où chaque gain d’efficacité se traduit paradoxalement par une augmentation de la consommation globale. En d’autres termes, les gains d’efficacité permis par l’IA pourraient en pratique être non seulement annulés, mais spectaculairement inversés par une explosion de la production de contenus.

Les auteurs de l’étude ont omis de quantifier cet effet rebond, cette métamorphose de l’efficience en surconsommation qui caractérise l’histoire de nos innovations techniques depuis la machine à vapeur.

Je l’observe déjà dans mon entourage professionnel : lorsqu’il devient possible de générer mille images en un temps qui nous permettait auparavant d’en créer une seule, nous n’assistons pas à une réduction proportionnelle des émissions, mais à une multiplication vertigineuse de la production.

Une goutte carbonée dans l’océan des émissions ?

Pour contextualiser ces chiffres et éviter les paniques morales aussi stériles que contre-productives, il convient de replacer l’impact de l’IA dans le tableau plus général de nos émissions. Les technologies d’information et de communication participent actuellement entre 2 et 6% des émissions de gaz à effet de serre mondiales, certaines études plus récentes et plus optimistes l’estimant à 1,4% seulement. Dans ce paysage numérique, les data centers contribuent aujourd’hui à 0,1% des émissions globales à effet de serre, selon un article de Nature. C’est dans ce segment relativement modeste que se situe l’IA (pour environ 25% de cette fraction).

J’estime important de garder une perspective proportionnée : si l’IA pose certainement des défis environnementaux significatifs et croissants, elle ne représente actuellement qu’une fraction des émissions globales, loin derrière les secteurs de l’énergie, des transports ou de l’agriculture industrielle. Cette mise en perspective ne vise pas à minimiser l’urgence d’adresser l’impact environnemental de l’IA, mais plutôt à éviter que l’attention médiatique disproportionnée qu’elle suscite ne détourne notre regard collectif des transformations systémiques bien plus fondamentales qu’exige la crise climatique.

Cette précision quantitative ne signifie pas qu’il faille ignorer la croissance exponentielle de ce secteur et son potentiel d’impact futur, mais plutôt qu’il convient de le placer dans le contexte plus large de nos défis climatiques. Une hausse de la consommation énergétique de l’IA de 70% par an, comme le projettent certaines études, transformerait rapidement cette goutte carbonée en torrent si rien n’est fait pour infléchir la trajectoire actuelle.

L’IA à la fois poison et remède ?

L’IA n’est pas seulement un problème du point de vue environnemental ; elle pourrait aussi, dans certaines conditions, faire partie de la solution, incarnant parfaitement cette notion de pharmakon, à la fois poison et remède, chère aux philosophes grecs.

Le rapport de Google sur l’éthique de l’IA (on appréciera l’ironie d’une entreprise évaluant ses propres technologies) cite plusieurs cas d’utilisations de l’IA pour freiner le changement climatique : des systèmes qui peuvent prédire des événements météorologiques extrêmes, réduire la consommation d’énergie des systèmes de refroidissement industriels, aider à concevoir des enzymes mangeuses de plastique et accélérer la recherche sur la fusion nucléaire.

J’ai ététrès intéressé par un article publié en 2023 par une équipe de scientifiques de l’Université de Chicago. Ils y démontrent que des solutions d’IA, comme leur système « CarbonMin », peuvent aider à orienter intelligemment les requêtes vers les datacenters alimentés par une électricité bas-carbone. Selon cet article, cette approche permettrait de réduire les émissions de 35% aujourd’hui et de 56% en 2035. Combiner cela avec des progrès technologiques limiterait la hausse des émissions du secteur à 20% en 2035 malgré une charge 55 fois plus élevée, un gain d’efficience considérable, mais qui constitue néanmoins une augmentation nette des émissions, illustrant parfaitement les limites des solutions purement technologiques à nos défis écologiques.

Cependant, ce même rapport note avec une honnêteté que l’IA pourrait tout aussi bien amplifier le problème en augmentant la productivité des industries extractives et intensives en carbone telles que le pétrole, le gaz ou l’élevage industriel, les aidant à optimiser et donc à intensifier leurs activités polluantes. Cette ambivalence fondamentale, cette capacité à amplifier aussi bien nos tendances destructrices que nos efforts de préservation, constitue peut-être la caractéristique la plus troublante de l’IA dans sa relation à l’environnement.

Retrouver la juste mesure

L’empreinte environnementale de l’IA générative, loin d’être une simple externalité négative que l’on pourrait reléguer aux annexes des rapports RSE, nous invite à repenser fondamentalement notre rapport à la technologie et à l’innovation. Elle nous confronte à des choix collectifs sur la direction que nous souhaitons donner à ces outils puissants, dans un monde aux ressources manifestement finies.

Face aux défis écologiques identifiés, je vois émerger progressivement la notion de « proportionnalité technologique », l’idée presque hérétique dans notre culture de la surenchère que la puissance déployée devrait être proportionnelle à l’utilité réelle générée. Ce principe nous invite à nous interroger sans complaisance : avons-nous réellement besoin des modèles les plus avancés et les plus gourmands en ressources pour chaque usage, ou pouvons-nous accepter des compromis raisonnables pour préserver notre environnement commun ?

Cette réflexion sur la juste mesure technologique me fait penser à ces sagesses anciennes qui nous mettaient déjà en garde contre les excès de la démesure, cet hubris que les Grecs considéraient comme la source de toutes les tragédies humaines. Elle suggère que la véritable sophistication ne réside pas dans la surenchère perpétuelle, mais dans la capacité à trouver l’équilibre optimal entre moyens déployés et fins poursuivies, une forme de minimalisme technologique qui serait aussi une éthique de la responsabilité.

Dans cette perspective, j’imagine l’avenir de l’IA générative non pas comme une course linéaire vers toujours plus de puissance, mais comme une diversification des approches, chacune adaptée à des contextes d’usage spécifiques, avec leurs propres contraintes et leurs propres critères d’excellence.

Des études récentes confirment l’émergence de cette tendance. Selon une enquête menée auprès des entreprises concernant les technologies qu’elles envisagent d’adopter pour soutenir leurs initiatives en intelligence artificielle, les GPU, ces processeurs spécialisés aussi puissants qu’énergivores, n’arrivent étonnamment qu’en quatrième position de leurs priorités. En revanche, l’augmentation de la capacité de stockage et les solutions de cloud hybride occupent les premières positions. Cette tendance s’explique par le besoin pragmatique des entreprises de gérer et de stocker les volumes massifs de données nécessaires pour alimenter leurs modèles d’IA, plutôt que de se lancer dans une course à l’armement computationnel.

Plus significatif encore, les entreprises semblent ne plus privilégier aveuglément la puissance brute de calcul au détriment de l’efficacité lorsqu’il s’agit d’utiliser l’IA générative. Une étude récente révèle ainsi que les préoccupations liées à la consommation d’énergie se sont inversées, avec une augmentation de 10% des inquiétudes concernant l’impact énergétique. Les organisations prennent progressivement conscience qu’elles peuvent tirer parti de l’IA tout en intégrant des stratégies d’économies d’énergie, abandonnant l’illusion que plus est nécessairement mieux.

L’éthique environnementale

La prise en compte des coûts environnementaux transforme également le paysage éthique de l’IA générative. Au-delà des préoccupations traditionnelles comme la vie privée, la transparence ou les biais algorithmiques, l’impact écologique s’impose désormais comme une dimension fondamentale de l’éthique de ces technologies, un pilier jusque-là étrangement absent des chartes et des déclarations de principes qui fleurissent dans l’industrie.

Cette éthique environnementale de l’IA nous invite à considérer non seulement les conséquences immédiates de nos choix technologiques sur les utilisateurs humains, mais également leurs implications à long terme pour les générations futures et pour l’ensemble du vivant. Elle élargit notre horizon moral au-delà des seuls intérêts humains immédiats, pour intégrer la santé des écosystèmes dont dépend, in fine, notre propre existence, un changement de paradigme éthique dont l’ampleur ne doit pas être sous-estimée.

Elle nous rappelle également que les coûts environnementaux de l’IA générative ne sont pas répartis équitablement. Les conséquences des changements climatiques auxquels contribue cette technologie affectent de manière disproportionnée les populations les plus vulnérables, celles-là mêmes qui bénéficient le moins de ses avantages, créant ainsi une question de justice environnementale qui ne peut être ignorée.

La fracture numérique se double ainsi d’une fracture écologique, dessinant une géographie mondiale de l’inégalité à plusieurs dimensions.

La responsabilité des acteurs

Pour répondre efficacement aux défis environnementaux posés par l’IA, une approche impliquant tous les acteurs, des développeurs aux utilisateurs finaux, en passant par les entreprises et les régulateurs, est nécessaire.

Mais au-delà des déclarations d’intention et des engagements solennels qui fleurissent dans les conférences internationales, quelles actions concrètes peuvent véritablement infléchir la trajectoire actuelle ?

  • Le rôle des développeurs : Les développeurs et chercheurs en IA ont un rôle crucial à jouer dans la conception de modèles plus efficients. Il y a quelques semaines, j’ai participé à un atelier où nous discutions de l’intégration de métriques de durabilité dans le processus de développement, au même titre que les métriques de performance traditionnelles. L’émergence de cadres d’évaluation intégrant l’impact environnemental des modèles d’IA pourrait orienter la recherche vers des solutions plus durables, transformant les critères mêmes de ce que nous considérons comme une « avancée » technologique. L’efficience algorithmique doit devenir un domaine de recherche prioritaire, avec un effort particulier sur les techniques permettant de réduire la consommation d’énergie et de ressources matérielles sans compromettre significativement les performances. Cela inclut la mise au point de méthodes d’entraînement plus efficientes, l’optimisation des architectures de modèles, et le développement de techniques d’inférence moins gourmandes en ressources, un programme de recherche ambitieux qui exigera une réorientation significative des financements et du prestige académique vers ces questions jusque-là négligées.
  • La responsabilité des entreprises : Les entreprises technologiques, en particulier les géants du secteur qui dominent le développement de l’IA générative, ont une responsabilité particulière dans cette transformation. Elles doivent non seulement adopter des pratiques plus durables dans leurs propres opérations, mais également faire preuve d’une transparence radicale quant à l’empreinte environnementale de leurs modèles et services, une transparence qui va bien au-delà des rapports RSE formatés et des engagements vagues qui caractérisent trop souvent la communication corporate sur ces sujets. La mise en place d’objectifs ambitieux mais réalistes en matière de réduction des émissions de gaz à effet de serre et de consommation d’énergie est essentielle. Cela pourrait inclure l’utilisation d’énergies renouvelables pour alimenter les data centers, l’amélioration de l’efficacité des systèmes de refroidissement, et l’adoption de principes d’économie circulaire pour les équipements électroniques, des mesures concrètes dont l’impact devrait être mesuré et vérifié par des tiers indépendants. Certaines entreprises font déjà des efforts en ce sens, qu’il convient de saluer sans naïveté. Par exemple, IBM a rapporté que 74% de l’énergie utilisée par ses data centers provenait de sources renouvelables en 2023, tandis que Google vise un approvisionnement en énergie 100% décarbonée d’ici 2030. Ces engagements, s’ils sont tenus et vérifiés, constituent des pas dans la bonne direction, même s’ils ne suffisent pas à compenser l’augmentation globale de la consommation liée à l’expansion continue de ces infrastructures.
  • Le rôle des utilisateurs : J’en suis convaincu : les utilisateurs de l’IA générative, qu’il s’agisse d’individus ou d’organisations, ont également un rôle à jouer dans la réduction de l’impact environnemental de ces technologies. Une utilisation plus consciente et responsable, privilégiant les modèles adaptés à leurs besoins réels plutôt que les plus puissants par défaut, peut contribuer significativement à réduire l’empreinte globale, une forme de minimalisme numérique qui serait aussi une éthique de la responsabilité individuelle. La sensibilisation des utilisateurs aux coûts environnementaux de l’IA générative est donc cruciale. Des outils permettant de visualiser en temps réel la consommation d’énergie et les émissions de CO2 associées à l’utilisation de ces technologies pourraient encourager des comportements plus responsables, transformant l’invisible en visible, l’abstrait en concret. J’imagine un compteur intégré à ChatGPT qui afficherait en temps réel l’équivalent CO2 de votre conversation avec l’IA, une transparence qui changerait peut-être radicalement nos comportements d’usage.
  • L’indispensable cadre réglementaire : Enfin, les régulateurs ont un rôle central à jouer dans l’encadrement du développement de l’IA générative d’un point de vue environnemental. Des initiatives comme le cadre législatif européen sur l’IA, qui souligne la nécessité de prendre en compte la consommation d’énergie des modèles, montrent la voie vers une réglementation plus complète qui pourrait transformer les pratiques de l’industrie. La mise en place de normes environnementales spécifiques pour l’IA, incluant des exigences en matière d’efficience énergétique et de durabilité des matériaux utilisés, pourrait contribuer à orienter le secteur vers des pratiques plus responsables. Des mesures fiscales, comme une taxation carbone adaptée au secteur numérique, pourraient également inciter les acteurs à réduire leur empreinte environnementale, car l’expérience montre que les incitations économiques restent souvent plus efficaces que les appels à la vertu. Des initiatives émergent déjà dans ce sens, timidement mais significativement. Par exemple, en octobre 2023, le gouverneur de Californie Gavin Newsom a signé une loi sur la divulgation climatique qui oblige les entreprises dont le chiffre d’affaires annuel dépasse 1 milliard de dollars à divulguer leurs émissions de gaz à effet de serre d’ici 2025. Au niveau européen, la directive sur le devoir de vigilance en matière de durabilité des entreprises vise à garantir que les organisations mènent une diligence raisonnable concernant les impacts sur les droits humains et l’environnement. Ces premières pierres réglementaires, si elles sont effectivement mises en œuvre et contrôlées, pourraient progressivement transformer le paysage de l’IA.

Au-delà du solutionnisme technologique

L’exploration des dimensions matérielles et environnementales de l’IA générative nous confronte à une réalité souvent occultée par l’enthousiasme technologique et les discours marketing : ces outils apparemment éthérés s’enracinent profondément dans la matérialité du monde, consommant des ressources limitées et générant des impacts écologiques significatifs. Ils ne flottent pas dans un nuage abstrait, mais reposent sur des infrastructures titanesques, des matériaux extraits de la terre et des quantités massives d’énergie.

Cette prise de conscience, loin d’être uniquement contraignante ou culpabilisante, ouvre de nouvelles voies d’innovation et de progrès. Elle nous invite à développer des approches plus équilibrées, plus efficientes, plus en phase avec les limites et les richesses de notre planète. L’efficience algorithmique, la spécialisation des modèles, la délocalisation du calcul ou encore l’innovation frugale constituent autant de chemins prometteurs vers une IA générative écologiquement viable, des chemins qui exigent non pas moins d’ingéniosité, mais une ingéniosité différemment orientée.

Plus fondamentalement, cette exploration nous rappelle que l’intelligence artificielle, comme toute création humaine, n’échappe pas aux lois fondamentales qui régissent le vivant. Comme nous, elle dépend des ressources finies de notre planète et s’inscrit dans des cycles d’échange avec son environnement. Reconnaître cette parenté profonde entre intelligence artificielle et systèmes naturels pourrait bien être la clé d’une coévolution harmonieuse entre ces deux formes d’intelligence qui façonneront notre avenir commun, un changement de paradigme qui nous inviterait à penser la technologie non plus comme une conquête de la nature, mais comme une expression particulière de celle-ci.

Car en définitive, je ne crois pas que la question soit de savoir si nous pouvons poursuivre le développement de l’IA générative sans considération pour ses coûts environnementaux, nous ne le pouvons manifestement pas à long terme, mais plutôt comment nous pouvons orienter ce développement pour qu’il contribue à un avenir viable et désirable pour l’ensemble du vivant. C’est dans cette quête d’harmonie, plus que dans la course effrénée à la puissance brute, que réside peut-être la véritable intelligence de notre espèce.

Alors que nous nous trouvons à la croisée des chemins, avec d’un côté la promesse séduisante d’outils d’une puissance inédite et de l’autre la menace bien réelle de pressions environnementales insoutenables, nous avons collectivement la responsabilité de façonner une IA générative qui amplifie notre créativité et notre capacité à résoudre les problèmes complexes de notre temps, sans compromettre les fondements écologiques de notre existence.

Cet équilibre délicat, mais essentiel, pourrait bien être l’un des plus grands défis, et l’une des plus belles opportunités, de notre époque. Il exigera de nous non seulement des innovations technologiques, mais aussi des innovations sociales, économiques et politiques pour créer le cadre dans lequel une IA véritablement durable pourra s’épanouir.

Car la technologie seule, aussi brillante soit-elle, ne pourra jamais résoudre des problèmes qui sont fondamentalement systémiques et qui exigent une transformation profonde de nos modes de production, de consommation et de gouvernance.

J’en suis intimement persuadé : l’IA générative n’échappera pas à cette réalité. Son avenir sera écologique, ou ne sera pas.

Ce deuxième volet terminé, la semaine prochaine nous explorerons le troisième et dernier volet : Enjeux éthiques et perspectives d’avenir