L’impact environnemental de l’IA devient de plus en plus dur à ignorer, entre la consommation croissante d’eau et d’énergie, le développement de data-centers de plus en plus nombreux et la production massive de puces électroniques. Ce qui est produit au nom de l’innovation concentre également les pouvoirs, renforce la surveillance et fait peser de nouvelles menaces sur la démocratie.

Eau, énergie et émissions : l’impact environnemental de l’IA

Le boum de l’IA nous est vendu comme une forme de progrès inévitable, mais la vraie question n’est pas de savoir si l’intelligence artificielle est utile en théorie. C’est de savoir à qui elle appartient, qui profite de son utilisation et qui paye pour la facture environnementale et politique quand le battage médiatique devient des usines de fabrication, des centres de données, une augmentation de la demande en électricité, du stress hydrique, de la surveillance et des atteintes à la vie démocratique. 

Un Rapport de Greenpeace Allemagne publié en 2025 met en garde contre la demande croissante en électricité, en eau et en matériaux bruts de l’IA, ainsi que contre l’augmentation de ses émissions, et estime que la consommation en électricité des data centers pourrait s’avérer 11 fois plus élevées en 2030 qu’en 2023 à moins que les gouvernements n’interviennent. Une autre étude de 2026, soutenue par Beyond Fossil Fuels, a également souligné le problème du greenwashing, en montrant que 74% des promesses de l’industrie au sujet des bénéfices de l’IA sur le climat étaient sans preuve. L’étude n’a non plus été en mesure d’identifier le moindre cas où des systèmes d’IA générative destinés aux consommateur·ices, tels que ChatGPT, Gemini ou Copilot, permettaient de réduire les émissions de manière significative, vérifiable et substantielle.

Ce point est essentiel, car il met à mal l’un des arguments favoris du secteur, c’est-à-dire que la consommation gargantuesque de l’IA en énergie peut se justifier du fait d’éventuels bénéfices climatiques à venir. En réalité, son développement en lui-même conduit à davantage d’extractions, davantage d’infrastructures et davantage de pouvoir pour les entreprises, alors même que celles-ci tentent de faire passer son essor pour une avancée écologique. 

C’est pour cette raison que le débat ne doit pas être réduit autour de ce que pourrait faire l’IA, puisque le système en cours de construction redistribue déjà le pouvoir dans les mains des plus puissants tout en rejetant sur les autres les coûts environnementaux et les risques liés à l’information.

Les data-centers IA et l’opposition des populations

À travers le monde, des gens s’opposent à la construction de nouveaux centres de données, pas parce qu’ils et elles seraient réfractaires à l’innovation, mais parce que ces personnes savent reconnaître certains schémas : accaparement des terres, pollution sonore,  pression sur les réseaux d’approvisionnement en eau, surcharge des réseaux locaux et érosion progressive du contrôle des populations sur les terres et les infrastructures. À  New Brunswick, dans le New Jersey, les responsables de la ville ont retiré les centres de données d’un plan de réaménagement et rétabli l’obligation de créer un parc, après une levée de bouclier des habitant·es, qui ont clairement fait part de leurs inquiétudes au sujet de l’environnement, de la pollution sonore et de la consommation en eau et énergie. À San Marcos, dans le Texas, Le conseil municipal a voté à 5 voix contre 2 en défaveur d’un projet de data center, à l’issue d’une réunion de plusieurs heures et au terme de plus d’une centaine d’interventions du public.

Mars 2012 : vue aérienne du centre de données de Facebook à Forest City. Ce site de 60 hectares a été le deuxième centre de données construit par Facebook aux États-Unis. © Greenpeace

En septembre 2025, le conseil municipale de Dublin Sud a adopté une motion réclamant soit une interdiction à l’échelle nationale, un moratoire sur la construction de nouveaux data centers, ou bien l’imposition de conditions strictes, avec notamment l’utilisation exclusive d’énergies renouvelables, répondant ainsi à la crainte grandissante pour les populations de se voir contraintes d’absorber les coûts énomiques et écologiques des rêves de grandeurs des gourous du numérique. Au Royaume-Uni, des activistes ont pu intenter une action en justice contre un centre de données à grande échelle de 90MW dans le Buckinghamshire, après que le gouvernement eut admis avoir commis une « grave erreur » en approuvant le projet.

Il ne s’agit pas là que d’exemples isolés. Ce sont les premiers signes d’un mouvement de rejet démocratique plus large à l’encontre d’un modèle d’expansion numérique qui attend des populations locales qu’elles en supportent les coûts, tandis que des entreprises et des milliardaires lointains en engrangent les bénéfices.La résistance devient également culturelle, et pas simplement locale. L’action de boycott QuitGPT est devenu le symbole du rejet de l’idée que ChatGPT aurait dû devenir le cadre de référence pour le travail, le savoir et la vie quotidienne. Le mouvement est explicitement né en réaction à l’accord passé entre OpenAI et le ministère de la défense des États-Unis, et a pris d’autant plus d’ampleur juste après, quand ces derniers ont bombardé l’Iran en soutien d’Israël. L’auteur et historien néérlandais Rutger Bregman a aidé à populariser le boycott en demandant publiquement aux gens d’annuler leur abonnement, en évoquant d’abord près de 700 000 sympathisant·es, puis plus d’un million. Plus de 2,5 millions d’utilisateur·ices boycottent désormais ChatGPT.

Les colosses de la tech, le pouvoir de l’IA et la menace sur la démocratie

Si vous voulez comprendre pourquoi les activistes militent de plus en plus contre les puces électroniques ainsi que les bots de discussion, commencez par Nvidia, le géant américain de l’industrie, et Jensen Huang, son PDG. Nvidia a annoncé un chiffre d’affaires annuel colossal de 215,9 milliards de dollars, attestant de la place l’entreprise dans l’essor de l’IA. Les derniers résultats financiers montrent en effet que son activité est dominée par la production de data centers et de puces pour l’IA, et non plus par les jeux vidéo comme c’était le cas, 80 % à 90 % du chiffre d’affaires provenant désormais des premiers.

Pour Huang, l’IA est « le plus grand projet d’infrastructure de l’histoire de l’humanité » et est indispensable au monde moderne. C’est précisément pour cette raison que Nvidia ne peut être considérée comme un simple fournisseur passif, étranger aux conséquences sociales et écologiques de cet essor. Sans les puces de Nvidia, une grande partie de la course à l’IA générative ne pourrait tout simplement pas se produire à l’échelle actuelle.

Mars  2026 : Le jour de l’ouverture de la conférence GTC (Global Technology Centers) de Nvidia, Greenpeace USA a fait circuler un camion équipé de trois panneaux d’affichage pour adresser un message direct à Jensen Huang : « Hey Jensen, tes processeurs graphiques surchauffent. Tout comme la planète. » © Brooke Anderson / Greenpeace

Une recherche datant d’octobre 2025 de Greenpeace Asie de l’Est place Nvidia bon dernier sur le classement des chaînes d’approvisionnement d’IA décarbonée et précise que les revenus records de l’entreprise reposent sur un « déficit de décarbonisation » externalisé vers des fournisseurs de Taïwan et de Corée du Sud qui dépendent encore fortement des énergies fossiles. 

Le bureau de Greenpeace a aussi révélé que les émissions liées à la fabrication de puces d’IA ont été multipliées par 4,5 en l’espace d’un an, ce qui témoigne à nouveau du coût environnemental colossal de cette course à l’infrastructure. Il ne s’agit pas que d’un effet secondaire du boum ; ce coût fait partie intégrante du modèle industriel qui sous-tend OpenAI, Anthropic, Amazon et toute la ruée vers le déploiement à grande échelle de l’IA générative. 

L’histoire d’Amazon est similaire. L’entreprise de Jeff Bezos a réalisé plus de 77 milliards de dollars de bénéfices en 2025 tout en licenciant 30 000 personnes alors même qu’elle augmentait ses investissements dans l’IA. Voilà à quoi ressemble « l’innovation » lorsqu’elle est pilotée par un pouvoir unique : des bénéfices records, des suppressions d’emplois, une hausse des investissements et la fausse promesse qu’une automatisation accrue profitera d’une manière ou d’une autre au bien commun.  

L’IA, la guerre et la manipulation

L’économie politique du boum de l’IA devrait inquiéter quiconque se soucie de la démocratie et de la liberté. Les leaders de la tech et les grandes entreprises ont dépensé sans compter pour s’attirer les faveurs de Donald Trump après sa réélection, notamment Sam Altman, le PDG d’OpenAI et son don de 1 million au fond destiné à l’investiture du 47ème président des États-Unis.  Plusieurs sources ont également établi un lien entre Greg Brockman, cofondateur d’OpenAI, et une campagne de financement de 102 millions de dollars destinée à la caisse électorale de Trump.

Palantir et Alex Karp se sont glissés encore plus intimement dans les mailles du pouvoir. Le Service de l’immigration et des douanes des États-Unis (ICE) ICE a passé un accord de 30 millions de dollars avec Palantir $30m pour la construction de sa plateforme de surveillance « ImmigrationOS ». Karp a défendu la collaboration de son entreprise avec l’agence fédérale et a déclaré plus tard que les critiques allant contre l’ICE devraient plutôt réclamer « plus de Palantir ». Cela en dit long sur la définition du « progrès» quand convergent l’IA, la violence aux frontières, l’extraction de données et le pouvoir exécutif.

Juin  2014 : une collation d’associations de tous horizons politiques s’est mobilisée pour le survol d’un dirigeable au-dessus du centre de données de la NSA à Bluffdale, dans l’Utah, afin de protester contre le programme illégal de surveillance de masse mis en place par le gouvernement. Greenpeace a fait voler son dirigeable thermique de 41 mètres de long au-dessus de l’infrastructure en arborant le message « Espionnage illégal de la NSA ci-dessous ». © Douglas Pizac / Greenpeace

Le débat s’intensifie par ailleurs autour de l’implication de l’IA dans la guerre. Anthropic a exclu deux domaines pour l’emploi de son IA, la « surveillance intérieure de masse » et les « armes complètement autonomes » et s’est heurtée au Pentagone en refusant d’assouplir ses conditions. OpenAI a, au contraire, signé un accord avec le Pentagon pour des systèmes classifiés et de ne l’a revu qu’après une levée de boucliers en renforçant les restrictions contre la surveillance nationale et les armes autonomes sans contrôle humain. Cela ne rend pas Anthropic inoffensive pour autant, mais montre bien qu’au sein même de l’industrie, il existe de réelles divergences quant à la mesure dans laquelle les entreprises sont prêtes à s’engager dans la militarisation et la surveillance étatique.

Amnesty International a demandé l’interdiction de certaines pratiques fondées sur l’IA, comme la reconnaissance faciale en public, la police prédictive, la catégorisation biométrique, la reconnaissance des émotions et le profilage des migrants. Forbidden Stories a en outre enquêté sur des entreprises proposant des outils de surveillance basés sur l’IA capables de cibler des journalistes, des dissidents et des militants.

La culture et l’information connaissent elles aussi une transformation rapide. Deezer indique recevoir désormais plus de 60 000 titres par jour entièrement générés par l’IA, soit environ 39 % de l’ensemble de la musique fournie quotidiennement à la plateforme. Six des 50 titres les plus populaires de Spotify aux USA en janvier dernier ont été entièrement générés par IA. Suno génère environ 7 millions de chansons par jour. Son chef exécutif, Mikey Shulman, s’est trahi quand il a avoué : « Ce n’est pas amusant de faire de la musique maintenant. Cela prend du temps et beaucoup d’efforts », réduisant ainsi le savoir-faire musical à un simple problème de friction qu’un logiciel peut résoudre. La remarque de Sam Altman selon laquelle il faut « vingt ans de vie et toute la nourriture que l’on consomme » pour « former un être humain » a fait mouche pour la même raison : elle a mis en lumière une vision du monde dans laquelle la créativité humaine et les limites écologiques sont considérées moins comme des valeurs que comme des sources d’inefficacité.

Les géants de l’IA n’ont pas juste bouleversé les industries créatives, ils ont été accusés à plusieurs reprises devant les tribunaux d’avoir développé leurs produits à partir d’œuvres humaines sans autorisation. Des poursuites ont été engagées par des auteur·ices et autres artistes visuels,  par des organes de presse majeurs tels que le The New York Times, et même par des studios hollywoodiens comme Disney et Universal qui leur reprochent des violations massives du droit d’auteur. Que ces procès échouent ou pas, le schéma est clair : des entreprises qui se prétendent moteurs de l’innovation ont été clairement accusées de considérer les livres, le journalisme, la musique et l’art comme des matériaux bruts à extraire, absorber et monétiser sans consentement, sans indemnisation et sans rendre de compte. 

Les mêmes systèmes affaiblissent également le traitement de l’information. Une recherche de Proof News a montré  que les principaux outils d’IA leading fournissaient des réponses faussées, incomplètes voire dangereuses à de simples questions au sujet des élections plus de la moitié du temps, tandis qu’une analyse indépendante de GroundTruthAI relayée par NBC a montré que les chatbots les plus populaires donnaient des réponses erronées à 27 % des questions relatives aux élections.

Janvier 2021 : Rassemblement pro Trump à Washington DC. © Tim Aubry / Greenpeace

Sur X, Grok a déjà montré comment cela se traduit en pratique. Lors de la campagne électorale américaine de 2024, des responsables ont retracé l’origine de fausses informations concernant les dates limites de dépôt des bulletins de vote et l’éligibilité des candidats jusqu’à Grok, avant d’avertir que de telles erreurs risquaient d’induire en erreur ou de semer la confusion chez les électeur·ices à grande échelle. À l’approche d’élections aux enjeux majeurs, on ne peut se contenter de qualifier ce genre d’anomalies de bug mineurs. C’est un véritable risque pour la démocratie, que des plateformes détenues par des milliardaires amplifient, par des systèmes de recommandation automatisés et de contenus synthétiques conçus pour maximiser l’engagement plutôt que les faits. 

La technologie au service du bien commun : contrôle démocratique, vie privée et énergie renouvelable 

Un autre avenir est possible. Mettre la technologie au service du bien commun revient à imaginer une société dans laquelle les outils numériques sont développés avant tout pour répondre à de véritables besoins sociaux et écologiques, et pas pour accroître le pouvoir des milliardaires ou poursuivre la course aux gains spéculatifs ; une société dans laquelle l’IA ne serait pas envisagée comme une solution immédiate et automatique, mais utilisée seulement lorsque c’est nécessaire et justifié, et qu’elle ne nécessiterait pas davantage de ressources que des solutions plus simples.

Cette IA-là fonctionnerait à 100% grâce aux énergies renouvelables et proposerait une transparence totale sur sa consommation d’eau et d’énergie, y compris dans sa chaîne d’approvisionnement. Elle serait conçue de manière à ce que les populations n’en payent pas le prix, à travers des factures d’électricité toujours plus élevées, des pénuries d’eau ou de la pollution.

Avril 2025 : à la tombée de la nuit en Californie, Greenpeace USA a projeté un un message fort, empreint de détermination, sur les Marin Headlands, face au Golden Gate Bridge. Cette action marquait le centième jour du deuxième mandat de l’administration Trump. © Paul Kuroda / Greenpeace

La propriété et la gouvernance des IA seraient bien plus démocratiques, avec un cadre public solide, des limites imposées au pouvoir des monopoles, un consentement communautaire significatif et des institutions capables de mettre la technologie au service de la résilience climatique, des services publics, de la protection de la biodiversité et du bien commun. Cela impliquerait également la mise en place de formes d’IA souveraine, dans lesquelles les données et les modèles ne seraient pas simplement transférés vers des clouds d’entreprises lointaines, mais resteraient soumis à un contrôle démocratique local, à une traçabilité claire, à des garanties strictes en matière de confidentialité et à des règles d’intérêt public. L’accès serait large, abordable et accessible par conception, et les libertés protégées incluraient la vie privée, la liberté d’expression, le droit à la dissidence et la protection contre la surveillance, la manipulation et l’exclusion, afin que la technologie renforce le pouvoir des citoyen·nes au lieu de le réduire.