Les trois écologies à l’épreuve de l’intelligence artificielle
La pensée de Félix Guattari permet d’éclairer les coûts cachés des IA génératives, qui s’appuient sur un extractivisme pillant les ressources naturelles et culturelles.
Dans les trois écologies (Galilée, 1989), le philosophe Félix Guattari invitait à repenser la question écologique de manière systémique, en articulant la question de « l’écologie environnementale » à celles de « l’écologie sociale » et de « l’écologie mentale » : « seule une articulation (…) entre les trois registres écologiques, celui de l’environnement, celui des rapports sociaux et celui de la subjectivité humaine » lui semblait susceptible d’éclairer la situation contemporaine. Ces trois points de vue écologiques peuvent être utiles pour évaluer les enjeux des « intelligences artificielles génératives » qui se développent aujourd’hui.
Au niveau de l’écologie environnementale tout d’abord, les discours au sujet des machines pensantes ou des esprits numériques semblent masquer l’irréductible matérialité des dispositifs que nous utilisons quotidiennement, c’est-à-dire, les ressources et les infrastructures qui permettent à ces systèmes de fonctionner. Outre les terres rares nécessaires à la fabrication des composants électroniques, les infrastructures numériques (terminaux, centre de données et réseaux) représentent « aujourd’hui 3 à 4 % des émissions de gaz à effet de serre dans le monde », tandis que « les besoins [en électricité] des centres de données, des cryptomonnaies et de l’intelligence artificielle devraient doubler d’ici 2026 ». L’entraînement des grands modèles de langage (LLM) nécessite des data centers très consommateurs en électricité et qui nécessitent aussi de grandes quantités d’eau pour alimenter leurs systèmes de refroidissement. Ainsi, entre 2021 et 2022, la consommation d’eau de Google et Microsoft a respectivement augmenté de 20 % et 34 %, principalement en raison de l’engagement des entreprises dans le champ de l’IA générative – alors que l’eau vient à manquer. Dans certaines régions d’Uruguay ou d’Espagne, le conflit entre le refroidissement des data centers et l’accès à l’eau des habitants a déjà commencé. En Uruguay, Google prévoit la construction d’un énorme centre de données utilisant l’équivalent journalier de ce que consomment 55 000 personnes, dans une région qui souffre de sécheresse. En Espagne, c’est Meta qui prévoit 102 hectares de hangar pour abriter des milliers de serveurs dans une réserve naturelle protégée, nécessitant 600 millions de litres d’eau par an pour fonctionner, dont 200 millions seront directement prélevés dans le réseau d’eau potable de la ville de Talavera de la Reina, alors que les périodes de sécheresse dans la région ne cessent de s’aggraver.
« Le plus grand pillage de l’histoire de l’humanité »
Quelle que soit leur utilité potentielle, la généralisation de ces systèmes semble donc aller de pair avec un épuisement des ressources naturelles, au détriment des besoins fondamentaux des citoyens et de l’avenir de nos écosystèmes communs. Mais l’écologie environnementale n’est pas le seul terrain concerné par les effets des grands modèles de langage : l’écologie sociale semble elle aussi défiée, en particulier quand on s’intéresse à la transmission, à la diversification et au renouvellement de la culture collective, à travers lesquelles évoluent et se transforment les sociétés. En effet, outre l’exploitation des ressources naturelles, l’entraînement des LLM suppose aussi l’exploitation des ressources culturelles.
Les quantités massives de données grâce auxquelles sont entraînés les algorithmes proviennent des textes et des images partagés sur la Toile, mais les créateurs de contenus ne sont pas rémunérés : c’est ce qui conduit Jean Cattan et Célia Zolynski à parler d’« IA extractives », alors que Naomi Klein évoque le « plus grand pillage de l’histoire de l’humanité ». Dans Le Capital que je ne suis pas ! (Anne Alombert et Gaël Giraud, Fayard, 2024), nous décrivons ce phénomène comme une opération de capitalisation de la mémoire collective, qui devient un fonds disponible, que quelques acteurs hégémoniques (tels OpenAI, Microsoft, Google, Meta, etc.) soumettent à des calculs probabilistes automatisés, sans se préoccuper de renouveler des ressources symboliques exploitées. Un tel renouvellement de la culture collective supposerait non seulement de rémunérer ceux qui la produisent, mais aussi de valoriser les expressions singulières et minoritaires : qu’il s’agisse de la création artistique, de l’innovation technique, de l’invention théorique, du style linguistique ou de la découverte scientifique, le nouveau se construit toujours contre le sens commun et les opinions majoritaires. Or les calculs statistiques des algorithmes ne prennent pas en compte les contenus originaux noyés dans les masses de données : ils renforcent les moyennes et amplifient les biais. Si les textes et images automatiques devenaient majoritaires sur Internet, ces effets de standardisation risqueraient de s’accentuer.
Des modèles alternatifs
Cette homogénéisation culturelle aura nécessairement des effets en termes d’écologie mentale, puisque les environnements symboliques dans lesquels nous évoluons conditionnent les manières dont nous pensons. Le risque pour les subjectivités humaines, consiste ici à déléguer leurs capacités d’expression à des automatismes algorithmiques, donc à renoncer à exercer leurs facultés de mémoire et d’imagination – à part dans le cadre de la rédaction de « prompts » qui n’ont pas vocation à être lus par des lecteurs interprétant leur sens, mais seulement à être effectués par des machines répondant à des commandes (imperméables à l’humour, à l’ironie, à l’équivocité).
Ces nouveaux outils d’écriture pourraient considérablement modifier nos manières de nous exprimer : les « intelligences artificielles génératives » ne sont pas de simples moyens de notation ou de communication d’une pensée préexistante, mais transforment nos structures mentales et nos capacités cognitives. Leur diffusion rapide et massive pourrait s’avérer dangereuse pour nos capacités d’écrire et de parler, donc de penser. Pour faire face à ces enjeux, il devient essentiel de s’interroger sur des modèles alternatifs, susceptibles de préserver nos écosystèmes communs et de renforcer nos intelligences collectives. Les innovations porteuses d’avenir seront celles qui parviendront à mettre les automates algorithmiques au service des trois écologies.
Ça vous plaira aussi
- BTP, des trésors de déchets
Le réemploi, immense défi pour le BTP
- Tribune du club
Le numérique au service de la redirection ?
- A l'école de la transition
Edith Le Cadre : « Faire de l’agroécologie forte »
- A l'école de la transition
L’Agro Rennes-Angers à l’heure de la transition écologique
- Interview Partenaire
Luce Brotcorne : « Le lien entre le théorique et le concret est une richesse »