L’essor spectaculaire de l’Intelligence artificielle (IA) au cours des dernières années, porté par l’émergence des assistants conversationnels et des outils génératifs, paraît aujourd’hui largement dominé par une poignée de grandes entreprises technologiques, parmi lesquelles OpenAI, Anthropic, Google DeepMind, Meta AI et Mistral AI. Leur point commun ? Elles sont les seules à disposer des moyens financiers et techniques nécessaires pour entraîner des modèles d’une complexité inédite. Derrière ces systèmes se cachent en effet des infrastructures de calcul colossales, composées de dizaines de milliers de processeurs graphiques (GPU) fonctionnant en parallèle jour et nuit dans d’immenses data centers. Le coût d’entraînement d’un seul modèle de langage de pointe donne le vertige : en 2024, le modèle GPT-4 d’OpenAI aurait nécessité près de 100 millions de dollars d’investissement, et la génération suivante (GPT-5) a vu son coût multiplié par 10. Selon les estimations de l’institut de recherche Epoch AI, la capacité globale de calcul dédiée à l’IA double désormais tous les sept mois. Cette explosion de la demande profite directement aux géants du matériel et du cloud, tels que Nvidia, AMD ou Amazon. Dans ce contexte, la course à l’IA ressemble de plus en plus à une compétition industrielle dominée par les acteur·ices disposant de ressources financières et technologiques considérables.

Pourtant, cette concentration du pouvoir technologique est relativement récente. L’histoire de l’IA s’enracine en réalité dans une culture bien différente : celle du partage et du développement collectif d’outils scientifiques, de jeux de données ouverts et de bibliothèques d’algorithmes. Pendant plusieurs décennies, des communautés mondiales de chercheur·ses et d’ingénieur·es ont ainsi contribué, souvent bénévolement, à l’avancée rapide des méthodes d’apprentissage automatique. Ces dynamiques collaboratives ont émergé dans les forums de développeur·ses, les dépôts de code partagés et les laboratoires universitaires. Derrière les modèles d’IA les plus sophistiqués se cache ainsi une dette intellectuelle considérable envers une culture bien plus ancienne, fondée sur la coopération et le partage : celle du logiciel libre et de l’open source.

Envie d’avoir de nos nouvelles par mail ?

Une histoire collective

Tout commence dans les années 1980, lorsque Richard Stallman et la Free Software Foundation posent une idée radicale : le code source d’un programme doit pouvoir être lu, modifié et redistribué librement. Une philosophie qui, une décennie plus tard, trouve sa concrétisation avec Linux. Créé en 1991 par le Finlandais Linus Torvalds et développé collaborativement par des milliers de programmeur·ses à travers le monde, ce système d’exploitation devient progressivement linfrastructure dominante des serveurs et des supercalculateurs, y compris ceux daujourd’hui sur lesquels tournent les modèles d’IA les plus avancés.

C’est ensuite avec le langage Python qu’émerge un écosystème scientifique ouvert d’une richesse sans précédent. NumPy, SciPy, puis Scikit-learn en 2011 démocratisent tour à tour le calcul matriciel, l’optimisation numérique et le machine learning, rendant accessibles à n’importe quel développeur des outils dune grande efficacité. La diffusion s’accélère encore avec la plateforme GitHub, fondée en 2008, qui permet la diffusion des codes sources et ladoption des algorithmes par des milliers de laboratoires en quelques jours. Parallèlement, des plateformes comme arXiv permettent aux chercheur·ses de publier rapidement leurs travaux, tandis que des initiatives plus récentes comme Hugging Face facilitent le partage de modèles dapprentissage profond et de jeux de données. Dans les années qui suivent, des frameworks open source comme TensorFlow (2015) et PyTorch (2016) permettent de développer et dentraîner des réseaux de neurones profonds. Ces outils deviennent rapidement des standards dans la recherche et lindustrie et jouent un rôle déterminant dans lessor du Deep Learning.


Le détournement de l'open source

L’émergence récente des grands modèles de langage (LLM) a encore renforcé le rôle central de l’écosystème open source. Des modèles comme BERT de Google, LLaMA de Meta ou DeepSeek ont démontré qu’un modèle pré-entraîné et librement distribué peut être repris, adapté et amélioré par des milliers d’équipes dans le monde, accélérant l’innovation à une vitesse qu’aucun acteur isolé ne pourrait atteindre seul. Mais cette ouverture a aussi son revers : un modèle puissant accessible à toutes et tous l’est également pour celles et ceux qui souhaitent le détourner. Génération automatisée de désinformation, création d’outils de cyberattaque, contournement des garde-fous de sécurité, les risques sont documentés et croissants. Des pionniers du domaine comme Geoffrey Hinton et Yoshua Bengio, tous deux lauréats du prix Turing, ont publiquement alerté sur ces dérives, évoquant dans les cas les plus extrêmes un « P(doom) », la probabilité qu’une IA incontrôlée conduise à une catastrophe à l’échelle mondiale.

Le parcours d’OpenAI illustre à lui seul cette bascule historique. Fondée en 2015 comme organisation à but non lucratif avec pour mission de partager librement ses travaux, elle bascule progressivement vers un modèle commercial sous l’influence de Microsoft, investisseur à hauteur de 13 milliards de dollars. Les modèles les plus puissants deviennent propriétaires, et le « Open » de son nom sonne aujourd’hui comme un vestige d’une époque révolue.

Cette trajectoire soulève une question fondamentale : à qui appartiennent réellement les modèles dintelligence artificielle ? Des technologies construites collectivement, souvent par des chercheur·euses publiques et publics sans rémunération, désormais captées par quelques entreprises privées. L’IA rejoue un scénario déjà vécu avec les réseaux sociaux : des promesses de partage universel progressivement accaparées, optimisées non pour le bien commun mais pour le profit. On connaît le résultat : désinformation, polarisation et captation de l’attention. Le défi des prochaines années sera moins technique que politique : faire en sorte que cette technologie, forgée par l’intelligence collective de l’humanité, serve effectivement l’intérêt général, pour la paix et la prospérité.