L'intelligence artificielle peut-elle être un commun numérique ?
Par A. BERGE | Publié le 15/03/2026
L'IA n'est pas un commun par nature — mais elle peut le devenir, à condition de repenser simultanément ses données, ses modèles, son infrastructure et sa gouvernance. Là où Wikipédia ou le logiciel libre reposaient sur des contributions décentralisées à coût marginal quasi nul, l'IA générative exige des ressources matérielles colossales — calcul, données massives, énergie — qui concentrent le pouvoir entre les mains d'une poignée d'acteurs. Face à cette dynamique d'enclosure, une galaxie d'initiatives — BLOOM, EleutherAI, OLMo, Mozilla Common Voice, les AI Factories européennes — dessine les contours d'une autre voie.
Ce que « commun numérique » veut dire, et pourquoi l'IA bouscule cette notion
La théorie des communs, formalisée par Elinor Ostrom (prix Nobel d'économie 2009), a démontré que des communautés pouvaient gérer durablement des ressources partagées sans recourir ni au marché ni à l'État, à condition de respecter des principes de gouvernance collective : frontières clairement définies, règles adaptées au contexte local, mécanismes de surveillance et de sanction graduée, résolution des conflits. Charlotte Hess et Ostrom ont étendu ce cadre aux communs de la connaissance en 2007, montrant que le savoir numérique — non rival par essence (sa consommation par l'un ne diminue pas sa disponibilité pour les autres) — était néanmoins vulnérable à l'enclosure par les brevets, les licences restrictives et le manque de préservation.
Yochai Benkler a prolongé cette réflexion avec le concept de production entre pairs fondée sur les communs (commons-based peer production) : une forme de production non marchande, décentralisée et volontaire, dont Linux, Wikipédia et Apache sont les exemples canoniques. Le logiciel libre, les données ouvertes et les encyclopédies collaboratives partagent une caractéristique fondamentale : n'importe qui disposant d'un ordinateur et d'une connexion internet peut contribuer. Le coût marginal de participation est presque nul.
L'intelligence artificielle rompt avec ce paradigme sur plusieurs plans. D'abord, les coûts d'entraînement sont astronomiques : GPT-4 aurait coûté plus de 100 millions de dollars en calcul seul, et les estimations pour GPT-5 dépassent le milliard. Ensuite, les modèles exigent des jeux de données massifs, souvent aspirés du web sans consentement explicite, créant des dépendances envers les communs existants tout en les dégradant potentiellement. Les ressources de calcul (GPU, TPU) sont pleinement rivales — chaque heure-GPU consommée par un acteur est indisponible pour un autre — et extrêmement concentrées : NVIDIA détient environ 85 à 92 % du marché des accélérateurs IA. Enfin, l'opacité des modèles constitue un obstacle sans précédent : contrairement au code source lisible d'un logiciel libre, un réseau de neurones à des milliards de paramètres ne se lit pas ligne par ligne.
L'IA occupe ainsi une position singulière dans la classification économique des biens. Les poids du modèle sont non rivaux — on peut les copier à coût quasi nul. Mais le processus de production (entraînement) requiert des ressources massivement rivales. Cette asymétrie fondamentale, absente des communs numériques classiques, est au cœur du débat théorique contemporain. Comme le synthétise Pieter Verdegem dans AI & Society (2022), « nous faisons face à une compétition et une concentration intenses dans le capitalisme de l'IA, une situation analogue à ce que l'on appelle l'enclosure des communs ».
L'enclosure en marche : quand l'ouverture ne suffit pas
Le paysage de l'IA en 2025 est marqué par une concentration vertigineuse. L'investissement privé dans l'IA a atteint 252,3 milliards de dollars en 2024 selon le Stanford AI Index, et l'IA capte désormais environ 50 % de tout le capital-risque mondial. Les chercheurs fuient l'université : OpenAI et Anthropic proposent des salaires de 700 000 à 900 000 dollars pour de nouveaux chercheurs, quand Stanford ne dispose que d'une soixantaine de GPU face aux 35 000 que Meta peut mobiliser. OpenAI, valorisée entre 300 et 500 milliards de dollars, génère 25 milliards de revenus annualisés début 2026, tout en perdant des milliards chaque année — un modèle fondé sur une course en avant capitalistique.
Face à cette concentration, le mouvement de l'IA ouverte a connu des avancées significatives. La sortie de DeepSeek R1 en janvier 2025, modèle de raisonnement entraîné pour environ 6 millions de dollars et publié sous licence MIT, a provoqué un séisme — dont une chute de 600 milliards de la capitalisation de Nvidia en une journée. Meta publie les poids de ses modèles Llama, Mistral AI diffuse plusieurs modèles sous Apache 2.0, et Allen Institute for AI propose avec OLMo un modèle véritablement ouvert : poids, données d'entraînement (Dolma), code, journaux d'entraînement et checkpoints intermédiaires.
Mais l'« ouverture » en IA est un spectre, pas un état binaire. Meredith Whittaker (présidente de Signal) et ses collègues ont montré dans Nature (2024) que même les systèmes d'IA les plus « ouverts » ne garantissent pas à eux seuls un accès démocratique ni une compétition significative. Leur analyse matérielle révèle que l'ouverture des poids, sans celle des données, du code d'entraînement et de l'infrastructure de calcul, maintient les dépendances envers les ressources concentrées des entreprises. C'est ce qu'Open Future appelle le « paradoxe de l'ouverture » : l'ouverture peut simultanément contester et renforcer la concentration du pouvoir.
Le phénomène d'open washing illustre cette ambiguïté. La licence de Meta pour Llama interdit l'usage aux entités dépassant 700 millions d'utilisateurs mensuels actifs, restreint certains usages et exclut parfois les utilisateurs européens. L'Open Source Initiative, qui a adopté en octobre 2024 la première définition formelle de l'IA open source (OSAID), a explicitement déclaré que Llama n'y satisfait pas. Seuls cinq modèles répondent actuellement à cette définition : Pythia (EleutherAI), OLMo (AI2), Amber et CrystalCoder (LLM360), et T5 (Google). L'OSAID exige la publication des poids, du code d'entraînement et d'une documentation détaillée sur les données — mais pas des données elles-mêmes, un compromis pragmatique qui reste controversé.
Un archipel d'initiatives dessine une autre voie
Si l'IA comme commun reste un horizon plus qu'une réalité établie, des projets concrets démontrent sa faisabilité à différentes échelles.
BLOOM, le modèle multilingue à 176 milliards de paramètres, reste l'expérience la plus ambitieuse de production d'IA comme commun. Piloté par Hugging Face avec le CNRS et le GENCI, il a mobilisé plus de 1 200 participants de 39 pays entre 2021 et 2022, organisés en groupes de travail thématiques (données, ingénierie, éthique, droit). Entraîné sur le supercalculateur public Jean Zay (384 GPU A100), il a coûté entre 2 et 7 millions de dollars — une fraction du coût des modèles comparables. BLOOM a aussi été pionnier de la licence RAIL (Responsible AI License), qui autorise l'usage ouvert tout en interdisant les applications nuisibles, créant un nouveau paradigme juridique entre le permissif pur (Apache 2.0) et le propriétaire.
EleutherAI, collectif né sur Discord en 2020, a produit une série de modèles ouverts (GPT-Neo, GPT-J, Pythia) téléchargés plus de 70 millions de fois. En juin 2025, le collectif a publié Common Pile (8 téraoctets de textes exclusivement sous licence libre ou du domaine public), répondant aux critiques de droits d'auteur qui avaient visé son précédent jeu de données, The Pile. Le projet montre qu'un entraînement uniquement sur des données licites peut produire des performances comparables.
Côté données, l'initiative Te Hiku Media en Nouvelle-Zélande a créé un modèle de reconnaissance vocale pour le te reo māori en collectant 310 heures d'enregistrements auprès de 2 500 personnes. L'innovation majeure est la licence Kaitiakitanga (kaitiakitanga signifie « gardiennage » en māori) : les données ne sont jamais « possédées » mais confiées à la communauté, et tout bénéfice dérivé doit revenir à la communauté source. Ce modèle, fondé sur les principes de souveraineté des données autochtones (principes CARE : Collective Benefit, Authority to Control, Responsibility, Ethics), a inspiré des projets similaires chez les Hawaïens et les Mohawks, et cinq licences dérivées pour la souveraineté des données māories.
Masakhane (« nous construisons ensemble » en isiZulu) rassemble plus de 1 000 participants de 30 pays africains autour du traitement automatique des langues africaines. Mozilla Common Voice met à disposition 32 585 heures d'enregistrement vocal dans 131 langues sous licence CC-0. MIDATA, coopérative suisse de données de santé fondée en 2015, permet à ses membres de stocker leurs données médicales chiffrées et de consentir au cas par cas à leur partage avec des chercheurs — un modèle de data trust démocratique exporté en Allemagne, en Belgique et au Royaume-Uni.
Sur le plan institutionnel, le programme Communs Démocratiques (Make.org, Sciences Po, Sorbonne, CNRS), financé par France 2030, explore l'alignement de l'IA générative avec les valeurs démocratiques, développant des outils de correction des biais et une plateforme de participation citoyenne multilingue. Probabl, entreprise à mission adossée à Inria, assure la pérennité de scikit-learn — la bibliothèque d'apprentissage automatique la plus utilisée au monde (plus de 2,5 milliards de téléchargements) — en employant des mainteneurs à temps plein tout en gardant le code sous licence BSD. Son modèle économique « à la Red Hat » (services professionnels sur fondation open source) constitue un laboratoire pour la soutenabilité des communs numériques.
Le calcul comme commun : l'atout européen
L'accès à la puissance de calcul est le verrou le plus critique pour une IA comme commun. Sans supercalculateurs, les modèles ouverts ne peuvent rivaliser avec les laboratoires privés. C'est ici que l'Europe dispose d'un avantage structurel.
Le supercalculateur Jean Zay (GENCI/IDRIS), avec ses 125,9 pétaflops et plus de 1 400 GPU NVIDIA H100, offre un accès gratuit à la recherche académique et a soutenu plus de 1 000 projets IA en 2023. C'est sur Jean Zay qu'a été entraîné BLOOM, et le supercalculateur accueille aujourd'hui des projets de Mistral, Kyutai ou Linagora. En novembre 2025, il a reçu le premier système NVIDIA GB200 NVL72 d'Europe (projet DALIA). Son successeur, Alice Recoque, premier supercalculateur exascale français, est prévu pour 2026.
À l'échelle européenne, EuroHPC coordonne 11 supercalculateurs dont trois figurent dans le top 10 mondial : JUPITER (Allemagne, premier exascale européen), LUMI (Finlande, alimenté à 100 % par l'hydroélectrique) et Leonardo (Italie). L'initiative AI Factories, lancée en 2024-2025, déploie 19 centres d'IA à travers l'Europe, offrant calcul optimisé, accompagnement et expertise aux chercheurs, startups et PME. Le Plan d'Action IA Continent (avril 2025) prévoit la création de 5 AI Gigafactories dotées de plus de 100 000 processeurs IA chacune, financées par l'initiative InvestAI qui mobilise 200 milliards d'euros de fonds publics et privés. C'est le plus grand partenariat public-privé au monde pour l'IA.
Le projet OpenEuroLLM, lancé en février 2025 avec un budget de 37,4 millions d'euros, vise à développer des modèles multilingues open source couvrant toutes les langues officielles de l'UE. Modeste comparé aux investissements américains, il incarne néanmoins une vision où l'infrastructure de calcul publique rend possible une IA gouvernée comme un commun.
Les murs qui restent à franchir
Quatre obstacles majeurs se dressent sur le chemin de l'IA comme commun.
Le premier est l'explosion des coûts. L'entraînement des modèles frontières progresse au rythme de 2,4× par an selon Epoch AI, et les coûts cumulés d'inférence dépassent désormais ceux d'entraînement — OpenAI dépense plus de 5 milliards de dollars par an en calcul cloud pour faire tourner ses modèles. Si les percées d'efficacité (comme DeepSeek) offrent des contre-exemples encourageants, la course aux modèles toujours plus grands n'est pas terminée. Les dépenses en infrastructures IA des Big Tech pourraient atteindre 650 à 700 milliards de dollars en 2026.
Le deuxième est juridique. Plus de 51 procès pour violation de droits d'auteur sont en cours aux États-Unis contre des entreprises d'IA. Le règlement Bartz contre Anthropic a abouti à un accord de 1,5 milliard de dollars — le plus important dans l'histoire de l'IA. Le Copyright Office américain a jugé en mai 2025 que l'entraînement n'est pas « intrinsèquement transformatif ». En Europe, le RGPD s'applique « régulièrement » aux modèles entraînés sur des données personnelles (avis de l'EDPB, décembre 2024), et des recherches récentes montrent que les LLM mémorisent 0,1 à 10 % de leurs données d'entraînement mot pour mot, ce qui renforce les obligations de protection.
Le troisième est la captation par les entreprises — la leçon historique du logiciel libre. Kostakis et Tympas (2025) rappellent dans Internet Policy Review que « GNU/Linux est devenu omniprésent, alimentant les géants qui l'avaient construit sur le dos de la communauté ». Le même schéma se reproduit : OpenAI est passée d'une association à but non lucratif à une valorisation de 500 milliards de dollars. Même les plateformes qui favorisent les communs, comme Hugging Face, concentrent les usages autour d'une poignée de modèles développés par quelques entreprises, reproduisant les dynamiques de Pareto observées sur GitHub.
Le quatrième est l'asymétrie persistante du pouvoir. Les États-Unis et la Chine hébergent 86 % de la capacité mondiale de centres de données. Seuls sept pays abritent des organisations développant des modèles frontières. Le taux d'adoption de l'IA dans le Sud global (14,1 % de la population active) est nettement inférieur à celui du Nord (24,7 %), et l'écart s'est creusé en 2025. Saffron Huang et Divya Siddarth (Collective Intelligence Project, 2023) alertent sur le fait que les modèles génératifs risquent de dégrader les communs numériques dont ils dépendent — par la pollution informationnelle, la baisse des contributions humaines (Stack Overflow a perdu 25 % de trafic après ChatGPT) et l'homogénéisation des contenus.
Gouverner l'IA comme un commun : les modèles émergents
Face à ces défis, un cadre politique et institutionnel se structure. Le AI Act européen (entré en vigueur le 1er août 2024) accorde des exemptions spécifiques à l'IA open source pour les modèles à usage général — mais aucune exemption pour les modèles à risque systémique (entraînés avec plus de 10²³ FLOPs). Les lignes directrices de juillet 2025 précisent que pour bénéficier de l'exemption, les modèles doivent être publiés sous licence véritablement libre et ne pas être monétisés de manière directe.
Au-delà du cadre réglementaire, des modèles de gouvernance innovants émergent. Les coopératives de données (MIDATA, Salus Coop) permettent aux individus de mutualiser leurs données sous contrôle démocratique. Les assemblées citoyennes sur l'IA se multiplient : le UK People's Panel (2023), les initiatives de DemocracyNext, le travail de Hélène Landemore (Yale) sur les assemblées augmentées par l'IA. Trebor Scholz (The New School) propose un « Solidarity Stack » : une architecture coopérative reliant centres de données coopératifs, IA coopératives et infrastructures fédérées — localement ancrée mais globalement connectée.
Le think tank Open Future propose sept piliers pour une IA publique : directionnalité claire, publication ouverte, gouvernance fondée sur les communs, calcul conditionnel (allocations publiques liées à des objectifs d'intérêt général), protection des droits numériques, développement durable et réciprocité — des mécanismes garantissant que la valeur retourne aux communs. L'initiative Current AI, dotée de 400 millions de dollars lors du Sommet de Paris en février 2025, constitue la première tentative à grande échelle de financer une IA d'intérêt public, en investissant dans des jeux de données ouverts, des modèles pour des défis concrets et des standards de transparence.
Les licences innovantes jouent un rôle clé dans cette architecturation. La famille OpenRAIL, née avec BLOOM, est désormais utilisée par plus de 50 000 modèles sur Hugging Face — davantage que la licence MIT. Elle combine ouverture (usage libre et gratuit) et responsabilité (restrictions d'usages nuisibles), avec des clauses « copyleft comportementales » qui se propagent aux dérivés. La licence Kaitiakitanga pousse plus loin en ancrant la gouvernance dans les droits communautaires autochtones. Ces innovations juridiques dessinent un espace entre le permissif pur (Apache 2.0, MIT) et le propriétaire, adapté aux spécificités de l'IA.
Les conditions d'un avenir possible
L'IA peut-elle être un commun numérique ? La réponse est conditionnelle. Le concept d'« hypercommun » proposé par Islam et Greenwood (Journal of Business Ethics, 2024) — un commun fondé sur des contributions collectives largement invisibles et intraçables — capture bien la nature paradoxale de l'IA contemporaine : construite à partir des communs (données du web, recherche publique, logiciels libres) mais appropriée contre eux.
Quatre conditions apparaissent nécessaires pour qu'une IA fonctionne véritablement comme un commun. Premièrement, l'ouverture des modèles est indispensable mais insuffisante : il faut une ouverture intégrale couvrant les données, le code, la documentation et les processus de gouvernance — ce que seuls OLMo et quelques projets atteignent aujourd'hui. Deuxièmement, l'infrastructure de calcul publique doit être massivement renforcée : les AI Factories européennes et les supercalculateurs comme Jean Zay sont des leviers essentiels, mais l'Europe n'investit que 7 % des fonds mondiaux dans l'IA face aux 40 % américains. Troisièmement, des mécanismes de réciprocité doivent empêcher la captation de la valeur produite par les communs : licences RAIL, obligations de contribution en retour, financement public conditionnel. Quatrièmement, une gouvernance démocratique doit associer les communautés concernées aux décisions — des coopératives de données aux assemblées citoyennes.
L'Europe et la France disposent d'atouts singuliers dans cette perspective : un réseau de supercalculateurs publics sans équivalent, une tradition institutionnelle forte (Inria, CNRS, GENCI), un cadre réglementaire structurant (AI Act, RGPD), et des initiatives pionnières (BLOOM, Probabl, Communs Démocratiques, OpenEuroLLM). La déclaration de Berlin sur la souveraineté numérique (novembre 2025), signée par tous les États membres, affirme « la capacité de l'UE à agir de manière autonome et à choisir librement ses propres solutions ».
Vers une troisième voie entre marché et enclosure
Le débat sur l'IA comme commun ne se réduit pas à l'opposition entre ouvert et fermé. Il interroge la possibilité d'une troisième voie entre l'enclosure capitalistique (où quelques entreprises concentrent données, calcul et talent) et une ouverture naïve (où la mise à disposition des poids sans les autres composantes renforce paradoxalement les acteurs dominants). Cette troisième voie implique de penser l'IA non comme un produit à posséder ou une API à louer, mais comme une infrastructure partagée — comparable à l'électricité, aux routes ou aux bibliothèques.
Les percées d'efficacité récentes — DeepSeek entraîné pour 6 millions de dollars, les modèles spécialisés surpassant les modèles généralistes dans leurs domaines — suggèrent que la course à la taille n'est pas une fatalité technique mais un choix politique et économique. Comme l'écrivent Kostakis et Tympas, « la nature énergivore de l'IA actuelle n'est pas une nécessité technique — c'est une conséquence de choix de conception guidés par le profit ». L'IA comme commun numérique est un projet politique autant que technologique : il exige des investissements publics massifs, des innovations juridiques audacieuses, et surtout, la volonté de construire des institutions capables de gouverner collectivement ce qui pourrait devenir la ressource la plus stratégique du XXIe siècle.
Sources
Articles académiques et de recherche
Benkler, Y. (2002). « Coase's Penguin, or, Linux and The Nature of the Firm ». Yale Law Journal, 112(3), pp. 369-446.
Benkler, Y. (2006). The Wealth of Networks: How Social Production Transforms Markets and Freedom. Yale University Press.
Hess, C. & Ostrom, E. (dir.) (2007). Understanding Knowledge as a Commons: From Theory to Practice. MIT Press.
Verdegem, P. (2022). « Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech ». AI & Society, 39, pp. 1-14. link.springer.com
Huang, S. & Siddarth, D. (2023). « Generative AI and the Digital Commons ». arXiv:2303.11074. cip.org
Islam, G. & Greenwood, M. (2024). « Generative Artificial Intelligence as Hypercommons: Ethics of Authorship and Ownership ». Journal of Business Ethics. link.springer.com
Liesenfeld, A. et al. (2024). « Why 'open' AI systems are actually closed, and why this matters ». Nature, 636, pp. 1-7. nature.com
Kostakis, V. & Tympas, A. (2025). « AI as Commons: Why We Need Community-Controlled Artificial Intelligence ». Internet Policy Review, 8 décembre 2025. policyreview.info
BigScience Workshop et al. (2022). « BLOOM: A 176B-Parameter Open-Access Multilingual Language Model ». arXiv:2211.05100. arxiv.org
Epoch AI (2024). « The Rising Costs of Training Frontier AI Models ». arXiv:2405.21015. arxiv.org
BERGE, A. (2026). L'intelligence artificielle peut-elle être un commun numérique ?. Communs numériques. Disponible sur : https://communs-numeriques.fr/comprendre/intelligence-artificielle-commun-numerique.html