Gouverner les communs numériques : modèles, expériences et défis
Par A. BERGE | Publié le 11/05/2025
Les ressources numériques partagées, données, connaissances, logiciels, plateformes; posent la question de leur gouvernance : comment une communauté peut-elle gérer et faire durer un « commun numérique » de manière collective ? Cet article dresse un panorama des grands modèles théoriques de gouvernance partagée (polycentrisme, gouvernance distribuée, communs par conception), illustrés par des exemples concrets comme Wikipédia, OpenStreetMap, Mastodon ou des projets open source. Il met en lumière les enjeux, tensions et enseignements de ces expériences, et ouvre des pistes pour l’action publique face à ces nouvelles formes d’organisation collective.
Comprendre la notion de « communs » numériques
Définition : On parle de commun lorsqu’une communauté prend soin d’une ressource partagée et se dote de règles de gouvernance collectivement définies pour en assurer la pérennité. Dans le domaine numérique, la ressource en question peut être un ensemble de données, un logiciel, une plateforme en ligne, etc., et la communauté en question élabore des règles d’accès, d’utilisation et de contribution pour gérer ce bien commun.
Les travaux d’Elinor Ostrom, qui a étudié de nombreux communs traditionnels (pêcheries, forêts, systèmes d’irrigation…), ont montré qu’il est possible de gérer durablement des ressources partagées sans passer par la privatisation ou le contrôle étatique strict, via des institutions communautaires adaptées. En particulier, Ostrom a identifié des principes de conception pour une gouvernance réussie des communs (délimitation claire du groupe et de la ressource, règles adaptées au contexte local, possibilité pour les usagers de participer à l’élaboration des règles, mécanismes de suivi et de sanction graduelle, résolution des conflits à moindre coût, reconnaissance du droit à l’auto-organisation, etc., avec une organisation emboîtée à plusieurs échelles pour les communs de grande taille). Ces principes soulignent l’importance de la participation des parties prenantes et d’une gouvernance autonome et « ascendante » (bottom-up). Selon Ostrom, c’est le polycentrisme qui est la clé, et non un groupe d’acteurs particulier, c’est une pluralité qui est créatrice de valeur.
Les communs numériques présentent toutefois des caractéristiques spécifiques par rapport aux communs matériels. Alors que les communs physiques sont confrontés au risque de surexploitation d’une ressource finie (la « tragédie des communs » décrite par Garrett Hardin en 1968, où une pâture libre d’accès finit surpâturée par excès d’usage individuel), les communs numériques, eux, reposent sur des ressources informationnelles non rivales et reproductibles à coût marginal nul. Leur défi principal n’est donc pas la surexploitation, mais la contribution : comment inciter suffisamment de participants à créer, enrichir et maintenir la ressource dans la durée. Par exemple, le succès de Wikipédia dépend du fait que des bénévoles rédigent, relisent et corrigent en continu des articles, et que la communauté reste suffisamment active pour assurer la qualité du contenu. En d’autres termes, la « tragédie » potentielle des communs numériques serait plutôt le sous-investissement (manque de contributions) que la surexploitation.
Une autre particularité est que les communs numériques incarnent souvent de nouvelles formes d’organisation « ni tout à fait privées, ni tout à fait publiques ». Historiquement, dès les débuts d’Internet, certains pionniers ont su inventer des modes d’institution qui échappaient à la fois à la loi du marché pur et au contrôle étatique centralisé. Les communs se situent ainsi comme une troisième voie de gouvernance, où la ressource n’appartient ni à une entreprise privée cherchant le profit, ni exclusivement à l’État, mais est co-gérée par une pluralité d’acteurs. Cela remet le collectif au centre, à rebours de l’individualisme dominant des dernières décennies. Dans le contexte numérique, cette approche s’inscrit aussi dans les réflexions sur la souveraineté numérique et le contrôle citoyen des infrastructures informationnelles.
Modèles de gouvernance partagée : polycentrisme, distribution, conception ouverte
Plusieurs modèles ou principes directeurs émergent pour penser la gouvernance des communs numériques :
- Le polycentrisme désigne une gouvernance à niveaux multiples, avec une diversité de centres de décision semi-autonomes qui s’articulent entre eux. Un commun de grande envergure peut être géré par des communautés locales ou thématiques reliées entre elles, plutôt que par une autorité unique centralisée. Ce modèle permet d’adapter les règles et les décisions au plus près du terrain tout en assurant une coordination globale. Wikipédia en offre une illustration concrète : l’encyclopédie est organisée par langues et par projets thématiques, chaque édition linguistique disposant de sa communauté et de ses administrateurs propres, au sein d’un cadre commun fourni par la Fondation Wikimedia. Cette structure décentralisée par conception a permis à Wikipédia de croître à une échelle mondiale tout en maintenant des collectifs gérables par langue. On peut y voir une application du principe de « nids » (niveaux emboîtés) identifié par Ostrom pour les communs les plus larges. Le polycentrisme va de pair avec l’idée de subsidiarité : chaque niveau gère ce qu’il peut gérer efficacement, et les enjeux globaux sont traités par la coordination entre niveaux.
- La gouvernance distribuée va encore plus loin dans la décentralisation, en prônant l’absence de toute hiérarchie formelle ou centre unique de contrôle. Il s’agit d’organiser un système où les décisions émergent de la coordinations d’acteurs pairs, souvent via des protocoles ou des règles partagées plutôt qu’une entité juridique centralisatrice. Ce modèle est rendu possible par les architectures en réseau permises par le numérique. Par exemple, dans les réseaux sociaux fédérés comme Mastodon, il n’existe pas de plateforme centrale : des milliers de serveurs indépendants (appelés « instances ») hébergent chacun leur communauté, établissent leurs propres règles de modération, tout en étant interconnectés par un protocole commun (ActivityPub). Aucune autorité centrale ne décide du contenu ou des utilisateurs autorisés globalement, chaque instance est autonome, et les éventuelles sanctions (bloquer un utilisateur ou une autre instance) relèvent de décisions locales. On parle parfois de gouvernance « par le protocole » : c’est la conception même du système (ouvert, fédéré) qui distribue d’emblée le pouvoir de gouvernance. Ce type de gouvernance distribuée vise à renforcer la résilience du commun (il n’y a pas de point de défaillance unique) et sa diversité (chaque communauté peut expérimenter ses propres règles), mais il pose des défis de coordination et d’interopérabilité entre les différentes composantes.
- Les communs “par conception” (ou commons by design) désignent les ressources numériques qui ont été délibérément conçues dès l’origine comme des communs. Cela implique souvent le choix de licences ouvertes garantissant le libre usage, la modification et le partage (par exemple les licences Creative Commons pour le contenu, GNU/GPL pour le code source, ODbL pour les données). Au-delà des licences, concevoir un commun numérique suppose de penser l’architecture socio-technique de sorte à encourager la contribution et le partage plutôt que l’appropriation exclusive. Wikipédia est un commun par conception : son logiciel (MediaWiki) garde l’historique de chaque modification et permet la transparence des contributions et ses règles communautaires (neutralité de point de vue, vérifiabilité, décision par consensus) ont été élaborées pour équilibrer ouverture et qualité. De même, OpenStreetMap a été lancé en 2004 avec l’objectif explicite de produire une carte du monde libre et ouverte à tous – ce qui a orienté dès le départ des choix tels que l’utilisation d’une licence libre (ODbL) et la mise en place d’une fondation à but non lucratif pour soutenir le projet. On peut opposer ces communs « nés libres » à des ressources qui deviennent des communs a posteriori par ouverture : par exemple, lorsqu’une administration publie des données ouvertes (open data) ou lorsqu’une entreprise libère le code d’un logiciel, ces ressources ne deviennent de véritables communs que si une communauté se forme autour pour les entretenir et les gouverner. Une licence ouverte ne suffit pas : sans communauté active, il n’y a pas de commun vivant.
Il convient d’ajouter que la gouvernance des communs n’oppose pas radicalement communauté, marché et État : elle peut impliquer des alliances hybrides. D’une part, certains communs numériques s’appuient sur des modèles économiques mixtes (par exemple des coopératives d’intérêt collectif, ou l’appui d’ONG et de fondations financées par des dons, du mécénat ou des subventions publiques). D’autre part, les pouvoirs publics commencent à reconnaître et soutenir les communs : dans certains cas, l’État peut déléguer ou co-construire avec une communauté la gestion d’une ressource d’intérêt général. Comme le souligne la juriste Judith Rochfeld, « le service public et les communs ne s’excluent pas et peuvent être complémentaires : on peut envisager des alliances ou des délégations entre le service public et les communs ». Les communs numériques remplissent souvent des objectifs proches de l’intérêt général (partager la connaissance, créer des outils ouverts, fournir des services numériques sans exploitation des données personnelles, etc.), mais avec une approche ascendante et communautaire. Cette dimension bottom-up, initiée par les usagers eux-mêmes, est précisément ce qui distingue le commun d’un service public classique.
Gouvernance en pratique : exemples emblématiques
Pour mieux saisir comment ces principes se traduisent dans la réalité, examinons quelques communs numériques de premier plan, chacun illustrant à sa manière les modèles de gouvernance évoqués.
Wikipédia : l’encyclopédie mondiale polycentrique
Wikipédia est sans doute le commun numérique le plus connu. Cette encyclopédie en ligne, lancée en 2001, est alimentée et modérée par des bénévoles du monde entier. Son ampleur est remarquable : aujourd’hui, Wikipédia existe en près de 300 langues et compte plus de 58 millions d’articles, édités par plus de 300 000 contributeurs actifs chaque mois. Ce succès repose sur une gouvernance communautaire élaborée.
Chaque version linguistique de Wikipédia est gérée par sa propre communauté d’éditeurs, qui élaborent localement les règles de contenu et de conduite en s’inspirant des principes fondateurs communs (neutralité, licence libre, etc.). Des administrateurs élus au sein de la communauté disposent de droits techniques pour intervenir en cas de vandalisme ou de conflits éditoriaux, et un comité d’arbitrage peut trancher les litiges les plus graves dans certaines langues. À l’échelle globale, la Fondation Wikimedia (organisation à but non lucratif basée aux États-Unis) fournit l’infrastructure (serveurs, développement du logiciel) et soutient le mouvement, sans toutefois diriger le contenu : elle n’intervient que très rarement dans la modération, laissant les communautés d’éditeurs s’auto-organiser. On retrouve ici la structure polycentrique évoquée plus haut : une multitude de communautés autonomes (par langue ou projet thématique) reliées par des valeurs et des mécanismes communs.
Cette gouvernance n’est pas exempte de tensions. L’ouverture de Wikipédia la rend vulnérable aux contributions de mauvaise qualité ou malveillantes, entraînant la fameuse question « peut-on faire confiance à un contenu que n’importe qui peut modifier ? ». La réponse a été de développer au fil du temps un corpus de règles et de bonnes pratiques, et de s’appuyer sur la vigilance collective. Des outils de suivi des modifications, des systèmes de patrouille et des bots automatisés détectent et annulent rapidement les vandalismes évidents. La communauté a également dû affronter des défis de gouvernance interne : par exemple, comment gérer les conflits entre contributeurs chevronnés et nouveaux arrivants, ou comment améliorer la diversité des contributeurs (on a constaté un biais de genre et géographique dans la communauté). Wikipédia a ainsi appris à formaliser des procédures (pages de discussion pour chaque article, principes de résolution de conflits, politiques contre le harcèlement, etc.) tout en maintenant un esprit de consensus plutôt que de vote systématique. Le résultat est un équilibre délicat entre ouverture (n’importe qui peut contribuer immédiatement) et contrôle communautaire (les pairs veillent au grain, avec des grades de confiance acquis par l’expérience). Cet équilibre est nécessaire pour assurer à la fois la croissance et la fiabilité de l’encyclopédie.
Un autre enjeu pour Wikipédia est sa relation avec les acteurs externes. Son contenu ouvert est massivement réutilisé, notamment par les moteurs de recherche et les assistants vocaux. Cela pose la question de la juste reconnaissance et du partage de la valeur : la gratuité de Wikipédia fait qu’elle ne bénéficie pas des revenus publicitaires générés par l’affichage de ses informations sur Google, par exemple, ce dernier captant l’essentiel de la valeur créée. La Wikimedia Foundation cherche à corriger cet déséquilibre, par exemple en développant son propre moteur de recherche interne, en négociant avec les grandes plateformes ou en mettant en avant l’importance de soutenir financièrement le projet via des dons. Ce défi illustre une tension plus large : comment éviter qu’un commun ne soit « exploité » par des acteurs commerciaux sans retour pour la communauté qui le fait vivre.
Malgré ces défis, Wikipédia demeure un exemple phare de gouvernance réussie d’un commun numérique à grande échelle. En 20 ans, la communauté wikipédienne a montré une capacité d’apprentissage et d’adaptation remarquable, devenant une référence en matière de gouvernance collaborative en ligne.
OpenStreetMap : la cartographie libre autogérée
OpenStreetMap (OSM) est souvent surnommé « le Wikipédia de la cartographie ». Initié en 2004, ce projet collaboratif vise à constituer une base de données géographiques libre et ouverte du monde entier. Des volontaires contribuent en ajoutant des routes, bâtiments, points d’intérêt, etc., à partir de relevés de terrain, d’images aériennes ou de données publiques. Au fil des années, la communauté OSM a grandi de façon exponentielle : on compte plus de dix millions d’utilisateurs enregistrés sur la plateforme, même si tous ne sont pas actifs régulièrement. Des dizaines de milliers de cartographes bénévoles contribuent chaque mois, faisant d’OSM l’une des plus grandes sources de données cartographiques au monde.
La gouvernance d’OpenStreetMap est structurée autour de sa communauté distribuée et d’une entité de support. D’un côté, une multitude de communautés locales se sont formées (par pays ou régions, souvent avec des groupes et forums dédiés dans chaque langue) pour organiser des ateliers de cartographie (mapathons), définir des conventions de modélisation adaptées aux réalités locales, et s’entraider. De l’autre, l’OpenStreetMap Foundation (OSMF), organisation à but non lucratif de droit britannique, joue un rôle de facilitateur : elle fournit l’infrastructure technique (serveurs, base de données centrale), protège le projet juridiquement (notamment la gestion de la licence ODbL des données) et coordonne certains efforts globaux. Fait important, la fondation se veut « soutenir, mais ne pas contrôler le projet OpenStreetMap ». Elle est gérée par un conseil d’administration élu par les membres de la fondation (adhésion ouverte à tous, moyennant une cotisation ou la preuve d’une activité de contribution significative). Ainsi, le pouvoir formel de décision de l’OSMF est limité au périmètre de l’infrastructure et de la défense du projet, tandis que les décisions sur le contenu de la carte (quoi cartographier, comment le représenter) et les règles communautaires sont le fruit de discussions et de votes au sein de la communauté globale des contributeurs.
Cette gouvernance partagée a fait ses preuves pour faire d’OSM un commun numérique pérenne, mais elle a dû surmonter plusieurs tensions. L’une concerne la qualité et la fiabilité des données : comment s’assurer qu’une carte construite par des milliers de personnes dispersées reste cohérente et précise ? Là encore, la solution combine des outils techniques (logiciels de validation automatique détectant les erreurs, historique des modifications permettant de revenir en arrière en cas de problème) et des instances de régulation communautaire (par exemple, un Data Working Group géré par des bénévoles expérimentés peut intervenir en cas de vandalisme massif ou de comportements non coopératifs). Une autre tension tient à l’entrée des acteurs privés dans l’écosystème : de plus en plus d’entreprises utilisent OpenStreetMap dans leurs produits (applications de voyage, cartographie humanitaire, etc.), certaines contribuent en retour (en finançant du développement ou en libérant des données), d’autres se contentent d’exploiter la ressource. La communauté OSM veille à garder son indépendance et son esprit non commercial, tout en accueillant favorablement les contributions externes dès lors qu’elles respectent les règles du projet. L’équilibre n’est pas toujours simple : par exemple, le débat a été vif lors du changement de licence en 2012 pour passer à l’ODbL, afin de mieux protéger la commons face à une appropriation abusive. Ce fut un processus de gouvernance délicat qui a nécessité l’approbation des contributeurs individuels.
OpenStreetMap illustre bien le modèle d’une gouvernance collaborative et distribuée, où une communauté globale cohabite avec des structures de soutien légères. En s’appuyant sur la passion et la connaissance locale de ses contributeurs, OSM a produit une carte mondialement utilisée, offrant une alternative crédible aux services cartographiques propriétaires. Là encore, la pérennité du commun repose sur l’engagement continu des bénévoles et sur la capacité de l’organisation à garder la confiance de sa communauté en évitant toute centralisation excessive.
Mastodon : fédérer les communautés pour un réseau social décentralisé
Mastodon est un exemple de commun numérique émergent dans le domaine des réseaux sociaux. Il s’agit d’une plateforme de microblogage open source lancée en 2016, souvent présentée comme une alternative éthique et décentralisée à X (ex Twitter). Mastodon fait partie de l’écosystème du Fediverse (contraction de federated universe), un ensemble de réseaux sociaux interopérables utilisant le protocole ouvert ActivityPub. Concrètement, Mastodon n’est pas un site unique : n’importe qui peut installer le logiciel sur un serveur et créer sa propre communauté (ou instance) Mastodon, avec ses règles, sa modération et sa thématique. Les utilisateurs d’une instance peuvent suivre et interagir avec ceux des autres instances, comme s’ils étaient sur un réseau unique, à la manière du courriel où chaque personne peut avoir une adresse sur le domaine de son choix et communiquer avec tous.
La gouvernance de Mastodon est ainsi distribuée par conception. Chaque instance est administrée de façon indépendante (souvent par un ou quelques bénévoles qui en assurent les coûts et la modération). Il n’y a pas de PDG de Mastodon décidant des règles globales. A la place il y a une fédération d’administrateurs d’instances qui peut échanger sur les bonnes pratiques et éventuellement coordonner des réponses face à des problèmes communs. Par exemple, si une instance héberge du contenu problématique (désinformation, discours haineux, etc.), d’autres instances peuvent choisir de la déréférencer ou de la bloquer, isolant de fait la communauté malveillante. Le code source de Mastodon est maintenu par une petite équipe (Mastodon gGmbH, une entité à but non lucratif dirigée par le créateur Eugen Rochko), ce qui constitue une forme de centralisation technique (l’évolution du logiciel dépend en partie de leurs choix) mais la nature open source du projet garantit que la communauté plus large peut proposer des améliorations et même forker le code si nécessaire.
L’essor de Mastodon a été particulièrement notable fin 2022, lors des turbulences liées au rachat de Twitter par Elon Musk : de nombreux utilisateurs en désaccord avec les nouvelles politiques de Twitter ont migré vers Mastodon, faisant bondir le nombre de comptes et l’activité. En janvier 2025, on recensait environ 7,7 millions de comptes Mastodon créés au total, pour près de 1 million d’utilisateurs actifs mensuels répartis sur un peu plus de 10 000 instances différentes. Ce niveau d’adoption, bien qu’encore modeste face aux centaines de millions d’utilisateurs des grands réseaux centralisés, a mis en lumière les points forts et les défis de la gouvernance fédérée.
Parmi les avantages, on note la flexibilité offerte aux utilisateurs : chacun peut choisir une instance en accord avec ses préférences (règles de modération plus ou moins strictes, centre d’intérêt particulier, communauté linguistique donnée, etc.), voire créer sa propre instance pour maîtriser ses données. La résilience est également accrue : aucune entité ne peut « fermer Mastodon » ou imposer une politique unique – le réseau survivrait à la disparition de n’importe quel serveur, et le contrôle abusif exercé sur une instance n’affecte pas les autres. Enfin, le modèle non-commercial (la plupart des instances sont financées par des dons, sans publicité) évite la course à l’engagement toxique et à la monétisation des données personnelles, ce qui se traduit par une expérience souvent jugée plus saine par les utilisateurs.
Cependant, la gouvernance distribuée de Mastodon comporte des tensions propres. D’abord, la fragmentation : la multiplicité d’instances signifie qu’il n’y a pas une seule « règle du jeu » ou un seul fil d’actualité commun. Cela peut dérouter les nouveaux venus et compliquer la découverte de contenu. Les administrateurs bénévoles portent une lourde responsabilité en matière de modération et d’infrastructure, ce qui peut mener à du burn-out ou à des disparités (certaines instances deviennent très grandes, comme mastodon.social, gérée par Rochko lui-même, tandis que d’autres restent confidentielles). Ensuite, la coordination inter-communautaire repose sur des conventions informelles et la bonne volonté : il n’existe pas de gouvernance centrale du Fediverse pour arbitrer les désaccords entre instances. Par exemple, des débats ont eu lieu sur la nécessité ou non d’un code de conduite commun à l’ensemble des administrateurs, ou sur la manière de traiter l’arrivée de nouveaux services fédérés comme Threads de Meta. Justement, l’ouverture du Fediverse soulève un dilemme : si des acteurs majeurs comme Meta interconnectent leurs propres plateformes (centralisées) avec le réseau fédéré, cela peut augmenter l’adoption mais aussi engendrer un risque d’alignement des pratiques de gouvernance. Des chercheurs notent ainsi que l’interopérabilité entre Threads (projet de Meta) et Mastodon pourrait forcer une convergence des politiques de modération et de vie privée, l’alternative plus communautaire risquant de subir l’influence du grand acteur. Ce défi est symptomatique d’un équilibre à trouver entre ouverture au reste de l’écosystème numérique et maintien des valeurs propres du commun.
Malgré ces défis, Mastodon a démontré qu’un modèle de réseau social fondé sur une gouvernance distribuée était viable. Son évolution future dépendra de la capacité de la fédération à s’auto-réguler efficacement à plus grande échelle, et à attirer des soutiens (techniques, financiers) sans compromettre son indépendance. Quoi qu’il en soit, Mastodon a prouvé qu’il était possible de réinventer la gouvernance des réseaux en s’affranchissant du modèle centralisé des géants du Web.
Logiciels libres : des communautés open source autogérées
Les logiciels libres et open source constituent une autre catégorie essentielle de communs numériques. Par essence, un logiciel libre est fourni avec son code source ouvert, autorisant chacun à l’utiliser, le modifier et le redistribuer. Mais tous les logiciels libres ne fonctionnent pas nécessairement comme des communs actifs : il faut pour cela une communauté qui en assure la maintenance et oriente son évolution. De nombreux projets open source emblématiques, comme le noyau Linux, le serveur web Apache, la suite bureautique LibreOffice, le langage de programmation Python, etc., sont gérés par des communautés denses de développeurs, souvent en lien avec des fondations ou des structures de gouvernance plus ou moins formalisées.
Les modèles de gouvernance varient d’un projet à l’autre. Certains fonctionnent avec un leader historique ayant le dernier mot. On parle parfois de “Benevolent Dictator For Life” (dictateur bienveillant à vie) comme c'est le cas pour Linux avec Linus Torvalds. D’autres adoptent un fonctionnement plus collégial ou méritocratique, par exemple via un comité élu ou des mainteneurs responsables chacun d’une partie du code. Le modèle Apache est souvent cité : il repose sur le principe du mérite, où les contributeurs les plus actifs et compétents acquièrent progressivement des droits décisionnels (committer, puis membre du Project Management Committee), les décisions importantes se prenant idéalement par consensus ou, si nécessaire, par vote majoritaire. Des projets comme Debian (système d’exploitation GNU/Linux) ont même une organisation quasi-démocratique, avec un Chef de projet Debian élu par la communauté des développeurs, et des votes réguliers pour adopter les résolutions générales.
Malgré cette diversité, on observe que beaucoup de projets libres reposent en pratique sur une gouvernance centralisée de facto autour de quelques mainteneurs clés. Ces derniers sont chargés d’accepter ou non les contributions de code, de définir les orientations techniques et de publier les nouvelles versions. C’est une différence notable avec un commun comme Wikipédia où la gouvernance est beaucoup plus polycentrique et distribuée entre des milliers de participants. Cette centralisation relative peut avoir des avantages (vitesse de décision, vision unifiée) mais aussi des risques : surcharge et épuisement des mainteneurs, dépendance à des individus ou à une entité (par exemple, si une entreprise sponsorise les principaux développeurs, son influence peut devenir prédominante), moindre diversité des points de vue.
Un défi récurrent est celui de la soutenabilité financière et humaine de ces communs logiciels. Certains projets très utilisés dans le monde (y compris par des entreprises lucratives) sont maintenus par une poignée de bénévoles sur leur temps libre. Ce décalage a été mis en lumière par des incidents comme la faille critique Heartbleed en 2014 : elle affectait OpenSSL, une bibliothèque de sécurité open source omniprésente sur Internet, dont l’équipe de maintenance était dramatiquement sous-dotée. Depuis, des initiatives ont vu le jour pour soutenir matériellement ces projets « infrastructures invisibles ». On peut citer le Core Infrastructure Initiative, financé par de grandes entreprises, ou plus récemment des programmes publics de bug bounty et de financements en Europe pour renforcer la sécurité des logiciels libres.
On assiste également à une évolution des modes de gouvernance des projets libres pour attirer et retenir plus de contributeurs. L’adoption de codes de conduite au sein des communautés (pour prévenir les comportements toxiques et favoriser l’inclusion des nouveaux venus, notamment des groupes sous-représentés) est devenue courante dans les années 2010. Des projets qui étaient très informels au départ ont dû se doter de règles explicites et de processus de décision transparents à mesure qu’ils grandissaient. Par exemple, le projet Python a abandonné en 2018 le modèle du BDFL après le retrait de son leader, pour le remplacer par un conseil de gouvernance élu. Ce genre de transition montre que les communs numériques savent évoluer dans leur gouvernance lorsque les circonstances l’exigent.
En somme, les communautés de logiciels libres illustrent une forme de gouvernance des communs articulée autour de la production d’un bien technique. Elles empruntent à la fois aux pratiques communautaires (collaboration ouverte, échanges horizontaux entre pairs) et à des schémas plus hiérarchiques inspirés de la gestion de projet logicielle. Leur apport aux communs numériques est majeur : ce sont elles qui fabriquent les briques de base (outils, serveurs, systèmes) permettant aux autres communs (Wikipédia, OSM, Mastodon…) d’exister sur des fondations libres.
Enjeux transversaux et leçons tirées des communs numériques
L’exploration de ces exemples met en évidence un ensemble d’enjeux transversaux dans la gouvernance des communs numériques. En dépit de la diversité des contextes (encyclopédie, cartographie, réseau social, logiciel…), certaines questions clés se posent de manière récurrente :
- Susciter et maintenir la contribution : Comme évoqué plus haut, le carburant d’un commun numérique, c’est la participation active de volontaires. Attirer suffisamment de contributeurs, et surtout les fidéliser dans le temps, est un défi constant. Cela suppose de créer un cadre accueillant pour les nouveaux entrants (onboarding, documentation, valorisation des petites contributions), de reconnaître le travail accompli (système de réputation implicite ou explicite, statut d’« ancien » conférant du prestige), et d’éviter que le cœur de la communauté ne s’épuise ou ne se referme sur lui-même. Les cas de Wikipédia ou d’OpenStreetMap montrent l’importance de la culture communautaire : l’esprit de la contribution pour le bien commun, le plaisir d’apprendre et de coopérer, sont des moteurs plus puissants que la carotte financière dans ces environnements. Néanmoins, la charge de travail peut devenir lourde pour les piliers du commun, d’où l’importance de renouveler les générations de contributeurs et de partager les responsabilités.
- Assurer une gouvernance légitime et efficace : Trouver le bon modèle de prise de décision est crucial. Une gouvernance trop autocratique peut démotiver la base communautaire ou conduire à des scissions (forks) en cas de désaccord, tandis qu’une gouvernance trop laxiste ou floue peut aboutir à l’immobilisme ou à la prise de pouvoir informelle par des petits groupes. Les communs numériques tâtonnent souvent pour formaliser leurs règles : on part d’un fonctionnement informel dans le petit groupe initial, puis l’on ajoute des couches de règles à mesure que la taille augmente. La transparence des décisions et l’imputabilité (accountability) des personnes en position de modération ou de direction sont essentielles pour conserver la confiance du collectif. À cet égard, la distinction proposée par certains chercheurs entre communauté bénéficiaire, communauté délibérative et communauté de contrôle peut être éclairante. Prenons Wikipédia : la masse des lecteurs constitue la communauté bénéficiaire (ceux qui jouissent du commun), les contributeurs réguliers forment la communauté délibérative (ils définissent ensemble les règles éditoriales, les choix de contenu), et les administrateurs et stewards représentent une communauté de contrôle (ils ont le pouvoir de faire respecter les règles convenues). Une gouvernance équilibrée doit articuler ces trois cercles, en évitant que le contrôle n’échappe aux délibérations de la base, et en intégrant le point de vue des simples usagers.
- Équilibrer ouverture et qualité / sûreté : Le propre d’un commun est d’être ouvert à tous ceux qui respectent ses règles, mais cette ouverture peut être exploitée par des acteurs malveillants ou produire des contenus médiocres. La gouvernance doit donc mettre en place des garde-fous sans décourager la participation. Censure ou laissez-faire ne sont pas de bonnes options : il faut des mécanismes graduels. La capacité à gérer les conflits de manière équitable est également un critère de santé du commun (par des médiations, des comités d’arbitrage, des sanctions graduées en cas d’abus…). Une leçon importante est qu’il est préférable d’intégrer ces mécanismes dès la conception ou du moins le plus tôt possible. C’est plus facile de le faire tant que la communauté est réduite, plutôt que de rattraper un climat déjà dégradé.
- Passer à l’échelle sans perdre l’âme : Beaucoup de communs numériques naissent dans un petit cercle enthousiaste. S’ils rencontrent du succès, ils peuvent grossir de façon exponentielle . Ainsi Wikipédia est passée de quelques centaines de contributeurs à des centaines de milliers. De son côté, Mastodon a vu affluer des centaines de milliers de nouveaux utilisateurs en l’espace de semaines. Ce changement d’échelle demande d’adapter la gouvernance. Le polycentrisme est souvent la clé : scinder la communauté en unités plus petites, fédérées par des liens souples. On l’a vu avec les chapitres linguistiques de Wikipédia, les chapitres locaux d’OSM, ou les multiples instances de Mastodon. Ce modèle prévient la création d’une bureaucratie tentaculaire tout en permettant de gérer la complexité. Il apporte aussi une résilience : si un sous-ensemble faillit ou diverge, le commun global n’est pas forcément remis en cause. L’enjeu est de garder une certaine cohésion entre les cellules autonomes, via des rencontres régulières (conférences “State of the Map” pour OSM, Wikimania pour Wikipédia, etc.), des espaces d’échange inter-communautés, et une vision partagée de la mission.
- Garantir la pérennité financière et infrastructurelle : Même si les communs numériques reposent sur des contributions volontaires, ils nécessitent souvent des ressources financières pour les serveurs, le développement, éventuellement salarier quelques postes clés (coordination, maintenance critique). Le modèle courant est celui de la donation (Wikimedia est financée par les dons des lecteurs, tandis que beaucoup d’instances Mastodon le sont par le soutien de leurs membres via des plateformes type Patreon). Certains communs s’insèrent dans des structures à but non lucratif capables de lever des fonds (fondations, associations). La question du financement est sensible, car une dépendance excessive à un financeur unique (une entreprise, ou un État) pourrait compromettre l’indépendance du commun. Diversifier les sources de revenus, tout en restant fidèle aux valeurs non marchandes, est un exercice d’équilibriste. Ces dernières années, on observe une prise de conscience : les communs numériques étant d’une grande valeur collective, il est légitime que des fonds publics contribuent à leur soutien. En France par exemple, le Conseil National du Numérique a souligné l’importance de pérenniser les communs numériques et de ne pas les laisser en fragilité faute de modèle économique. Au niveau européen, des programmes commencent à financer directement des projets open source critiques en tant que « biens communs » de l’infrastructure numérique (on peut citer le programme Next Generation Internet de l’UE, ou des financements de la Commission pour des outils libres de cybersécurité, etc.). Ces soutiens extérieurs doivent cependant respecter la gouvernance propre du commun, ce qui pose la question de l’articulation entre décideurs publics et communautés.
- Interactions avec les écosystèmes marchands et les régulations : Les communs numériques n’évoluent pas en vase clos. Ils cohabitent avec de grands acteurs privés, qui peuvent être à la fois des utilisateurs, des contributeurs, des concurrents, voire des menaces. Nous avons abordé comment Google profite du contenu de Wikipédia, ou comment Meta pourrait influer sur Mastodon via l’interopérabilité. Les communs doivent développer des stratégies vis-à-vis des plateformes dominantes : collaboration quand c’est mutuellement bénéfique, résistance ou création d’alternatives lorsque les valeurs divergent. Parfois, cela passe par le droit et la régulation : par exemple, exiger une certaine interopérabilité asymétrique où les grands acteurs doivent s’ouvrir aux petits sans que l’inverse soit contraignant, ou militer pour des exceptions juridiques en faveur des communs (comme des licences qui empêchent la réappropriation privative des contributions, ou des clauses imposant le partage des améliorations faites par les entreprises). Les pouvoirs publics peuvent jouer un rôle d’arbitre pour créer un environnement favorable aux communs, en empêchant les pratiques déloyales ou prédatrices de certains acteurs commerciaux. Parallèlement, l’intégration des communs dans les politiques publiques (par exemple usage de logiciels libres dans l’administration, contribution de données publiques à OpenStreetMap, partenariat avec Wikipédia pour l’éducation…) permet de renforcer leur légitimité et d’accroître leur impact sociétal.
En tirant le bilan de ces enjeux, on constate que les communs numériques, bien que variés, partagent une même nécessité : inventer des institutions de gouvernance à la hauteur du potentiel transformateur du numérique. Ils sont des laboratoires vivants de la démocratie participative à l’ère digitale, où des collectifs non hiérarchiques produisent des ressources d’intérêt général. Chaque succès, mais aussi chaque crise ou controverse au sein d’un commun, fournit des enseignements pour les autres. Par exemple, la façon dont la communauté Wikimedia a professionnellement géré la croissance et la diversité pourrait inspirer des projets open source en quête de structuration. Inversement, les solutions financières trouvées par certains projets libres (double licence, offre de services, intégration dans du matériel…) pourraient aider des communs de contenu à se pérenniser. On voit aussi émerger des réseaux meta-communautaires : des organisations comme la Open Source Initiative ou Creative Commons, ou des événements comme Numérique en Commun[s], qui visent à rassembler les acteurs des communs pour échanger bonnes pratiques et défendre des causes communes.
Perspectives : vers une alliance entre communs et action publique
La montée en puissance des communs numériques est porteuse d’enseignements précieux pour l’action publique et la société en général. D’une part, ces communs constituent des réservoirs d’innovation sociale : ils montrent qu’il est possible de produire des biens collectifs de grande envergure de manière décentralisée, transparente et inclusive. En cela, ils renouvellent la vision de l’intérêt général à l’ère numérique, en y impliquant directement les citoyens, les usagers, les communautés de pratique. Cette vitalité démocratique, ce « concernement » des acteurs, pour reprendre un terme de Judith Rochfeld, est une réponse prometteuse à la crise de confiance envers les institutions classiques. D’autre part, les communs numériques tendent vers des objectifs convergents avec ceux des pouvoirs publics : diffusion du savoir, accès ouvert aux données, solutions technologiques auditées par la communauté, services numériques d’intérêt commun… Plutôt que de les considérer comme des initiatives marginales, il peut être fécond de les intégrer dans les stratégies publiques.
Concrètement, plusieurs pistes se dessinent pour soutenir et amplifier la gouvernance des communs :
- Reconnaissance et soutien institutionnel : Les communs pourraient bénéficier d’une reconnaissance juridique ou statutaire. On voit émerger des “Mission communs” dans certaines collectivités ou au niveau européen (la Commission européenne a adopté en 2023 une stratégie encourageant l’open source dans l’administration, reconnaissant son rôle de commun numérique stratégique).
- Appui financier et matériel : Comme souligné précédemment, injecter des ressources dans les communs critiques peut éviter des drames à la Heartbleed. Des fonds publics peuvent être mobilisés de façon ciblée, par exemple via des subventions aux projets libres les plus utilisés par l’administration (ce que fait le programme Free and Open Source Software Audit (FOSSA) de l’UE), ou en finançant des postes de “commis des communs”, des développeurs ou coordinateurs payés pour travailler sur des communs clés (le modèle des bourses Mozilla ou Wikimedia pour développeurs en résidence, par exemple). Les marchés publics et la commande de l’État peuvent aussi intégrer une préférence pour les solutions ouvertes et contribuer ainsi indirectement aux communs, notamment si une partie du contrat inclut des obligations de contribution à la communauté du logiciel utilisé.
- Partenariats public-communs : Plutôt que de développer isolément des services numériques coûteux, les administrations peuvent co-construire avec les communs. Par exemple, enrichir OpenStreetMap plutôt que de payer pour des données propriétaires, contribuer à Wikipédia dans des projets éducatifs ou culturels (comme certaines bibliothèques ou musées le font en versant des contenus dans Wikimedia Commons), utiliser Mastodon ou des outils fédérés pour les communications publiques afin de soutenir l’écosystème. De telles collaborations nécessitent de comprendre et respecter la gouvernance en place du commun (pas question de débarquer en terrain conquis), mais peuvent apporter un cercle vertueux : l’administration gagne en expertise et en légitimité auprès de la communauté, et le commun bénéficie de contributions ou de visibilité accrues. On peut imaginer des conventions où un service public délègue une mission à une communauté (par exemple, une ville qui appuie une communauté open source développant une plateforme citoyenne locale, plutôt que d’acheter une solution propriétaire). Des expérimentations de ce type existent, notamment dans le mouvement des « villes en communs » (Barcelone a soutenu la plateforme de participation citoyenne Decidim, développée en open source et gérée comme un commun).
- Formation et sensibilisation : Pour que ces partenariats réussissent, il est crucial que les décideurs publics et les professionnels intègrent la culture des communs. Cela passe par la formation des agents aux outils et aux méthodes collaboratives, la valorisation des contributions aux communs dans les carrières (un agent public devrait pouvoir consacrer du temps à contribuer à Wikipédia ou à un projet libre si c’est en lien avec sa mission). De même, encourager les citoyens à prendre part aux communs (via l’éducation numérique, les médiathèques, les fablabs…) revient à renforcer la base de ces communs et à diffuser les compétences d’auto-gouvernance.
- Cadre réglementaire propice : Enfin, le rôle de la puissance publique est aussi de mettre en place un cadre légal qui protège les communs et évite leur enclosures (appropriations exclusives). Cela peut passer par le maintien de l’exception culturelle pour Wikipédia dans les directives européennes sur le droit d’auteur, par une définition claire du domaine commun informationnel, ou par des mesures antitrust adaptées (par exemple, garantir l’interopérabilité pour ne pas enfermer les usagers dans des jardins clos et laisser une chance aux alternatives ouvertes). Des propositions comme une forme de « taxe » sur les grands bénéficiaires des communs numériques (les géants du numérique qui se nourrissent de contenus libres) au profit de leur financement, ou l’intégration de clauses de communs dans les marchés publics (obligation de publication en open data des données produites, etc.), méritent d’être explorées.
Pour les acteurs publics, s’engager aux côtés des communs ne signifie pas déléguer aveuglément ou « se remplacer » par eux, mais au contraire innover dans les formes d’action. Il s’agit d’apprendre de ces communautés, de les aider à surmonter leurs fragilités, et de co-construire des solutions où chacun trouve son rôle, la puissance publique garantissant l’équité et la durée, la communauté assurant l’adéquation aux besoins et l’appropriation locale. Dans un contexte de transition numérique qui bouscule les repères, la gouvernance des communs offre une boussole pour imaginer des futurs où le numérique restera un outil d’émancipation et de coopération, plutôt qu’un facteur de dépossession. C’est un défi exigeant, mais aussi une formidable opportunité de réinventer l’action collective à l’ère du réseau, en ouvrant de nouvelles perspectives pour l’intérêt général. Les communs numériques, en somme, nous invitent à repenser ensemble “qui gouverne quoi, et comment” dans la société de l’information, et à reprendre collectivement la main sur nos ressources partagées.