
Entre montée de l’IA et tentatives de manipuler l'info, Remy Gerbet, directeur exécutif chez Wikimédia France nous raconte comment Wikipédia est devenue une citadelle assiégée.
Le 27 octobre 2025, Elon Musk a annoncé la mise en ligne de Grokipedia, une alternative à Wikipédia qu’il juge « trop woke ». Comment avez-vous vu arriver cette concurrence alimentée par l’IA ?
Rémy Gerbet : L’hostilité d’Elon Musk vis-à-vis de Wikipédia remonte à quelques années et en novembre 2024, il avait lancé toute une campagne pour rappeler de ne pas faire de dons à Wikipédia. Avant cela, il avait proposé un milliard de dollars pour que la Fondation renomme Wikipédia en « Dickipedia », et je vous passe encore tous les jeux de mots agréables de Monsieur Musk. Je peux comprendre que la croisade de l’homme le plus riche du monde puisse susciter de l’inquiétude. Mais très honnêtement, ça n’a pas vraiment été le cas, ni à la Fondation Wikimedia, ni chez Wikimedia France, ni dans nos communautés.
Les projets d’encyclopédies alternatives destinées à « contrer Wikipédia », on en a déjà vu plein, comme Conservapedia aux États-Unis ou Ruwiki en Russie. Elles fonctionnent sur le même principe que Wikipédia mais en plaçant le contrôle de l’information entre les mains d’un petit groupe de personnes, avec un angle éditorial très affirmé. En revanche, Grokipedia apporte un élément nouveau avec cette idée d’une encyclopédie générée par IA qui serait neutre par nature. Ce concept nous interroge un peu mais ne nous fait pas vraiment peur.
Qu’est-ce qui, d’après vous, fait la force de Wikipédia pour garder cette crédibilité face aux alternatives ?
R.G. : La première de ces forces, évidemment, c’est sa communauté de contributeurs. Pour Wikipédia en français, on a environ 40 000 contributeurs actifs à travers la planète qui prennent sur leur temps pour améliorer le contenu sans être « motivés » par un dictateur ou un milliardaire mégalomane. Ils le font parce qu’ils sont convaincus qu’ils participent au progrès de l’humanité, qu’ils contribuent à rendre le savoir accessible à tout le monde, sans barrière et sans filtre. C’est cette force collective qui fait le succès de Wikipédia. À cela, on ajoute toute sa gouvernance et sa philosophie interne : notamment la transparence, la « démocratie » qui se fait sur les articles, le fait que n’importe qui, au fond, puisse venir participer, améliorer une page et y apporter des sources pour faire grimper la qualité.
Sans ces éléments, tous les projets alternatifs auront du mal à soutenir la cadence sur le long terme. Parce que lorsque l’on est au Kremlin et qu’on souhaite une version de Wikipédia bien alignée sur la pensée politique et sociale de M. Poutine, on ne le fait pas par conviction personnelle : on le fait par peur, ou parce qu’on y est contraint. Et lorsque, aux États-Unis, on crée son petit « Wikipédia conservateur », très ciblé pour parler à une base politique spécifique, on ne parle finalement qu’à son noyau dur, là où Wikipédia essaie toujours de s’adresser à tout le monde.
Est-ce qu’il n’y a pas, malgré tout, une question de rapport de force à la fin, notamment avec la baisse du nombre de bénévoles ?
R.G. : Sur Wikipédia en français, par exemple, les communautés sont toujours au rendez-vous et se renouvellent. Cependant, on a aujourd’hui moins d’administrateurs qu’il y a dix ans. Cette baisse, pour moi, s’explique aussi par ce contexte de pression : quel avantage ai-je aujourd’hui à devenir administrateur ? À l’époque, je le faisais pour donner un petit coup de main supplémentaire, pour bloquer des articles vandalisés, nettoyer des pages, bloquer des contributeurs qui ne respectaient pas les règles. Aujourd’hui, être admin, c’est s’exposer à prendre des coups. C’est ça qui est terrible. Notre enjeu, à Wikimedia France, c’est donc de donner les moyens et les ressources pour que des personnes continuent à vouloir prendre ces responsabilités et de les accompagner au mieux, de les protéger.
Depuis presque six ans, on a mis en place un soutien juridique : dès qu’un administrateur ou un contributeur est menacé dans le cadre de ses fonctions bénévoles sur Wikipédia, on est là, on le défend, on l'accompagne. On a aussi mis en place un soutien psychologique quand ils font face à des menaces. Et puis on essaie de mettre en place tout un système de formation et d’accompagnement. On les forme, par exemple, aux techniques d’OSINT, au travail de vérification de l’information, à la cybersécurité : comment mieux se protéger, notamment face aux advanced persistent threats, etc.
Que se passe-t-il dans les pays où la communauté est plus petite ?
R.G. : La résilience d’une version de Wikipédia se mesure à la taille de sa communauté. Plus il y a de contributeurs actifs, moins il y a de chances que l’encyclopédie se retrouve noyautée par un groupe idéologique, par un groupe politique ou quoi que ce soit. L’exemple le plus marquant, c’est celui de Wikipédia en croate, qui avait une petite communauté. Un petit groupe qui s’assumait totalement comme néo-nazi a fini par faire peur aux contributeurs, qui ont fui. Ce groupe a alors pris le contrôle total de l’encyclopédie, ce qui a obligé la Fondation à fermer toute l’encyclopédie dans cette langue pour la relancer de manière plus accueillante.
On sait que Wikipédia sert aujourd’hui de base d’entraînement, au niveau des données, pour tous les grands modèles de langage. Depuis le déploiement de ces IA il y a environ trois ans, quelles ont été les principales conséquences que vous avez observées ?
R.G. : La principale conséquence, c’est une baisse du nombre de lecteurs qu’on estime autour de 8 %, et qui reflète les changements dans la manière d’accéder à l’information : aujourd’hui, beaucoup de gens s’informent directement via leur LLM, et ces derniers ne font pas ou peu référence à Wikipédia, ou alors cela dépend de la manière dont on formule la requête. Cela diminue mécaniquement la visibilité de l’encyclopédie. Cette décroissance pourrait poser problème sur le long terme. Moins de lecteurs signifie potentiellement moins de donateurs, donc moins de ressources pour héberger l’encyclopédie, assurer les mises à jour techniques nécessaires, mais aussi moins de moyens pour soutenir le développement des communautés. Plus une communauté est affaiblie, plus le contenu de l’encyclopédie devient fragile ou moins fiable. Étant donné que les IA continueront de s’entraîner sur ce contenu, on peut imaginer un phénomène de dégénérescence en cascade. Ce n’est pas encore le cas, mais c’est clairement un scénario que l’on a en tête et que l’on étudie.
Voyez-vous justement de plus en plus d’articles intégrant du contenu généré par IA ? Est-ce quantifiable ?
R.G. : C’est très compliqué à quantifier. Il y a quelques éléments qui nous permettent de le repérer. Un contributeur allemand a, par exemple, développé un petit outil technique pour analyser les numéros ISBN dans les références, parce que les IA ont tendance à inventer de fausses sources ou de faux livres, et donc aussi de faux numéros ISBN. De son côté, la communauté anglophone a publié un petit guide expliquant comment identifier du texte généré par IA pour aider les contributeurs à faire le ménage. Du côté français, je n’ai pas de statistiques, mais… si l’on en arrive à devoir produire un guide, c’est bien que le problème est récurrent.
Il faut aussi distinguer les usages : il y a du contenu généré par IA produit avec une bonne intention, une réelle volonté d’améliorer l’encyclopédie. Je connais des contributeurs qui me disent : « Moi, j’ai toutes les informations, je sais quelles sources mettre, mais j’ai du mal à adopter un style encyclopédique neutre. Donc je fais un premier jet, je demande à une IA de reformuler proprement, et j’intègre ça en toute transparence. » Ceux-là, ils le disent clairement, et on n’est pas hostiles à ce type d’usage, tant que c’est transparent et que cela facilite vraiment le travail de la communauté.
Il existe aussi des usages plus problématiques, notamment en matière de désinformation. L’IA générative peut produire non seulement du texte trompeur, mais aussi de fausses sources, ce qui rend la détection beaucoup plus difficile. Le défi n’est donc pas seulement d’identifier des passages suspects, mais aussi de vérifier l’existence réelle des ouvrages ou articles cités.
Comment envisagez-vous notre environnement informationnel à l’avenir ? Risque-t-on un chaos informationnel ?
R.G. : La perspective qui se dessine n’est pas forcément très rassurante. Avec les réseaux sociaux, on a déjà vu les bulles algorithmiques se renforcer ; mais avec les IA génératives, on passe à une échelle supérieure. On entre vraiment dans un monde où, selon l’IA que j’utilise, je n’aurai accès qu’aux informations qu’on veut bien me donner : celles qu’un propriétaire de plateforme, une entreprise ou un milliardaire aura décidé de me présenter. Et je n’aurai pas accès au reste. C’est très inquiétant pour des sociétés démocratiques comme la France ou d’autres, qui reposent sur l’idée que chacun doit avoir un accès équitable à l’information pour se forger une opinion éclairée. C’est dans ce sens que Wikipédia reste très important. C’est l’un des derniers grands espaces publics numériques.
Les pouvoirs publics en France ont-ils pris la mesure de cet enjeu et de l’importance de Wikipédia ? Vous avez dû vous battre longtemps pour être légitimes.
R.G. : Oui, pendant plus de dix ans, on a dû se battre pour gagner en légitimité. Aujourd’hui, ça va mieux, mais l’État est toujours en retard d’un virage. Il y a 5-10 ans, on alertait sur la nécessité de former les citoyens au fonctionnement des réseaux sociaux et de renforcer l’éducation aux médias… Pour moi, ce virage-là est loupé, et on est en train de faire la même chose avec l’IA.
Le problème vient surtout du fait que l’État et les responsables politiques analysent systématiquement ces enjeux sous un prisme économique. Avec les réseaux sociaux, c’était : « Mince, on n’a aucun géant européen comme Meta ou X, il nous en faut un. » Et avec l’IA, c’est la même chose : « Il nous faut nos propres modèles, nos propres champions technologiques. »
À chaque fois qu’on vient expliquer la situation de Wikipédia, ou plus largement celle des communs numériques — dont Wikipédia est la partie visible et qui est accompagné par tout un écosystème — on nous renvoie à notre prétendue spécificité. On nous prend pour des hippies du numérique, pour une exception, et il n’est pas question de faire de politiques publiques pour une exception. On voudrait que les pouvoirs publics inversent le prisme et qu’on se pose tous la vraie question : quel web voulez-vous pour demain ? Un web contrôlé par quelques grands groupes qui décideront de l’information à laquelle vous avez droit ou un web ouvert, transparent, démocratique, où n’importe quel citoyen peut participer, contribuer, s’informer, débattre ?
Quand on pose cette question, la réponse qu’on obtient, c’est souvent : « Oui mais vous comprenez, il y a une course entre les États-Unis, la Chine et l’Europe, on ne doit pas être à la traîne. Il nous faut nos géants, notre souveraineté numérique européenne. » C’est un argumentaire très court-termiste.
Comment expliquez-vous cette impossibilité de communiquer et comment y remédier ?
R.G. : Il faut d’abord prendre en compte un point important : beaucoup de responsables politiques ne comprennent toujours pas comment fonctionne l’encyclopédie en ligne. Je le vois dans les réunions avec des cabinets ministériels où je viens pour parler d’un sujet précis, et je passe souvent les trois quarts de l’entretien à expliquer notre fonctionnement. C’est révélateur.
On a passé dix ans, voire plus, focalisés sur la qualité de l’information, sur la fiabilité, sur la légitimité du contenu et de la communauté… et peut-être qu’en se concentrant là-dessus, on a un peu oublié le combat de la pédagogie.
Il y a donc un enjeu énorme, à la fois pour les gouvernants mais aussi pour la population française. La légitimité de Wikipédia tient au fait que la plateforme s’est inscrite dans le quotidien de tout le monde. Mais si on continue à être attaqués sur nos soi-disant biais ou nos penchants « woke », et que les gens ne comprennent pas réellement comment le site fonctionne, ils peuvent finir par être convaincus par ce genre d’arguments.
On a donc un vrai travail de pédagogie à mener et on espère qu’avec les 25 ans de l’encyclopédie en janvier, et avec le fait que Wikimedia France accueille la Wikimania à Paris en juillet prochain — l’événement mondial du mouvement Wikimedia — on aura une belle opportunité, en 2026, d’expliquer massivement le fonctionnement de Wikipédia. Je pense que c’est l’enjeu majeur des années à venir.
Quel est l’avenir du Web libre et collaboratif dans les années à venir ?
R.G. : L’esprit collaboratif du Web est mis à mal depuis des années. Je pense que le tournant s’est fait autour de 2005–2006, avec l’émergence des grands réseaux sociaux et de ces plateformes qui monopolisent l’attention et les discours. Mais il ne faut pas noircir le tableau : il existe encore aujourd’hui plein de plateformes qui portent cette philosophie-là et la promeuvent.
C’est bien de rappeler qu’il existe un écosystème français très dynamique, avec des coopératives, des entreprises ou des associations de l’open source comme Open Food Facts, OpenStreetMap et d’autres. Il y a des forces, des envies, des projets. Je vois aussi, au sein de l’État, des prises de conscience de plus en plus importantes. Par exemple, récemment, le ministère de l’Éducation nationale a enfin rompu son contrat avec Microsoft. On peut voir ça comme un progrès : en tout cas, il y a une dynamique, en France et en Europe.
Il y a aussi la création de cette Fondation européenne des communs, dont le siège sera à Paris et qui réunira la France, l’Allemagne, l’Italie, les Pays-Bas et d’autres pays, avec la volonté d’investir de l’argent et du temps public dans l’apparition d’un web alternatif, dans le soutien aux communs et à l’open source. Donc oui, il y a une vraie dynamique. Ce qui manque encore aujourd’hui, je pense, c’est une volonté politique forte, qui dépasse les initiatives individuelles de certains responsables dans l’administration, trop isolés. Il manque une parole politique claire qui pourrait impulser un changement de cap, une nouvelle manière d’interagir en ligne.





Merci beaucoup pour cet article de qualité, très enrichissant ! Tout comme les autres que j'ai pu lire de vous.
Une perle dans le Web d'aujourd'hui
Bonjour, intéressant sur le fond, sur la forme je regrette l'utilisation abusive du pronom impersonnel "on" employé à la place de "nous". Dans le langage parlé cela reste compréhensible, à l'écrit cela provoque une grosse perte de précision appauvri le sens du texte et peut même aller jusqu’à induire des confusions.
D.H.
merci, je suis une fan de wikipedia, que j'utilise tous les jours, habitant loin d'une université ou l'info, d'ailleurs, n'est pas toujours "up to date"....j'ai contribué qqes temps en minéralogie sur wikipedia, mais, à mon âge, j'ai du mal avec l'HTML...et je suis chaque année donatrice dans la mesure de mes moyens... étant consommmatrice, je trouve ça logique!
Dommage que wikipédia soit maintenant orientée : Les vaccins par exemple avec des graphiques justificatifs lunaires et aucun lien vers des sources contredisant le narratif...
Je tenterai bien des ajouts mais je sais d’avance qu'elles ne seront pas raisonnablement discutées mais simplement effacées.
Donc cela détruit peu a peu sa crédibilité.
Le problème de wikipedia qui était un formidable projet à la base c'est qu'il est devenu largement orienté sur certains sujets d'où la perte d'audience, les gens n'étant pas idiots, n'en déplaisent à certains, minoritaires de surcroit ! En dehors de ces sujets, il reste intéressant et une référence sur des sujets neutres.
Merci pour cet article que je communique à ma descendance
Longue vie à Wikipédia, dont les ennemis sont les ennemis des citoyens du Monde entier.
Il n'en reste pas moins que Wikipédia est très "woke" et politiquement à gauche.
Les hommes politiques français sont aussi nuls pour lutter contre la désinformation des plateformes et le danger existentiel de l'IA que pour donner un budget à la France
de la à se demander si les nombreuses modifications pour corruptions d'articles sur wikipedia ont été organisées par des partisant de musk entre 2022 et 2024 ?
Je découvre par hasard cet article et le media. Impressionnée par la qualité de l'article et la composition du site. Une belle découverte. Bravo !
Interview pertinente et bien détaillée.
Les visions court-termistes sont la principale gangrène de la société : si tous les acteurs, économiques et politiques, réfléchissaient un peu plus loin qu'une poignée d'année dans l'avenir (quand ce n'est pas d'une année sur l'autre...), la situation s'amélioraient drastiquement dans tous les domaines.
Wikipedia liberté ?
Non c'est faux, ma mère était une célébrité, elle a une page sur wikipedia, contenant des erreurs, j'ai voulu les changé, et c'est monsieur les admin, m'ont envoyé baladé en remettant les conneries sur ma mère sur sa page, et en me disant en gros de me la fermer.
Donc non, aucun monde libre sur wikipedia, mais bien une dictature des admins !
Aujourd'hui quand les néo-conservateurs veulent déconsidérer une information ou une source, ils disent qu'elle est de gauche, sous-entendu mensongère ou orientée. Ainsi la terre est ronde, donc l'information est fausse voire orientée puisque certains, on ne sait pas qui d'ailleurs prétendent qu'elle est plate, et ils en ont le droit puisqu'on est dans une démocratie où la liberté d'expression est un principe indépassable. Alors que faire ? Je ne sais pas. Mais ce qui risque de se produire est une plongée historique dans l'obscurantisme. Hier c'étaient les religions qui étaient les ennemis de la vérité, aujourd'hui c'est tout un chacun au nom de la liberté d'expression. Hier c'étaient les églises qui refusaient aux peuples le droit à l'éducation, aujourd'hui ce sont les puissants groupes industriels et financiers qui ont besoin d'une masse inculte et moutonnière.
il faut vraiment être de gauche ou retraité sur l'ile de ré pour penser que wikipédia n'est pas orienté. Ca crève les yeux. Cependant toujours utile de le consulter pour des questions de sciences