
Meta en janvier 2025, Google en juin : en quelques mois, les deux plateformes ont démantelé leurs outils de fact-checking. Plusieurs acteurs tentent d'occuper le vide. Une start-up française propose une approche à rebours : labelliser les contenus fiables, pour les faire remonter là où les plateformes ne font plus le tri.
L'annonce est tombée un jeudi de juin 2025, au fond d'un blog développeur de Google. Plus de support pour ClaimReview, le marquage qui permettait depuis dix ans de signaler les articles de fact-checking en tête des résultats. Côté Meta, le fact-checking par des tiers avait déjà pris fin en janvier. Les deux plus gros canaux d'accès à l'information mondiale renoncent ainsi à leur rôle de filtre au moment même où les jeunes Français en dépendent le plus : 53 % des 15-30 ans citent les réseaux sociaux parmi leurs trois premières sources d'actualités, selon le baromètre INJEP-CRÉDOC 2024.
C’est dans ce contexte qu’émerge Veridisquo. À l’origine du projet, Simon Dufeigneux, passé par plusieurs cabinets ministériels avant de rejoindre Sisley, s’associe à Lorenzo Benedetti, producteur et cofondateur de Studio Bagel (revendu à Canal+ en 2014), puis passé par Paradiso Media. Deux trajectoires rarement amenées à se croiser. Leur ambition : créer un « Yuka de l’information », capable d’évaluer la fiabilité des contenus au cas par cas, ainsi que celle de leurs auteurs. Leur promesse : « certifier la rigueur, diffuser la confiance ».
Un label plutôt qu'une liste noire
Les labels existent déjà. NewsGuard, Journalism Trust Initiative, The Trust Project : tous fonctionnent sur une logique d'audit, appliquée au média comme bloc. En somme, cocher un certain nombre de cases pour décrocher une certification. Veridisquo déplace le curseur au niveau du contenu et du créateur. Chaque vidéo, chaque post reçoit un score calculé en continu, moitié algorithme moitié relecture humaine, mis à jour au fil des publications.
L’algorithme, baptisé VeridisProof, couvre cinq grands champs : environnement, sciences et santé, économie et entreprise, démocratie et droits fondamentaux, ainsi qu’actualité et géopolitique. Le socle technique est développé par le troisième associé, Léopold Granger, data engineer passé par CentraleSupélec, l’ESSEC et Station F. Afin d’éprouver leur démarche, ils ont sollicité plusieurs personnalités, parmi lesquelles l’académicienne et ancienne spationaute Claudie Haigneré, la journaliste Caroline Roux, ainsi que l’essayiste et politologue Chloé Morin, spécialiste de l’impact des réseaux sociaux.Côté méthode, le principe tient dans une phrase que ses fondateurs répètent : « On ne supprime pas, on réordonne ; on propulse les contenus rigoureux en haut de l’algorithme. » Le dispositif n’exclut pas les contenus douteux, mais privilégie la mise en avant de ceux qui ont été validés, notamment dans les résultats de recherche. Sur des plateformes qui ont longtemps préféré l'engagement à la qualité, ce déplacement reconfigure les règles de visibilité.
Faire payer le vrai
Le modèle économique repose sur un pari simple : des marques soucieuses de leur image accepteraient de payer plus cher pour s’assurer que leurs publicités n’apparaissent que dans des environnements jugés fiables. Concrètement, Veridisquo propose une place de marché privée — une Private Marketplace — accessible via les principales plateformes d’achat publicitaire (DV360, The Trade Desk, Amazon). Dans cet espace, seuls les contenus labellisés sont disponibles : ils deviennent de fait des inventaires publicitaires premium, plus sélectifs et mieux valorisés.
Le contexte renforce cette proposition. En mai 2025, Microsoft a annoncé la fermeture de Xandr, l’un des DSP historiques du marché longtemps connu sous le nom d’AppNexus, contribuant à redistribuer les cartes dans l’écosystème publicitaire.
Le dispositif propose ainsi un renversement de logique par rapport à la brand safety classique. Des outils comme IAS ou DoubleVerify fonctionnent en filtrant les environnements à risque, pour éviter que les marques y soient associées. Veridisquo adopte une approche inverse : il ne s’agit plus seulement d’exclure, mais d’identifier et de soutenir activement les contenus jugés fiables.
Autrement dit, on passe d’une logique de protection à une logique de sélection. « Passer du contrôle défensif à une stratégie éditoriale active », résument ses fondateurs. L’argument pourrait séduire des marques en quête de cohérence avec leurs engagements RSE. Reste à vérifier si ce modèle tient à grande échelle.
Premier test : la santé mentale des jeunes
Veridisquo démarre en 2026 par une série d'expérimentations ciblées. La première est déployée en avril, à l’occasion du "Mois de la santé mentale". Le principe est volontairement simple : il suffit de coller l’URL d’une vidéo TikTok pour obtenir une évaluation de sa fiabilité, appuyée sur des sources scientifiques. La méthodologie s’inscrit dans le prolongement d’une étude menée entre 2024 et 2025 par la Fondation Descartes, consacrée aux contenus relatifs à l’autisme et au TDAH. Cette organisation, qui analyse depuis plusieurs années les mécanismes de la désinformation, accompagne le projet. Son directeur, Laurent Cordonnier, est un "compagnon de route" de Veridisquo.
Dans la foulée, avec le soutien d’une compagnie d’assurance, la start-up annonce une campagne dédiée à la santé mentale des jeunes, visant à promouvoir des centaines de contenus fiables sur des sujets sensibles comme la dépression ou la prévention du suicide. L’Alliance pour la santé mentale en coordonne le volet académique, aux côtés d’Astrid Chevance, psychiatre à l’Université Paris Cité et spécialiste de la dépression, et de Mickaël Worms-Ehrminger, chercheur en santé publique et créateur du podcast Les Maux Bleus (également membre du collectif L’ADN Le Shift).
Le terrain est particulièrement sensible. La santé mentale cartonne sur les réseaux, et les dérives sont documentées. Une revue systématique de l'Université d'East Anglia publiée en mars 2026 estime que 52 % des vidéos TikTok consacrées au TDAH contiennent des informations inexactes — une proportion qui atteint 41 % pour les contenus sur l’autisme. Sur un échantillon de 100 vidéos dédiées au TDAH, Veridisquo observe que seules 2 % présentent un niveau de rigueur académique élevé, tandis que 25 % peuvent être considérées comme très approximatives, voire potentiellement dangereuses.
Ces résultats s’inscrivent dans une tendance plus large. Une étude de l'Université de Montréal montrait déjà en 2025 que moins d’une vidéo sur cinq liée à la santé mentale citait une source scientifique. Dans le même temps, les plateformes font face à une série de poursuites aux États-Unis, où elles sont accusées de porter atteinte au bien-être des adolescents, dans un contexte où la génération Z reste largement démunie pour distinguer information étayée et contenus anxiogènes. Le 25 mars 2026, un jury de Los Angeles a ainsi rendu un verdict inédit, jugeant Meta et YouTube négligents à l’égard des mineurs et les condamnant à verser 6 millions de dollars de dommages et intérêts (TikTok ayant, de son côté, choisi un règlement à l’amiable avant l’ouverture du procès).
Pendant que les plateformes encaissent, Veridisquo avance ses tests. Après un premier pilote consacré à la santé mentale des jeunes, la start-up prévoit une série de déploiements thématiques : les révisions du bac et du brevet en juin, les contenus liés au changement climatique à l’occasion de la Semaine du développement durable en septembre, puis la fiscalité et les finances publiques à l’approche du projet de loi de finances pour 2027, en octobre.
À chaque fois, la mécanique reste la même : partir des usages réels sur les réseaux et des requêtes des utilisateurs pour faire remonter, en tête des résultats, des contenus certifiés. Reste une inconnue centrale : la disposition des marques à payer pour cette exigence de rigueur. Côté plateformes, l’équation apparaît a priori gagnante : monétiser la mise en avant de contenus jugés fiables, sans avoir à dévoiler le fonctionnement de leurs algorithmes.




Participer à la conversation