
Connaissez-vous Storm-1516, le mode opératoire informationnel russe ? Saviez-vous que l’élection présidentielle roumaine avait été annulée, à la suite d’une campagne d'influence massive ? Anne-Sophie Dhiver, numéro deux de VIGINUM, raconte la guerre informationnelle qui se joue dans nos fils d'actualité – et ce que nous pouvons y faire.
Début 2024, Anne-Sophie Dhiver fait ce que peu de cadres de la tech osent : elle démissionne de chez Google, après douze ans passés au cœur de la machine algorithmique. Depuis 2023, elle est auditrice libre de l'École de Guerre et membre du comité Influence et guerre de l'information. L’évidence s’impose : ces mécanismes qu'elle connaît intimement sont devenus les armes d'acteurs qui cherchent à peser sur nos démocraties. Elle rejoint VIGINUM, le service de l'État chargé de détecter et de caractériser les ingérences numériques étrangères, dont elle devient numéro deux. « Face à l'ampleur des enjeux, j'estimais que ma place était au service de l'action publique, dans ce collectif hyperengagé », confie-t-elle.
Depuis sa création en 2021, VIGINUM veille sur l'intégrité du débat public français. Mais, contrairement aux services de fact checking, ce service ne se concentre pas sur la véracité des contenus. La philosophie est simple : VIGINUM ne traque pas les contenus, mais les infrastructures numériques et les techniques de diffusion malveillantes de l’information. Qui amplifie ? Comment ? Avec quels moyens… surtout quand ces derniers sont artificiels ? Faux comptes, bots, influenceurs dissimulés, manipulation d'algorithmes : « Peu importe le contenu, ce qu’on regarde, ce sont les moyens inauthentiques mis en œuvre pour le diffuser et l’amplifier », résume Anne-Sophie Dhiver. Une approche stratégique qui permet d'agir à la racine : exposer publiquement les modes opératoires, non seulement pour faire œuvre de pédagogie, mais aussi pour imposer un coût à l'adversaire, le forcer à se réajuster – jusqu'à contribuer dans certains cas à ouvrir la voie à des sanctions internationales.
À l'approche des échéances électorales de 2026-2027, Anne-Sophie Dhiver dresse un état des lieux de la menace qui pèse sur notre espace informationnel – et des leviers dont nous disposons encore pour le défendre.
Parmi toutes les opérations détectées par VIGINUM, laquelle vous a le plus frappée ?
Anne-Sophie Dhiver : Storm-1516, sur lequel nous avons publié au printemps 2025. Ce mode opératoire informationnel pro-russe, dont certains éléments en source ouverte le relient au service de renseignement militaire russe, le GRU, a mené plusieurs dizaines d'opérations visant des audiences internationales, européennes et françaises. Sa stratégie : saper le soutien occidental à l'Ukraine et peser sur les processus démocratiques.
Actif lors des élections législatives de 2024 en France, en Allemagne et aux États-Unis, ce mode opératoire s’appuie sur une infrastructure numérique dénommée Copycop qui a récemment mis en ligne plusieurs centaines de sites Web d'information régionaux générés par IA, reprenant des noms de régions françaises. Un tiers d'entre eux ont usurpé l'identité de vrais médias régionaux français. Une des hypothèses avancées est qu’ils étaient prépositionnés pour peser lors des élections municipales.
Sur le plan technique, il est particulièrement mature : recours à l'IA générative, production de vidéos, recrutement d'acteurs pour créer des contenus de bonne qualité. Ce mode opératoire a parfois généré une visibilité considérable, avec des personnalités reprenant du contenu sans se rendre compte de son origine réelle. Il représente un risque majeur pour les prochaines élections.
Depuis la création de VIGINUM en 2021, en quoi le terrain a-t-il changé ?
ASD : Cette menace s'est renouvelée et diversifiée sous l'effet de deux facteurs. D'abord, une pression stratégique liée au contexte international – notamment l'invasion de l'Ukraine par la Russie en 2022. Les actions hybrides, sous le seuil de la conflictualité, sont devenues un instrument privilégié de stratégie de puissance. Des acteurs étrangers exploitent nos principes démocratiques d'ouverture et de transparence pour créer le doute, porter atteinte à la confiance envers les institutions et les médias, diviser et polariser le débat public.
Ensuite, un facteur systémique lié à l'évolution du numérique crée des vulnérabilités supplémentaires. Émergence d'un nouvel écosystème de l'information marqué par l'érosion des médias d'information, montée en puissance d'influenceurs, décentralisation vers des plateformes partisanes moins modérées, multiplication de médias d'opinion. S'ajoute une concentration sans précédent de nos flux d'information sur un nombre restreint de plateformes, dont l'architecture algorithmique privilégie les contenus polémiques et sensationnalistes au détriment des médias d'information.
Comment l’IA générative transforme-t-elle les opérations d'ingérence ?
ASD : C'est un double enjeu : un risque important, mais aussi de nouvelles possibilités pour nos capacités de détection. L'IA est utilisée de manière croissante depuis 2022-2023. D'abord pour générer de l'engagement – contenus sensationnalistes, humour, images ou vidéos. Ensuite, pour créer de faux profils. Enfin, l’accès désormais facile à des traductions d’assez bonne qualité facilite les opérations internationales à grande échelle.
Pour autant, nous ne considérons pas l'IA comme une élévation structurelle du niveau de menace. En France, aucune opération utilisant l'IA générative n'a eu d'ampleur massive. À l'inverse, des opérations rudimentaires – les étoiles de David, par exemple, des cheap fakes – ont pu avoir un impact bien plus délétère. La qualité du contenu ne détermine pas nécessairement l'impact. Et l'IA ne résout pas le principal défi : faire sortir les contenus de leur audience d'origine pour les diffuser largement.
À l'inverse, vous utilisez donc l'IA pour détecter ces opérations ?
ASD : Exactement. Nous avons investi dans l'innovation technologique dès notre création. Notre data lab rassemble des data scientists et des chercheurs en IA qui travaillent en soutien de nos analystes. Nous utilisons l'IA au quotidien, par exemple pour faciliter la transcription de vidéos et identifier automatiquement certains patterns de comportements inauthentiques.
Nous avons même publié des outils en open source pour la société civile. D3lta, par exemple, utilise les LLM pour analyser la distance sémantique entre contenus textuels. Face à la technique du copy-pasta – qui consiste à massifier des publications en générant des milliers de formulations différentes d'un même narratif –, cet outil identifie les publications partageant une même racine sémantique, révélant leur probable artificialité.
Comment travaillez-vous avec les plateformes ?
ASD : Lorsque nous exposons ces modes opératoires, notre caractérisation trouve généralement un écho auprès des plateformes, car les comportements inauthentiques contreviennent à leurs conditions générales d'utilisation. Mais cette coopération est parfois en deçà de ce qu’est en droit d’attendre un service de l’État. Nous disposons alors d'autres leviers : la régulation, via notre partenariat avec l'Arcom pour contribuer aux enquêtes de la Commission européenne sur les manquements au DSA (Digital Services Act, ndlr), ou la collaboration dans le cadre d’enquêtes judiciaires.
Depuis quelques mois, plusieurs plateformes américaines mènent une offensive coordonnée pour contester les règles européennes et modifier les normes régissant la diffusion de l'information. Face à cela, nous devons rester fermes pour préserver ces règles adoptées démocratiquement, qui protègent la liberté d'expression tout en nous prémunissant contre les ingérences.
Vous vous êtes penchés sur l'annulation des élections roumaines en 2024. Qu'en avez-vous tiré pour la France ?
ASD : Les nombreux scrutins de 2024 nous ont intéressés à double titre : suivre l'évolution de la menace en vue des échéances de 2026-2027 et identifier les bonnes pratiques mises en œuvre par nos partenaires internationaux. Notre rapport de février 2025 sur la Roumanie, s’appuyant sur de nombreux documents en source ouverte, dont des éléments déclassifiés, visait à comprendre quels risques pouvaient être transposables en France.
Deux modes opératoires ont été utilisés. D'abord, l'astroturfing : publication massive de contenus avec hashtags ciblés, exploitant parfaitement les mécanismes algorithmiques. Ensuite, le recours dissimulé à environ 140 influenceurs, instrumentalisés contre rémunération sans connaître leurs commanditaires.
Cette affaire a révélé un changement d'échelle et de nature de la menace. L'enseignement principal : adopter une démarche proactive de sensibilisation en amont des périodes électorales, assurer plus de transparence pendant l'élection, mobiliser les médias et sensibiliser les plateformes.
Sommes-nous mieux préparés qu'en 2017 ?
ASD : Nous avons un mandat spécifique en contexte électoral. Depuis 2021, VIGINUM a protégé cinq scrutins, dont un référendaire. Pendant les élections de 2024, nous avons détecté 25 phénomènes inauthentiques. Les dispositifs sont en place. L'enjeu est de poursuivre, voire renforcer cette gouvernance pour faire face collectivement au durcissement de la menace.
Vous affirmez que les entreprises sont touchées mais mal informées. Pourquoi ?
ASD : Les acteurs économiques représentant la France à l'étranger peuvent être visés par ces opérations de déstabilisation. Nous observons une accélération de ces phénomènes. Protéger les intérêts économiques fait partie des intérêts fondamentaux de la nation. Nous sommes donc pleinement légitimes sur le sujet.
Désormais, le risque cybersécuritaire est traité au niveau des dirigeants des grandes entreprises. Le risque lié aux opérations informationnelles étrangères doit être pris en compte au même niveau. En effet, les risques sont multiples : atteinte réputationnelle, impact sur le chiffre d'affaires, déstabilisation interne… Des entreprises françaises ont subi des pertes significatives lors d'opérations informationnelles. Dans certains cas, la propagation d’une fausse information peut même créer un risque de sécurité pour les personnes et les biens.
Comprendre l'origine de la manœuvre – endogène ou artificielle et exogène – guide la réponse. On ne communique pas de la même manière selon les racines de la crise. Nous finalisons, conjointement avec le CDSE, le Club des directeurs de sécurité des entreprises, un guide de sensibilisation à destination des entreprises, qui devrait paraître en décembre 2025.
Dans cinq ans, quel équilibre trouver entre régulation, technologies et libertés ?
ASD : L'essentiel, c’est de préserver l'intégrité de l'information, condition du véritable débat démocratique. Les médias d'information constituent un pilier de la résilience démocratique, mais aussi d’une forme de souveraineté.





Participer à la conversation