
En 2026, les IA ne savent pas délivrer des actualités fiables sans piocher dans le contenu des médias – tout en participant à les fragiliser.
Le 3 janvier 2026 à 4 heures du matin (sur la côte Est des États-Unis), des explosions secouent Caracas. Sur son compte Truth Social, Donald Trump annonce que les États-Unis d'Amérique ont mené avec succès une frappe contre le Venezuela et capturé son dirigeant, Nicolás Maduro. Reuters, AP et le département de la Justice confirmeront dans la foulée.

À 9 heures du matin (côte Est aussi), soit environ 5 heures après l'annonce de Trump, Brian Barrett, journaliste à WIRED, interroge quatre chatbots avec la même question : « Pourquoi les États-Unis ont-ils envahi le Venezuela et capturé son dirigeant, Nicolás Maduro ? » La suite ne va pas vraiment vous étonner.
À chaque chatbot sa vérité
Les réponses obtenues divergent. ChatGPT nie totalement les faits et indique que les États-Unis n’ont pas attaqué le Venezuela. Comble de l'ironie, il somme l'utilisateur de ne pas croire à la « désinformation » qui règne en ligne. De son côté, Perplexity affirme : « Il n'y a pas de rapport crédible sur un tel évènement ». Deux chatbots (sur quatre) s'en sortent. Claude (Anthropic) tarde à trouver des éléments mais finit par confirmer les faits en indiquant des sources. Seul Gemini (Google) atteste de cette attaque dès la première réponse en citant 15 sources fiables : Wikipedia, The Guardian, Council on Foreign Relations, etc.
De son côté, Grok, le chatbot intégré à X, analysé par The Atlantic, valide bien l'invasion, mais omet des éléments : les exécutions extrajudiciaires de marins vénézuéliens quelques jours avant l'opération, l'illégalité potentielle de l’opération au regard du droit international et les bombardements de civils sur Caracas. The Atlantic résume : « Ces réponses peuvent sembler raisonnables, mais elles manquent de contexte clé évident. »
Sur cinq chatbots testés, trois ont échoué et pendant plusieurs heures, des millions d'utilisateurs ont reçu une information fausse ou biaisée. Certes, ChatGPT et Perplexity n'avaient pas accès à des informations postérieures à leur cut-off date, moment ou leur entraînement sur une base récente a eu lieu et situé respectivement en avril 2024 et octobre 2025. Malgré cette contrainte bien connue, aucun chatbot n'a apporté cette précision dans leur réponse. Au lieu de reconnaître leurs limites, ils ont nié les faits et accusé les utilisateurs de se tromper. Claude, à l'inverse, a explicitement reconnu son cut-off date avant de lancer une simple recherche web. Une transparence qui fait toute la différence.
Un usage qui se démocratise dans un paysage médiatique en crise
En octobre 2025, 9 % des Américains utilisaient des chatbots pour s'informer, un chiffre qui a doublé en un an. Mais ce basculement s'accélère avec AI Overviews : depuis mai 2024 aux États-Unis, puis en janvier 2026 dans plus de 200 pays, Google affiche dans ses résultats des résumés produits par IA dans un bloc texte qui apparaît avant les liens traditionnels. La France fait exception : AI Overviews n'y est pas disponible, en raison de débats réglementaires (DMA, droits voisins). Mais les Français, eux, utilisent ChatGPT, Gemini et Perplexity.
L'impact d’AI Overviews est brutal pour les sites d’informations. Le trafic vers les sites en première position a chuté de 34,5 % et pour les sites non cités, la baisse atteint jusqu’à 70 %. Seuls 3 à 4 sites sources s'en sortent. AI Overviews achève le modèle économique fondé sur le trafic web.
Par ailleurs, et dans le même temps, du contenu IA généré (le fameux "slop") a massivement inondé le Web. En ce qui concerne l'attaque au Venezuela, ce flux est apparu avec une intensité, en nombre et en rapidité de mise en ligne, qu’on n’avait jamais connue. Donald Trump et Elon Musk ont alimenté ce phénomène en relayant des vidéos de fausses scènes de liesse à Caracas qui ont été vues par des millions de personnes.
Nous pouvons donc parler d'un triple effondrement. Les médias perdent leur audience au profit de résumés IA. Les chatbots peinent à donner des réponses fiables et leurs éditeurs ne communiquent rien à ce sujet. Quant au slop IA, il se multiplie sans garde-fou et gangrène tous les résultats.
L'info en 2026 : entre deux effondrements
Le XXIe siècle n'en finit pas de changer notre rapport à l'info. Ça a commencé dès le 11 septembre 2001 quand les tours de Manhattan brûlaient et que Krishna Bharat, chercheur chez Google, constatait que le moteur de recherche ne pouvait le renvoyer que sur des pages qui parlaient de l'architecture du bâtiment ou de ses horaires d'ouverture. Un an plus tard, Google News était lancé. Il indexait 4 000 sources d'actualité pour délivrer une curation sans intervention humaine qui donnait la primauté aux articles qui récoltaient un max d'audience.
Sept ans plus tard, en 2019, Google publiait un document de 29 pages (How Google Fights Disinformation) qui expliquait sa stratégie anti-désinformation. Il reconnaissait au passage qu'il « n'est pas en mesure d'évaluer la véracité d'un contenu ». Sa solution d'alors : s'appuyer sur des sources qui font autorité, des fact-checkers externes, des garde-fous humains. À date, OpenAI, xAI, Anthropic n'ont pas encore réalisé ce travail.
En 2026, l'« lnstant Maduro » révèle que le problème a gagné en complexité : les IA ne renvoient plus vers les sources, elles les remplacent, entraînant la perte d'audience des médias et donc de leur capacité à financer des journalistes, des enquêtes, du fact-checking. Moins de contenus de qualité, cela signifie moins de données fiables pour entraîner les IA. Un cercle vicieux d'autant plus regrettable que les éditeurs d'IA ne semblent pas prêts à le résoudre.






Participer à la conversation