un collage d'un homme politique à tête de mort

« Je ne vois que ce que je crois » : comment Meta fracture le réel

© Mateusz Szczypiński

Entre algorithmes toxiques, invasion du slop et opposition frontale à la science, le chercheur Michaël Lainé décrypte notre monde médiatique et politique dans l’ère de la post-vérité.

Nous avons déjà fait un constat dramatique. Dans notre article Les algorithmes de recommandation de Facebook, nous constations que les contenus présentés aux nouveaux utilisateurs étaient chargés d’émotions négatives, de fausses informations ou d’images synthétiques trompeuses, tout en mettant constamment en avant l’idéologie d’extrême droite. Pour comprendre cette mécanique, nous avons interrogé Michaël Lainé, maître de conférences à Paris-8 et chercheur pluridisciplinaire notamment sur les intuitions, les émotions et les croyances. Dans son ouvrage L’ère de la post-vérité, il caractérise de manière scientifique les effets dévastateurs d’Internet et des réseaux sociaux sur notre climat politique. Il confirme que notre expérience sur la plateforme de Meta est tout sauf un accident de navigation et que le problème dépasse largement notre monde numérique.

L’expérience que nous avons menée sur un compte Facebook vierge montre une forte prévalence du contenu d’extrême droite. Est-ce un choix délibéré de la part de Meta ?

Michaël Lainé : Votre expérimentation vient confirmer ce que les études antérieures montrent déjà. Frances Haugen, une lanceuse d’alerte bien connue, avait déjà révélé que 65 % des gens qui avaient rejoint un groupe néonazi sur Facebook l’avaient fait sur suggestion de l’algorithme. Il faut toutefois préciser qu’il s’agit d’une logique commune à l’ensemble du cyberespace. Les algorithmes d’une plateforme se basent sur votre historique d’interactions pour vous caser dans une bulle qui va conforter vos propres convictions politiques. Mais quand la plateforme n’a pas d’historique, comme c’est le cas pour votre expérience, elle va tester vos réactions et vous exposer à du contenu qui génère de l’engagement, des émotions incontrôlables comme la peur, l’indignation ou la colère, afin de forcer l’engagement. Or cette galaxie émotionnelle va naturellement favoriser les idées d’extrême droite, dont le dénominateur commun est le sentiment de peur.

Vous dites que tous les réseaux sont concernés ?

M. L. : David Chavalarias a montré que cette logique se retrouve aussi sur X/Twitter. Entre un tiers et la moitié des posts sont de la pure suggestion algorithmique, et c’est dans cette suggestion que l’on trouve une véritable amplification de l’extrême droite, qui va de 1,9 à 4,2 fois. Pour YouTube, des recherches plus anciennes ont montré qu’à la veille de l’élection présidentielle américaine de 2016, 80 % des vidéos suggérées lorsque vous tapiez « Trump » ou « Clinton » étaient pro-Trump.

Je fais aussi régulièrement une expérience lors de mes rencontres et débats. Je demande aux participants de rechercher le mot « antiracisme » et de me transmettre les trois premières vidéos qui leur sont recommandées. Les résultats sont très éclatés, mais certaines configurations apparaissent nettement. Les deux vidéos qui reviennent le plus souvent sont des contenus racistes, produits notamment par l’influenceur Valek et le média d’extrême droite Valeurs actuelles, ce qui est assez ironique pour une recherche censée porter sur l’antiracisme.

Mark Zuckerberg s’est publiquement aligné avec une partie de l’idéologie trumpiste, tandis que la nouvelle doctrine américaine perçoit l’Europe comme un territoire devant basculer à l’extrême droite. Face à ces faits, doit-on considérer Facebook comme une arme d’influence politique ?

M. L. : Facebook fonctionnait déjà comme ça avant le retournement idéologique de son patron. Il y a des travaux qui remontent à sept ou huit ans et qui montrent que, lorsque vous avez 10 % d’homogénéité politique parmi vos amis Facebook, vous avez 1,5 % de chances en plus de voter comme vos amis.

À mon sens, ce n’est pas vraiment une question d’individu. Si demain on mettait quelqu’un d’autre à la place de Mark Zuckerberg, ou à la tête d’autres plateformes, la logique resterait la même. On l’a vu pendant le Covid : 41 % des posts en anglais étaient reliés à une rhétorique antivax. Zuckerberg a bien tenté d’intervenir pour modifier l’algorithme, mais il n’y est pas vraiment parvenu. Il a, en quelque sorte, créé une créature difficilement contrôlable, qui évolue en permanence et qui s’adapte aux utilisateurs pour maximiser l’engagement. Tant qu’on lui donne cette finalité-là, elle va mécaniquement mettre en avant ce qui fonctionne le mieux.

C’est aussi pour cela que l’on voit la progression de l’extrême droite dans tous les pays. Bien sûr, la diversité des contextes économiques, culturels, sociaux et politiques reste importante. Mais, malgré tout, ces facteurs deviennent relativement secondaires par rapport à la prégnance des réseaux sociaux, qui constitue le véritable point commun. On est face à un écosystème numérique conçu pour maximiser l’attention et l’engagement, et qui va statistiquement favoriser les contenus d’extrême droite.

À l’occasion du mouvement de protestation des agriculteurs, Facebook est envahi de vidéos générées par IA montrant des éleveurs en pleurs ou en colère, et ce contenu semble normal et réel pour beaucoup d’utilisateurs. Comment expliquer cette normalisation ?

M. L. : La véracité de l’image, comme celle du texte d’ailleurs, n’est plus aussi importante qu’auparavant. Pour expliquer ce phénomène, on peut déjà évoquer la loi de Brandolini : une idée fausse, absurde ou erronée demande beaucoup moins de temps à être énoncée que le temps nécessaire pour la réfuter. Avec l’IA générative, ce phénomène va encore s’amplifier, alors même qu’il faudrait le combattre. Mais, plus généralement, je pense que le capitalisme numérique permet de s’affranchir du réel. On peut décrire toute l’histoire du capitalisme comme celle d’une promesse illusoire de satisfaction de tous les désirs. À mesure qu’il progresse dans sa logique profonde, il a déjà offert, dans les économies avancées en tout cas, une vie relativement à l’abri des besoins matériels pour la majorité de la population. Ensuite, il a offert la promesse du bonheur, de la beauté, des loisirs, du voyage. Et aujourd’hui, il franchit un cap supplémentaire en touchant à un désir plus intime encore : celui d’effacer la frontière entre la représentation et la réalité. Se soucier uniquement de l’image que l’on souhaite avoir du monde, ou de l’image que l’on souhaite avoir de soi, peu importe la réalité ; c’est ce qui rend les réseaux sociaux si attractifs et c’est ce qui signe notre entrée dans une ère de post-vérité.

Les faits ou la vérité n’ont donc plus vraiment d’importance ?

M. L. : Les faits comptent toujours, bien sûr, mais ce qui est central, c’est l’interprétation des faits. Il y a une expérience qui illustre très bien le trouble propre à la post-vérité. Si vous diffusez un message erroné et anxiogène sur l’immigration à des internautes français, une partie d’entre eux va modifier son opinion. Et là où c’est particulièrement intéressant, c’est que lorsque vous faites suivre cette information erronée d’un fact-checking issu de sources fiables, vous observez que les personnes corrigent leurs connaissances factuelles, mais pas la conclusion qu’elles avaient tirée initialement de l’information fausse. C’est comme si le plus beau lapsus du monde politique, que l’on doit à Éric Zemmour – « je ne vois que ce que je crois » –, était en train de se généraliser. On est bien dans cette logique du désir qu’exploitent les réseaux sociaux, et qui nous offre un monde conforme à l’image que l’on souhaite en avoir, mais aussi conforme à ce cocktail émotionnel dans lequel on a besoin d’être régulièrement plongé. Et cela nous conduit, d’une certaine manière, à nous désintéresser du réel.

Quelles sont les conséquences politiques immédiates de cette entrée dans l’ère de la post-vérité ?

M. L. : On va vers une interpénétration de plus en plus forte entre les champs économique et politique. Le cas d’Elon Musk en est une illustration : ses ambitions dépassent largement un simple rôle de « ministre superviseur » du DOGE. Cette influence croissante du secteur privé va s’accompagner d’une généralisation des logiques de post-vérité, avec un rejet accru de la science et une tendance à la criminalisation du désaccord. Il va y avoir une confrontation entre la science, dont la vocation est précisément de dire le vrai et de confronter les croyances à la réalité, et une volonté politique d’éradiquer la vérité. C’est ce que l’on constate avec les premières décisions de l’administration Trump concernant les coupes budgétaires dans le domaine de la science financée par le secteur public. Comme les États-Unis sont le pays pionnier d’Internet, c’est chez eux que l’on observe les premiers effets de ces technologies. Mais ils ne font qu’ouvrir la voie dans laquelle les autres pays vont s’engouffrer. Même si l’Europe dispose d’une législation un peu plus protectrice, on observe déjà des reculs, par exemple sur l’interdiction de la fabrication des véhicules thermiques en 2035, où plusieurs remises en cause s’annoncent à mesure que l’extrême droite accède au pouvoir.

Existe-t-il des solutions pour changer le cours des choses ?

M. L. : Tout le monde devrait s’exercer à l’esprit critique, sinon nous risquons de tous tomber dans une forme de servitude involontaire face aux algorithmes, qui vont exploiter nos biais cognitifs et nos émotions. Idéalement, on devrait aussi intervenir sur le code de ces entreprises, leur imposer la transparence de leurs algorithmes et les obliger à maximiser l’esprit critique et le contenu scientifique plutôt que l’engagement. On pourrait aller plus loin encore et imposer à ces entreprises de ne pas poursuivre une finalité strictement lucrative. Mais je pense surtout qu’il faut viser le temps long. À court terme, je ne vois pas de partis politiques capables de s’opposer franchement au régime de l’information qui s’installe très rapidement et qui conduit au rejet du réel. Sur le temps long, en revanche, c’est quelque chose qui finira par émerger. Lorsque les attaques contre la science vont se multiplier, il y aura aussi une opposition très forte. Il y aura des luttes sociales, il n’y aura pas d’apaisement. Les sociétés se polarisent déjà, et cela va se traduire très concrètement lorsque les formations politiques d'extrême droite qui rejettent le plus la vérité arriveront au pouvoir.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
la journée des tendances 2026
commentaires

Participer à la conversation

Laisser un commentaire