
Derrière la peur des contenus taillés pour capter l'attention des seniors, une angoisse plus profonde émerge : celle de voir ses parents se perdre dans un Web devenu illisible.
« Free my older family members from Facebook AI » à traduire par : libérez mes vieux du contenu IA de Facebook. Le 3 février dernier, la chanteuse et actrice américaine Cardi B craque sur le réseau X et lance cet appel à ses followers. 3 millions de vues et plus d’un millier de commentaires plus tard, le verdict tombe : la même génération qui avait prévenu ses enfants de ne pas croire tout ce qu’ils voyaient sur Internet serait massivement tombée dans ce qu’on appelle à présent les « boomer traps » ou « pièges à vieux ».
« Encouragez ma fille qui a sculpté ce cheval en chocolat »
Sacralisé à partir de la fin de l’année 2024, le terme désigne des contenus conçus majoritairement à l’aide de l’IA pour manipuler les personnes âgées. Le phénomène est le plus visible sur Facebook, dont la politique permissive vis-à-vis du slop laisse se propager des images de Jésus-crevettes, d’enfants qui font des sculptures en sable ou en canettes de Coca, des versets de la Bible déclamés par un lion animé ou bien des messages larmoyants du type : « Souhaitez un bon anniversaire à ma mère de 99 ans car elle est bien seule. » En l’espace de quelques mois, ce type de contenu va rapidement conquérir le réseau social, d’abord sous format photo puis, avec l’arrivée des outils génératifs de Google comme VEO3, sous la forme de vidéos courtes. Là aussi, le contenu est extrêmement varié et toujours taillé pour susciter l’engagement : fausses catastrophes avec des piscines suspendues ou des ponts en verre qui craquent, des chiens courageux qui sauvent des bébés d’un meuble qui tombe, des rénovations de maisons ou de la décoration d’intérieur impossible à coups de sols en époxy ou bien encore des conseils médicaux plus ou moins bidon, délivrés par une voix artificielle… Les tendances se succèdent et engrangent des millions de vues.
Il n’est pas étonnant que l’appel à l’aide de Cardi B résonne avec autant de force. Sur les réseaux sociaux ou bien sur des subreddits spécifiques comme r/milleniam ou r/AgingParents, les témoignages d’internautes âgés entre 30 et 50 ans voyant leurs parents ou grands-parents sombrer dans le contenu généré par IA se multiplient. « Ma mère est accro aux spams IA YouTube », « Est-ce que quelqu’un a un truc pour empêcher mon père de regarder cette merde… ça me rend fou. Et bien évidemment, il faut que ça soit le plus fort possible même s’il est appareillé. »
Arnaque, Amour et Elon Musk
Derrière ces témoignages se cachent plusieurs angoisses. La plus évidente est liée au risque d’arnaques ou d’abus de faiblesse, très proche de la fameuse affaire du faux Brad Pitt qui a défrayé la chronique en janvier 2025. Avec l’arrivée des plateformes de génération d’images et de clonage de voix, il est devenu très facile de créer des messages ou du contenu trompeur et les chiffres explosent : selon le FBI, plus de 22 000 plaintes liées à des arnaques utilisant l'IA ont été enregistrées aux États-Unis en 2025, pour un préjudice de près de 900 millions de dollars sur le dos de victimes qui sont, dans leur grande majorité, des personnes âgées.
Mais ce qui inquiète surtout les enfants de baby-boomers, c'est moins ce danger immédiat que la mécanique qui anime ces contenus et leur capacité à court-circuiter l'examen critique en appuyant sur des émotions fortes comme l'amour, la culpabilité, la nostalgie ou la peur. Sur Reddit, beaucoup d’internautes témoignent de vidéos jouant sur les sentiments amoureux. L’utilisatrice Cmaturk raconte que sa mère de 80 ans, handicapée et précaire, est tombée accro aux vidéos mettant en scène la voix clonée d’Elon Musk en train de donner un discours sur l’amour malgré la différence d’âge. « Ensuite, sur la liste ces derniers mois, il y a eu ces vidéos d'Elon Musk avec des titres comme : “SI TU AS ENCORE DES SENTIMENTS POUR MOI, ÉCOUTE-MOI UNE MINUTE, S'IL TE PLAÎT”, “Même si tu es plus âgé(e), je te choisirais encore. Ce n'est pas un hasard”, et j'en passe. Il y a un mois, je jurerais qu'elle était persuadée qu'il allait la voir. D'habitude, elle porte des blouses/robes confortables. Mais pendant une semaine, elle s'est mise sur son 31 tous les jours. Je n'ai rien dit, je l'ai laissée faire. »
Outre la manipulation émotionnelle, vient s’ajouter aussi la confusion entre réalité et fiction, continuellement attachée au contenu IA hyperréaliste. C’est notamment le cas du redditeur Gallantpride qui explique que son père « confond l'IA et la réalité » tout en se demandant si ce contenu basé sur des histoires inspirantes racontées par la voix clonée de Barack Obama est « si différent de la télévision ? »
La bulle de filtre de ma mère
De son côté, beautifullshort s’inquiète de voir sa mère consommer l’équivalent de « news de tabloïd » générées par IA, malgré son niveau de diplôme. « Pendant la majeure partie de ma vie, j'ai considéré ma mère de 66 ans comme une personne compétente et plutôt perspicace, explique-t-elle. Elle est diplômée de l'université, a travaillé pendant une quinzaine d'années et, durant mon enfance, elle m'a toujours mise en garde contre les dangers d'Internet et m'a toujours dit de ne pas croire tout ce que je voyais en ligne. Aujourd'hui, elle passe ses journées devant son ordinateur portable à regarder du contenu généré par l'IA à plein volume, tout en faisant défiler des vidéos courtes sur YouTube sur son téléphone. Je suis vraiment inquiète car l'autre jour, je l'ai vue regarder une vidéo manifestement truquée (avec la voix monotone et standardisée d'une IA) d'un commentateur politique connu. Je lui ai dit clairement que ce qu'elle regardait était faux et qu'elle devait arrêter et regarder autre chose. Elle s'est mise sur la défensive et a affirmé que le présentateur était réel car “il a toujours été très bavard”. »
Même chose pour Julien (le prénom a été modifié), qui s’est mis à recevoir de la part de sa mère des vidéos mettant en scène un faux présentateur ou bien une fausse spécialiste générée par IA. Ce dernier propose de décrypter l’actualité américaine avec un langage ampoulé qui simule la complexité politique. « La première fois qu’elle m’a envoyé ce genre de vidéo, ça m’a fait drôle car le contenu est assez bien fait, le propos semblait intelligent et allait plutôt dans le sens de l’opinion politique de ma mère, qui n’aime pas Trump, explique-t-il. Mais la voix ressemblait vraiment à celle de Benoît Allemane, l’acteur de doublage français de Morgan Freeman. Du coup, je lui ai tout de suite dit que c’était de l’IA et elle m’a expliqué qu’elle s’en doutait un peu car elle s’était retrouvée bombardée de vidéos de ce genre sur YouTube. Ce qui m’a le plus inquiété, en fin de compte, c’est qu’il a fallu que je lui explique pourquoi ces vidéos apparaissaient sur son YouTube et en quoi consistaient un algorithme de recommandation ou une bulle de filtres. Je pensais que tout le monde connaissait le concept mais apparemment pas ma mère. »
Julien n’est pas le seul à devoir faire face au manque de littératie numérique de ses parents. Thomas (le prénom a été modifié) constate lui aussi que la génération des boomers a du mal à s’adapter à un paysage médiatique qui a largement été chamboulé. « Ma mère regarde beaucoup de vidéos qui mettent en avant des fausses informations, explique-t-il. Peu importe le nombre de fois où je lui explique que c’est faux, elle y retourne toujours. La semaine dernière, j’ai dû la convaincre que, malgré ce que YouTube lui disait, le roi Charles n’était pas mort. En discutant avec elle, je comprends qu’ils ont grandi dans un monde où, si quelque chose passait à la télévision et était présenté comme de l’information, alors c’était forcément vrai. Quand ma mère conteste, elle dit des choses comme : “Ça ne peut pas être faux. On ne laisserait pas passer ça à la télévision.” Elle est restée avec l’idée que la technologie et les coûts constituent une barrière, et que ce qui passe à la télévision est forcément filtré. Elle ne comprend pas que n’importe qui peut publier ce type de contenus. C’est un mélange de naïveté technologique et de déclin des capacités cognitives. »
Derrière l'IA, Poutine en embuscade
Dans cet environnement informationnel de plus en plus complexe et trompeur, la crainte de voir ses parents se radicaliser ou manipulés sous la masse de contenus slop s’intensifie. C’est notamment le cas de Justine (le prénom a été modifié), qui se trouve bombardée par sa mère de vidéos IA humoristiques dans lesquelles des dirigeants politiques comme Trump, Macron, Poutine ou Zelensky se livrent à des pantomimes grotesques. « Elle m’a toujours partagé beaucoup de posts et de vidéos trouvés sur YouTube, explique-t-elle. C’est sa manière de garder le lien avec moi. Mais depuis le confinement, elle a totalement viré antivax et l’IA est particulièrement utilisée dans cette communauté pour créer du contenu qui va toujours dans le même sens, à savoir que les gens qui sont au pouvoir nous manipulent, que notre santé vaut peu, que les puissants qui nous gouvernent nous méprisent. C’est compliqué car beaucoup de vidéos jouent sur la satire ou la critique légitime des hommes politiques mais derrière, j’ai souvent l’impression que c’est l’Union européenne qui est ciblée. Je vois beaucoup de vidéos où Poutine a le beau rôle tandis que Zelensky est dépeint comme un salaud par exemple. » Ce glissement du contenu humoristique vers la propagande politique n'est pas le fruit du hasard. Il prend ses racines dans l’humour trollesque que les jeunes générations ont l’habitude de consommer sur des forums comme 4chan et qui font passer depuis des années des idées d’extrême droite radicale sous couvert de blague au second degré.
Jean Cattan, ancien secrétaire général du Conseil national du numérique et ancien responsable de la démarche nationale Café IA, voit dans ce phénomène l'aboutissement d'une logique de plateforme autant qu'une stratégie délibérée. « L'IA intervient surtout dans la capacité à reproduire des sites, à créer de faux contenus très crédibles, et à générer des productions à grande échelle, explique-t-il. Il y a aussi un encouragement constant à la publication qui entraîne mécaniquement une dégradation du contenu », dit-il, avant de convoquer le concept d'enshittification théorisé par l'écrivain américain Cory Doctorow pour décrire l'étiolement progressif des grandes plateformes. « Entre un message affirmant que Brad Pitt a besoin de 100 000 dollars et une vidéo de propagande générée par IA, tout se mélange. Ces contenus sont produits en masse, avec une qualité parfois étonnamment élevée. Tous les ingrédients sont réunis : volume, sophistication, viralité. »
La nouvelle panique morale ?
En prenant ce contexte en compte, Jean Cattan veut toutefois relativiser le concept de « boomer trap ». D’après lui, cette confrontation à un contenu IA trompeur est intergénérationnelle et ne repose pas tant sur une supposée faiblesse cognitive face à la désinformation. « Je pense qu’il faut éviter de tomber dans l’idée qu’une population est plus exposée qu’une autre aux pièges du web, indique-t-il. Je me suis déjà fait cyber-hameçonner deux fois et j’ai donné mon numéro de carte à chaque fois. En plus de l’âge, il faut prendre en compte une série de facteurs comme l'état émotionnel, l'isolement, le temps passé en ligne ou le contexte social. » Ce constat semble d’ailleurs se confirmer avec la publication d’une étude dirigée par l’ARCOM et publiée le 24 mars 2026. D’après cette dernière, le Français le plus perméable aux fausses informations n'est pas un senior isolé mais un homme de 25-44 ans, surinformé, consommant cinq sources différentes par jour et piégé par des algorithmes qui renforcent ses convictions plutôt qu'ils ne les challengent.
Plus troublant encore, l’étude révèle que 60 % des 2 000 personnes interrogées pensent savoir identifier une fake news tout en ne reconnaissant cette capacité qu'à 23 % de leurs concitoyens. L'inquiétude des millennials face au slop partagé et liké par leurs parents ressemble moins à une vigilance éclairée qu'à une panique morale, panique qui reflète surtout la peur, moins avouable, de voir ses proches vieillir.




Participer à la conversation