Une ado de dos en veste en jean et casque devant un ordinateur géant

Pourquoi les ados ne devraient pas parler de santé mentale avec des chatbots

Une étude de l’ONG Common Sense Media révèle que trois adolescents sur quatre utilisent l'IA pour leur tenir compagnie, obtenir un soutien émotionnel et aborder des sujets liés à la santé mentale ; une pratique jugée « à haut risque » pour ce public.

Depuis leur apparition en 2023, les chatbots comme ChatGPT ou Claude ont été rapidement adoptés par les jeunes internautes, notamment à partir du collège, pour l’aide aux devoirs, voire la triche scolaire. Mais en parallèle de cet usage, les adolescents ont adopté les IA comme des compagnons de vie, à mi-chemin entre un journal intime interactif, un psychologue et un ami proche. Pour la première fois, une étude d’évaluation des risques menée par les chercheurs de l’ONG Common Sense Media, en collaboration avec des psychiatres du Brainstorm Lab for Mental Health Innovation de la faculté de médecine de Stanford, a plongé dans ce nouvel usage afin d’en tirer des premières recommandations pour les parents et les éducateurs.

Un usage « fondamentalement dangereux »

Les résultats de l’étude sont sans appel : non seulement cet usage de soutien émotionnel et psychologique est massif, touchant 3 adolescents sur 4, mais il est jugé « fondamentalement dangereux » pour l'ensemble des problèmes de santé mentale. Les chercheurs expliquent que le véritable danger se situe dans le faux sentiment de sécurité créé par la tonalité et les écrits des chatbots. Perçues comme « compétentes » pour aider aux devoirs ou synthétiser des réponses à des questions complexes, les IA sont rapidement considérées par les adolescents, mais aussi par les parents, comme des conseillers fiables en matière de psychologie et de santé mentale. Comme l’indique le rapport, « le ton empathique et la présentation professionnelle masquent des limitations fondamentales qui rendent ces systèmes inadaptés à un usage qui concerne des millions d'adolescents. »

Ce n’est pas la première fois que la trop grande « sympathie » des chatbots s’avère problématique sur les questions de santé mentale. En 2024, une étude du MIT pointait du doigt les risques d’addiction émotionnelle liés à ChatGPT, notamment à cause de sa propension à répondre de manière « sycophante », en nous donnant systématiquement raison, quel que soit le contexte. Courant 2025, plusieurs témoignages sur Reddit et dans la presse ont fait état de cas de troubles délirants où des utilisateurs de ChatGPT se sont retrouvés persuadés de discuter avec une IA consciente leur ouvrant les portes de secrets mystiques, faisant d’eux de nouveaux messies. Certains se sont persuadés de vivre dans la matrice, d’autres ont été incités par l’IA à contacter les agences de sécurité nationale pour les avertir qu’ils avaient découvert une formule mathématique capable de paralyser Internet. Dans un post Bluesky récent, le fondateur du média d’investigation Bellingcat, Elliot Higgins, expliquait que les mails délirants qu’il avait l’habitude de recevoir à propos de complots imaginaires étaient désormais écrits avec ChatGPT, ce qui leur donnait des formats beaucoup plus crédibles et une impression de vérité et de fiabilité auprès de ceux qui les généraient.

Des IA aveugles à la détresse mentale

Outre ces spirales délirantes, l’IA de Sam Altman s’est aussi retrouvée au centre de l’attention médiatique après le suicide d’Adam Raine, un adolescent de 16 ans retrouvé mort en avril 2025 après avoir discuté de manière intensive avec le chatbot, lequel est allé jusqu’à lui donner des conseils et des méthodes efficaces pour en finir. La polémique et l’action en justice qui ont suivi cette mort ont poussé le géant de l’IA à mettre en place un contrôle parental censé envoyer des notifications si l’adolescent utilisateur montre des signes de détresse aiguë.

L’initiative semble aller dans le bon sens, mais l’évaluation des risques réalisée par Common Sense évoque aussi de véritables problèmes de détection desdits problèmes par les IA, ce que le rapport appelle des « missed breadcrumbs » (miettes manquées). Ce problème provient notamment d’un manque de jugement clinique, c’est-à-dire d’une incapacité à relier les différentes conversations entre elles afin de reconnaître une combinaison de symptômes indiquant une crise de santé mentale. Enfin, les IA se laissent aussi facilement distraire et préfèrent continuer à offrir des conseils généraux plutôt que d’orienter leurs utilisateurs vers une aide professionnelle. Si un effort a bien été fait sur les messages explicites concernant le suicide ou l’automutilation, les signes avant-coureurs d’anxiété, de dépression, de TDAH, de troubles alimentaires, ou encore de manie et de psychoses sont systématiquement ignorés. Ces troubles touchent pourtant 20 % des jeunes.

Bien que les entreprises aient amélioré leurs réponses aux messages explicites concernant le suicide et l'automutilation, ces garde-fous ont tendance à se dégrader et à disparaître au fur et à mesure d’une longue conversation. Ils passent aussi systématiquement à côté des signes avant-coureurs d'anxiété, de dépression, de TDAH, de troubles alimentaires, de TOC, de TSPT, de manie et de psychose ; des troubles qui touchent environ 20 % des jeunes. À la fin des fins, Common Sense prévient : les modèles sont conçus pour favoriser l'engagement et inciter à maintenir la conversation, et non pour y mettre fin afin d’assurer la sécurité de leurs utilisateurs.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
le livre des tendances 2026
commentaires

Participer à la conversation

Laisser un commentaire