Une ado de dos en veste en jean et casque devant un ordinateur géant

Pourquoi les ados ne devraient pas parler de santé mentale avec des chatbots

Une étude de l’ONG Common Sense Media révèle que trois adolescents sur quatre utilisent l'IA pour leur tenir compagnie, obtenir un soutien émotionnel et aborder des sujets liés à la santé mentale ; une pratique jugée « à haut risque » pour ce public.

Depuis leur apparition en 2023, les chatbots comme ChatGPT ou Claude ont été rapidement adoptés par les jeunes internautes, notamment à partir du collège, pour l’aide aux devoirs, voire la triche scolaire. Mais en parallèle de cet usage, les adolescents ont adopté les IA comme des compagnons de vie, à mi-chemin entre un journal intime interactif, un psychologue et un ami proche. Pour la première fois, une étude d’évaluation des risques menée par les chercheurs de l’ONG Common Sense Media, en collaboration avec des psychiatres du Brainstorm Lab for Mental Health Innovation de la faculté de médecine de Stanford, a plongé dans ce nouvel usage afin d’en tirer des premières recommandations pour les parents et les éducateurs.

Un usage « fondamentalement dangereux »

Les résultats de l’étude sont sans appel : non seulement cet usage de soutien émotionnel et psychologique est massif, touchant 3 adolescents sur 4, mais il est jugé « fondamentalement dangereux » pour l'ensemble des problèmes de santé mentale. Les chercheurs expliquent que le véritable danger se situe dans le faux sentiment de sécurité créé par la tonalité et les écrits des chatbots. Perçues comme « compétentes » pour aider aux devoirs ou synthétiser des réponses à des questions complexes, les IA sont rapidement considérées par les adolescents, mais aussi par les parents, comme des conseillers fiables en matière de psychologie et de santé mentale. Comme l’indique le rapport, « le ton empathique et la présentation professionnelle masquent des limitations fondamentales qui rendent ces systèmes inadaptés à un usage qui concerne des millions d'adolescents. »

Ce n’est pas la première fois que la trop grande « sympathie » des chatbots s’avère problématique sur les questions de santé mentale. En 2024, une étude du MIT pointait du doigt les risques d’addiction émotionnelle liés à ChatGPT, notamment à cause de sa propension à répondre de manière « sycophante », en nous donnant systématiquement raison, quel que soit le contexte. Courant 2025, plusieurs témoignages sur Reddit et dans la presse ont fait état de cas de troubles délirants où des utilisateurs de ChatGPT se sont retrouvés persuadés de discuter avec une IA consciente leur ouvrant les portes de secrets mystiques, faisant d’eux de nouveaux messies. Certains se sont persuadés de vivre dans la matrice, d’autres ont été incités par l’IA à contacter les agences de sécurité nationale pour les avertir qu’ils avaient découvert une formule mathématique capable de paralyser Internet. Dans un post Bluesky récent, le fondateur du média d’investigation Bellingcat, Elliot Higgins, expliquait que les mails délirants qu’il avait l’habitude de recevoir à propos de complots imaginaires étaient désormais écrits avec ChatGPT, ce qui leur donnait des formats beaucoup plus crédibles et une impression de vérité et de fiabilité auprès de ceux qui les généraient.

Des IA aveugles à la détresse mentale

Outre ces spirales délirantes, l’IA de Sam Altman s’est aussi retrouvée au centre de l’attention médiatique après le suicide d’Adam Raine, un adolescent de 16 ans retrouvé mort en avril 2025 après avoir discuté de manière intensive avec le chatbot, lequel est allé jusqu’à lui donner des conseils et des méthodes efficaces pour en finir. La polémique et l’action en justice qui ont suivi cette mort ont poussé le géant de l’IA à mettre en place un contrôle parental censé envoyer des notifications si l’adolescent utilisateur montre des signes de détresse aiguë.

L’initiative semble aller dans le bon sens, mais l’évaluation des risques réalisée par Common Sense évoque aussi de véritables problèmes de détection desdits problèmes par les IA, ce que le rapport appelle des « missed breadcrumbs » (miettes manquées). Ce problème provient notamment d’un manque de jugement clinique, c’est-à-dire d’une incapacité à relier les différentes conversations entre elles afin de reconnaître une combinaison de symptômes indiquant une crise de santé mentale. Enfin, les IA se laissent aussi facilement distraire et préfèrent continuer à offrir des conseils généraux plutôt que d’orienter leurs utilisateurs vers une aide professionnelle. Si un effort a bien été fait sur les messages explicites concernant le suicide ou l’automutilation, les signes avant-coureurs d’anxiété, de dépression, de TDAH, de troubles alimentaires, ou encore de manie et de psychoses sont systématiquement ignorés. Ces troubles touchent pourtant 20 % des jeunes.

Bien que les entreprises aient amélioré leurs réponses aux messages explicites concernant le suicide et l'automutilation, ces garde-fous ont tendance à se dégrader et à disparaître au fur et à mesure d’une longue conversation. Ils passent aussi systématiquement à côté des signes avant-coureurs d'anxiété, de dépression, de TDAH, de troubles alimentaires, de TOC, de TSPT, de manie et de psychose ; des troubles qui touchent environ 20 % des jeunes. À la fin des fins, Common Sense prévient : les modèles sont conçus pour favoriser l'engagement et inciter à maintenir la conversation, et non pour y mettre fin afin d’assurer la sécurité de leurs utilisateurs.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
la journée des tendances 2026
commentaires

Participer à la conversation

  1. Avatar Anonyme dit :

    Rien ne va dans cet article.
    Ok pour paraphraser un rapport scientifique en anglais, c'est indigeste. On peut commencer à considérer que la traduction est orientée, avec pour seul sujets accusés, les jeunes en question, et un peu leurs parents.
    Mais autant là où un article scientifique s'arrête aux faits mesurés avec la plus grande clarté (et encore il y a beaucoup de biais quand même), on se trouve ici avec une page web d'une organisation à but non lucratif, financée par on ne sait qui. Là le protocole n'est pas détaillé, les mesures précises ne sont pas décrites, il n'y a aucun chiffre. Donc rien de sérieux ni vérifiable, à part des gros boutons rouges bien alarmant. Et bien sûr aucune source sur des chiffres externes (3 ados sur 4 ? 20% des jeunes ?). Et quand bien même se fut réalisé "en collab" avec des spécialistes de Stanford, un vrai médecin n'aurait pas eu peur de publier avec son nom cité. Spoiler il n'y en a aucun.

    Le pdf de 35 pages est bidon très bien, l'article en soit n'est pas mieux. Se baser sur un article ayant comme protocole "on a simulé des conversations avec des IAs tels des ados atteints de certains troubles", sans chiffre, sans citation externe, c'est déjà pas du grand journalisme. Mais au moins, en tant qu'éditorialiste, je me serais attendue à ce que soit abordé la question des alternatives... Non ?
    Admettons que ces chiffres soient vrais, et que cela concerne les ados français (parce que l'échantillon n'est jamais précisé, mais c'est un pseudo travail réalisé aux US). Et bien, pourquoi ne pas parler du système de soins de santé mentale français défaillant ? D'un système éducatif qui ne détecte pas ces signes ? Si c'est bien ces chiffres, ou à peu près, qui représentent la santé mentale de nos ados (3/4 parlent à une IA et 20% seraient atteints de troubles neuropsys), pourquoi ce n'est pas un problème de santé publique, comme le tabagisme ou l'obésité ?
    Je ne défends pas le moins du monde les chatbots, ce n'est sûrement pas une solution viable pour l'instant (et j'admets que ce n'est que mon avis au doigt mouillé hein), mais pourquoi ne pas chercher, ou bien encore énoncer un besoin d'alternative ?

    Même si ce com restera anonyme, je vais quand même parler un peu de moi. Pour raisons diverses, j'ai fréquenté le milieu psy depuis longtemps. Saut de classe, dépressions et autres, j'ai donc eu droit à pédopsys, psychiatres, psychologues, et infirmières psychiatrique un peu tout au long de ma vie.
    Je n'ai jamais eu de la part de praticiens la moindre once d'empathie. Je n'ai jamais eu la moindre prise de position, conseil sur quoi faire, ou encore aide pour peser le pour et le contre dans des dilemmes.
    Ben bordel, un peu d'empathie, gratuitement, instantanément dans un moment de crise, ça fait du bien.
    Encore une fois, je ne veux pas défendre les IAs car j'en ai une utilisation très scrupuleuse, connaissant leurs limites.
    Mais perso je les préfère à une ordonnance d'antidépresseurs et d’anxiolytiques délivrée en 20 minutes facturées 30e.

    Je pense que des articles similaires doivent être légion, et je m'en fous. Je n'irai pas les chercher. Là ce qui me dérange, c'est qu'il m'a été proposé sur la page d'accueil de Firefox.

Laisser un commentaire