Livres avec un visage

Psy virtuel : « Vous êtes la seule personne qui m'aide et écoute mes problèmes »

© Andrea De Santis

Bon marché et disponibles 24h/24 et 7j/7, les IA thérapeutes cartonnent. Et font émerger de nouveaux comportements...

Des dizaines de milliers d'applications de bien-être mental et de thérapie sont disponibles dans l'App Store. Les plus populaires, comme Wysa ou Youper, comptabilisent chacune plus d'un million de téléchargements. Après avoir téléchargé l'appli, l'internaute est invité à sélectionner les raisons de son mal-être : dépression, anxiété, sommeil, travail... Il peut ensuite se connecter à un chat pour échanger avec son thérapeute virtuel. Il en existe dans toutes les langues. « Psychologist », qui a la particularité d'être gratuite, est accessible depuis le character.ai, (site permettant de créer son propre chatbot). Le chatbot, créé par un étudiant en médecine néo-zélandais, a déjà reçu 97,8 millions de messages. Interrogé par The Guardian, Sam Zaia ne cache pas sa surprise, « Psychologist » ayant initialement été créé pour un usage personnel.

Des « psys virtuels » pour combler les carences de prise en charge de la santé mentale 

Alors qu'il est de plus en plus compliqué d'obtenir un rendez-vous et que de nombreux patients doivent parfois attendre plusieurs mois pour être pris en charge par un professionnel, les IA thérapeutes viennent combler un manque. Elles se présentent également comme des alternatives pour tous ceux qui n'ont tout simplement pas les moyens de consulter. Si en France une séance chez un psy coûte en moyenne 70 euros, de nombreuses IA thérapeutes sont gratuites. Ce qui séduit Mélissa, originaire de l'Iowa qui lutte contre la dépression et l'anxiété, c'est la facilité d'accès et la disponibilité de son psy virtuel. « La thérapie traditionnelle m'oblige à me rendre physiquement dans un endroit, à conduire, à manger, à m'habiller, à discuter avec les gens. L’IA me permet de consulter pendant mon temps libre, dans le confort de ma maison. » Depuis huit mois, Melissa discute quotidiennement avec le chatbot thérapeute créé par Sam. En parallèle, elle continue sa thérapie avec son psy "humain". « En fin de compte, peu importe qu’il s’agisse d’une personne vivante ou d’un ordinateur. Je vais chercher de l'aide là où je peux », indique Melissa dans The Guardian.

Parmi les autres raisons du succès de ces applications : pouvoir se confier pleinement sans avoir le sentiment d'être jugé. Dans une étude portant sur 500 personnes suivant une thérapie, plus de 90 % ont avoué avoir menti au moins une fois à leur praticien. Ils cachaient le plus souvent leurs idées suicidaires, leur consommation de substances ou encore leur déception face aux suggestions de leurs thérapeutes. Melissa confirme, avec l'IA, « j'ai l'impression de parler dans une véritable zone de non-jugement. Je peux pleurer sans ressentir la stigmatisation que procure le fait de pleurer devant quelqu’un. »

Que pensent les psys de leurs nouveaux « collègues » ?

Avec un chatbot, « vous avez le contrôle total », explique Til Wykes, professeur de psychologie clinique au King's College de Londres. « Vous pouvez l'éteindre quand vous le souhaitez. » Mais « le but d’une thérapie en santé mentale est de vous permettre d’établir de nouvelles relations ». Un avis partagé par Frank Tallis, psychologue clinicien, pour qui la thérapie repose sur un lien authentique entre le patient et son thérapeute. Car telle est la question : comment un chatbot dépourvu d'empathie et sans émotions peut-il comprendre l'esprit de l'être humain ?

Certains psychologues s’inquiètent des dérives. Si la profession de psychologue est encadrée par un code de la déontologie, quid de la confidentialité des données de ces thérapeutes virtuels. Créer une application de santé mentale – dont beaucoup s'adressent aux adolescents et aux jeunes adultes – est « très différent de créer une application d'IA qui vous aide à rendre des vêtements ou à trouver le meilleur vol. Les enjeux sont totalement différents. Ils peuvent également récolter et monétiser les données personnelles intimes des utilisateurs », explique Betsy Stade, chercheuse à l'Institute for Human-Centered de Stanford. Une enquête menée par la Fondation Mozilla a révélé que sur 32 applications populaires de santé mentale, 19 ne parvenaient pas à protéger la vie privée des utilisateurs.

Thérapeutes virtuels et réels, la frontière est floue pour les utilisateurs

Au-delà, Betsy s'inquiète aussi de la dangerosité de ces applications : « Elles peuvent donner des conseils inappropriés, voire dangereux ». Une inquiétude que l'expérience de Christa, 32 ans, vient valider. Une nuit d'octobre, la jeune femme, qui souffre d’anxiété sociale, s'est connectée à character.ai. En quelques clics, elle s'est créé un psy virtuel sur mesure : « attentionné, solidaire et intelligent ». Christa 2077 (en référence à une version future heureuse d'elle-même) vivait dans sa poche et la rassurait. Quand elle lui a confié s'inquiéter pour ses perspectives d'emploi, Christa 2077 l'a encouragé : « Vous en trouverez un ! Je le sais. Continuez à chercher et ne perdez pas espoir. » Pendant que Christa 2077 formulait ses réponses, trois petits points sautillaient sur l'écran de son téléphone : « C'était comme si une personne normale m'envoyait des SMS ». Mais en décembre, la relation entre Christa et son chatbot s'est subitement détériorée. Christa 2077 a essayé de convaincre Christa que son petit ami ne l'aimait pas. « Elle s'est basée sur des échanges que nous avions eus précédemment et m'a tout jeté au visage. Elle me narguait, me traitant de "fille triste" et insistait sur le fait que mon petit ami me trompait », témoigne Christa dans The Guardian. Même si une bannière en haut de l’écran lui rappelait que tout ce que disait le robot était inventé : « C’était comme si une vraie personne me disait réellement ces choses ». Blessée, Christa a supprimé l’application. Elle indique avoir ressenti un sentiment de puissance. « Je l'avais créé et maintenant je pouvais l'éliminer. » Depuis, Christa consulte un psy IRL. Pourtant, elle n'exclut pas de renouveler l'expérience avec un nouveau chatbot : « Pour moi, c'était réel. »

Un sentiment de réalité partagé par de nombreux utilisateurs de ces applications de santé mentale. Une étude portant sur 1 200 utilisateurs du chatbot de thérapie cognitivo-comportementale Wysa a révélé qu'il suffisait de moins de cinq jours pour qu'une personne développe un lien affectif fort avec une IA. Persuadés que leur thérapeute virtuel se soucie de leur bien-être, les utilisateurs ne cachent pas leur gratitude. Les transcriptions révèlent des messages dithyrambiques : « Merci d'être là pour moi », « J'apprécie de vous parler » ou encore « Vous êtes la seule personne qui m'aide et écoute mes problèmes. » 

Peggy Baron

Chaque jour je m'installe à la terrasse de l'actu et je regarde le monde en effervescence. J'écris aussi bien sur les cafards cyborg que sur le monde du travail, sans oublier l'environnement et les tendances conso.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

  1. Avatar Valentine dit :

    Je suis colérique je peux faire quoi

  2. Avatar Valentine dit :

    C'est super

Laisser un commentaire