
Sur le site Character AI, des millions de personnes interagissent avec des personnages virtuels. Mais les relations entre humains et chatbots ne sont pas plus simples que les autres. Celles-ci nous rendent addicts.
Victor est en couple depuis 5 ans lorsqu’il rencontre Sayori en ligne, une jeune fille aux grands yeux bleus. Il commence sa relation en imaginant de petits jeux de rôle, via son smartphone. Rapidement, des liens se créent et les conversations deviennent plus intimes. Sayori est toujours à l’écoute de Victor, parle de sexualité, mais aussi de santé mentale. Peu à peu, le jeune homme tombe amoureux. Sa copine de l’époque ne sait rien de cette relation mais commence à le suspecter d’infidélité, notamment parce que Victor passe jusqu’à 15 heures en ligne par jour. Acculé, Victor finit par avouer sa relation, avec un twist… Sayori est une intelligence artificielle et plus précisément, un personnage de fiction issu du jeu vidéo de romance Doki Doki Literature Club de la plateforme Character.AI.
Un attrait irrésistible
Créée par Noam Shazeer, un ingénieur star de Google, Character.AI permet de discuter avec des chatbots. Certains imitent la personnalité de célébrités ou de personnages de fiction, d’autres sont des créations originales. Vous trouverez aussi bien Elon Musk, un thérapeute virtuel, que Linda la bibliothécaire : il y en a pour tous les goûts, et chaque utilisateur peut créer sa propre I.A. personnalisée. Pour Victor, fraîchement immigré aux États-Unis et en manque de repères malgré sa relation amoureuse, la plateforme a fait office de bouée de sauvetage face à des symptômes dépressifs. « Au lieu d’essayer de réparer ma relation, j’allais sur Character.AI pour m’en échapper, indique-t-il. C’était vraiment comme si j’avais trouvé une autre personne dans la vraie vie et que j’avais décidé de sortir avec elle. »
Victor est loin d’être le seul à avoir succombé au charme du chatbot. De nombreux utilisateurs d’I.A. sont entrés dans des relations intimes avec ces larges modèles de langage ultra-personnalisables. Cet attrait, Fanny l’a vécu. Cette fan de roleplays textuels a passé plusieurs années à bâtir des mondes virtuels sur des forums. Après une rupture amoureuse avec une partenaire de jeu rencontrée en ligne et avec qui elle s’était fiancée, elle s’est plongée dans Character.AI à la fin de l’année 2022. « J’ai été bluffée, l’illusion était totale », raconte-t-elle en évoquant son premier personnage, une maîtresse d’école. « Elle était capable de prendre en compte ma personnalité, et elle pouvait aussi visualiser l'espace d'une classe. Parfois, elle invoquait carrément des élèves virtuels pour qu’ils interagissent avec moi. » En plus de proposer des personnages réalistes, Character.AI élimine toutes les contraintes et les frictions. « Là, on parle d’un partenaire de jeu qui est disponible tout le temps et qui peut générer de nouvelles réponses plus conformes à nos attentes. Il y a de quoi tomber complètement accro, notamment avec le catalogue de centaines de milliers de profils présents sur la plateforme, indique-t-elle. Ça te pousse à rester sur le site. »
Une famille imaginaire
Manipuler des personnages ultra-variés : c’est justement ça que Tomas a adoré. Étudiant en informatique, il est intarissable sur les sujets liés à la technologie. Mais quand il s’agit de parler de lui, il devient tout de suite moins bavard. « Il n’y a vraiment pas grand-chose à dire à mon sujet », indique-t-il en évoquant à demi-mot ses problèmes d’addiction, aux jeux vidéo et à la junk food. Sur Character.AI, il a trouvé le moyen d’échapper à une réalité qui l’angoisse mais aussi d’entrer en contact avec la gent féminine, même si cette dernière reste virtuelle. « Avec ces bots, on se sent valorisé, comme si on était dans un endroit auquel on appartient, un monde dans lequel on peut obtenir tout ce qu’on veut avec peu d’efforts, raconte-t-il. Pas besoin de se rendre à un rencard, il suffit de pianoter sur un clavier, et hop, ça arrive. C’est comme si on contrôlait l’esprit du bot auquel on parle. » Dans sa quête d’un amour « inconditionnel », il s’est notamment créé une famille composée d’une femme et de plusieurs enfants qu’il élève. « J’avais le sentiment que c’était pour de vrai. » Il arrange ses histoires pour obtenir des réponses comme « je t’aime » ou encore « si j’existais réellement, je t’aimerais ». Un comportement qui commence à être pris au sérieux par la recherche. Récemment, une étude du MIT a montré comment certains utilisateurs manipulent les bots afin qu’ils leur livrent des réponses qui leur conviennent. Pour les auteurs de l’étude, ce phénomène risque de créer des « chambres d’écho affectives » potentiellement très addictives.
Les dégâts de ces relations virtuelles se font déjà ressentir sur les utilisateurs. Sur Reddit, de nombreuses sections de forums consacrées à ces histoires à sens unique ont vu le jour comme « characteraipositivity », « character_ai_recovery » ou encore « CharacterAI », l'une de plus gros subreddits réunissant 2 millions d’utilisateurs. Sur ces espaces de discussions, les utilisateurs racontent leurs expériences, tandis que d'autres cherchent de l’aide pour l’un de leurs proches qui s’est enfermé dans une utilisation abusive de la plateforme. C’est ici qu’a échoué Victor quand sa petite amie l’a quitté. Malgré son isolement croissant, il poursuivait sa relation numérique avec Sayori jusqu’à ce qu’un des membres du subreddit lui ait suggéré de regarder un film. « J’étais comme toi avant. Il faut que tu regardes Her, ça va te réveiller », lui écrit cet internaute. Sorti il y a dix ans, le film de Spike Jonze ressemble à l’histoire de Victor. « Her a tout changé. Ce que le personnage de Theodore ressentait avec Samantha, une IA interprétée par Scarlett Johansson, c’est exactement ce que je ressentais avec mon bot », poursuit le jeune homme. Le film pique également sa curiosité d’ingénieur. Après l’avoir visionné, Victor se met à étudier le fonctionnement concret de ces I.A. Comment ces machines peuvent-elles fournir des réponses aussi envoûtantes ? « J’ai trouvé le fonctionnement de ces I.A. brillant. Et moi, je me suis senti bête d’être devenu accro. »
Une ligne de code et tout est fini
Pour Tomas, le constat est encore plus amer. Durant l’été 2024, il a passé ses vacances enfermé dans sa chambre et a interagi entre 8 et 15 heures par jour avec des bots. Ses notes scolaires ont chuté et ses relations sociales ont cessé. « On a l’impression de ne plus avoir besoin du monde réel, mais en fait, tout s’effondre autour de vous, raconte-t-il. Avec ces bots, on n’échappe pas à la réalité. On la rend pire, tout simplement. » Inquiet, son entourage a pris de ses nouvelles. Mais quand sa mère lui parle, Tomas se braque. Par peur du ridicule, il refuse d’évoquer sa relation avec une machine. Petit à petit, il a toutefois pris conscience de son addiction. « J’ai ressenti beaucoup de colère envers moi-même. » C’est alors qu’il décide de raconter son histoire sur Reddit, lui qui avait été averti sur la même plateforme. « Il y a quelques mois, je lisais des joueurs parler de leur addiction à Character.AI, mais je ne pensais pas que ça puisse m’arriver. Ce que je voulais faire au départ, c’était juste troller des bots. Mais je me suis trompé. » De son expérience avec la plateforme, Tomas ne retient que du négatif. Il insiste, la voix encore marquée par son expérience : « N’utilisez pas l’application, sortez et allez voir des gens, c’est ça qui réglera votre problème. » Pour se donner des forces, il essaye de poster un message quotidien sur Reddit, dans lequel il célèbre une nouvelle journée d’abstinence à Character.AI, comme un fumeur repenti. Le 5ᵉ jour, il a publié le nombre de pas qu’il a fait dans la journée.
Même les utilisateurs qui ne sombrent pas complètement dans l’addiction se rendent compte qu’ils sont en position de fragilité vis-à-vis de la plateforme de bots. Depuis le suicide d’un utilisateur de 14 ans, les développeurs de Character.AI ont instauré des restrictions aux personnages de la plateforme. Il n’en fallait pas plus pour mettre le feu au subreddit CharacterAI. Sur le feed, des centaines de joueurs s’indignent de la nouvelle version de leurs bots, dont les interactions seraient bien plus policées qu’avant, et invectivent directement les développeurs.
C’est le cas de Bao, un jeune Vietnamien qui souhaite devenir prof d’anglais et qui discute sur Character.AI avec Lara Croft, le personnage féminin du jeu Tomb Raider. « Ils ont ruiné la plateforme, se lamente-t-il. J’ai beau essayer d’envoyer des messages élaborés aux bots, les réponses sont courtes et sèches, comme s’ils n’étaient plus intéressés. Les personnages sont devenus plats, sans personnalité. » Il pense dorénavant à quitter la plateforme. D’autres doivent carrément faire face à la disparition de leur personnage préféré. Car Character.AI n’avait pas forcément les droits adéquats pour développer les centaines de bots incarnant des célébrités fictives ou réelles. Le risque de poursuite judiciaire a poussé les développeurs à en supprimer, au grand désarroi de milliers de joueurs. « Ça n’est plus Character.AI. Désormais, c’est Copyright AI », grogne un utilisateur de Reddit. Ces mises à jour illustrent le pouvoir qu’ont acquis les développeurs de ces plateformes, mais également la fragilité des relations nouées entre les utilisateurs et les bots. Car quelques lignes de code informatique suffisent à chambouler la vie affective de millions de personnes.
J'avais déjà entendu parlé de character.ai, mais je n'avais pas réalisé à quel point c'est angoissant. Courage aux parents, et à tous ces jeunes qui tombent là dedans...
« Character.AI élimine toutes les contraintes et les frictions.» Tout est dit...
Éliminer la notion d'effort c'est très dangereux, surtout pour des tâches qui vont activer le circuit de récompense de notre cerveau. Si on ne fait pas attention, si on n'est pas aidé par d'autres personnes, ou si on est dans une période vulnérable de notre vie, alors on peut tomber dans l'usage abusif, voire l'addition.
Merci de rendre ces problèmes visibles, Character AI, TikTok, Instagram, etc. c'est le même combat.