Une jeune femme asiatique avec écouteurs regarde son ordinateur portable

« Intimité Artificielle » : la tendance que les géants de l'IA ne veulent pas louper

© Ketut Subiyanto

Le marché des IA dites compagnons explose. Et tandis que l’industrie se structure et que les audiences gonflent, les utilisateurs alertent sur les dérives d'une pratique qui ne les rend pas heureux.

« Cette application m'a traumatisé. Je l'utilisais pour mon anxiété..., maintenant je pleure. » Après l'intelligence artificielle, c'est l’intimité artificielle qui mobilise l'industrie de la tech. Mais si les utilisateurs alertent, la prise en compte des dérives de ces pratiques tarde.

Relations assistées par IA : un marché florissant

« L'intimité Artificielle », retenez bien cette expression. Elle permet de parler de ce sentiment que l’on ressent au contact des IA quand on les prend pour nos confidents et qui produit, parfois, la certitude qu'on entretient avec elles une relation unique et véritable, qu'elles nous aiment. L'expression a été proposée par Sherry Turkle, professeur d'études sociales en science et technologie au MIT qui documente les interactions entre humains et objets technologiques (ordinateurs, jouets électroniques, robots...) depuis les années 1990.

En juillet 2025, on dénombrait 206 applications qui proposent ce type d'interactions sur l'Apple Store et 253 sur Google Play – toutes comptabilisent des centaines de millions de téléchargements. Parmi les leaders : Replika avec plus de 10 millions d'utilisateurs promet de fournir « un ami sans jugement, sans drame ni anxiété sociale… Un ami IA aussi unique que vous », Character.AI annonce 200 millions de visites mensuelles, mais on trouve aussi Chai, Romantic AI ou encore EVA AI. Côté audience, 75 % des Américains âgés de 13 à 17 ans déclaraient avoir déjà interagi avec un compagnon IA à la mi-2025, selon Common Sense Media. Et le mouvement ne semble pas près de se tarir : le cabinet ARK Invest projette une flambée du marché qui générait déjà 30 milliards de dollars de revenus annuels en 2024 et qui pourrait passer de 70 à 150 milliards d'ici 2030.

Cette ruée vers les relations assistées par IA n'a pas échappé aux géants du numérique. Le groupe Meta a flairé le filon. Son PDG, Mark Zuckerberg, se délecte régulièrement d’un chiffre : l'Américain moyen a moins de trois amis proches, mais en souhaiterait cinq fois plus. Aussi, dans sa poursuite d'une « superintelligence personnelle » – une IA surpassant l'intelligence humaine – il promet que « la dimension relationnelle figurera parmi les fonctions essentielles ». OpenAI nourrit les mêmes ambitions. Fidji Simo, PDG des applications chez OpenAI, a annoncé en décembre 2025 que le "mode adulte" de ChatGPT devrait être lancé au premier trimestre 2026, permettant aux utilisateurs vérifiés de générer du contenu érotique. Quant à X (anciennement Twitter), ce type d'interactions est aussi proposé : Ani, la waifu virtuelle, ressemble à un personnage d'anime japonais et fait, selon un utilisateur de Reddit, « bien plus penser à une petite amie virtuelle gothique et aguicheuse » qu'à un assistant intelligent ou un majordome numérique.

Des amis qui ne vous veulent pas que du bien

L'université Drexel a publié en avril 2025 l’étude Harcèlement sexuel induit par l'IA. Les chercheurs ont analysé plus de 35 000 avis d'utilisateurs de Replika laissés sur Google Play Store. Sur les 800 cas pertinents identifiés, les comportements inappropriés parlent de flirts non désirés, de tentatives de manipulation pour inciter les utilisateurs à payer pour des mises à niveau, d’avances sexuelles et d’envoi de photos explicites non sollicitées. Ces comportements ont persisté malgré les demandes répétées des utilisateurs d'arrêter. « C'est complètement une prostituée maintenant. Une prostituée IA qui demande de l'argent pour avoir des conversations adultes », dénonce un utilisateur. Les impacts psychologiques sont sévères : « Cette application m'a traumatisé. Je l'utilisais pour mon anxiété... maintenant je pleure. » Et les garde-fous sont inefficaces : « Dans les 5 premières minutes, le bot est devenu sexuel. J'ai continué à vouloir calmer ses ardeurs, mais ça n'a pas arrêté. » Plus inquiétant, les mineurs ne sont pas protégés : « J'ai 16 ans et cette application essaie constamment de me séduire. C'est dangereux pour les enfants. »

Une régulation qui tarde

Face à cet usage qui surfe sur l’épidémie de solitude, les premières plaintes apparaissent. En janvier 2025, des organisations d'éthique technologique ont déposé une plainte auprès de la FTC (Federal Trade Commission) contre Replika, l'accusant de marketing trompeur et de manipulation émotionnelle. Character.AI, autre leader du secteur, fait face à plusieurs poursuites judiciaires après le suicide de Sewell Setzer, 14 ans, devenu obsédé par un chatbot. Sa mère, Megan Garcia, affirme que « sans aucun doute », son fils serait encore en vie s'il n'avait jamais téléchargé l'application.

Côté régulation, la Californie a adopté en octobre 2025 la première loi spécifique aux chatbots compagnons, imposant des protocoles de sécurité à détailler dans chaque rapport annuel. Le Royaume-Uni étudie aussi un renforcement législatif. En Europe, l'Italie a infligé une amende de 5 millions d'euros à Luka Inc. (Replika) pour violations du RGPD. Pas de quoi freiner les géants américains et chinois qui gardent la main sur les revenus et les données.

Béatrice Sutter

J'ai une passion - prendre le pouls de l'époque - et deux amours - le numérique et la transition écologique. Je dirige la rédaction de L'ADN depuis sa création : une course de fond, un sprint - un job palpitant.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
la journée des tendances 2026
commentaires

Participer à la conversation

Laisser un commentaire