
Menacés par de multiples procès, Meta, Snapchat et TikTok s’unissent pour lutter contre la diffusion de contenus sur le suicide et l’automutilation. Quid de l’efficacité ?
Et si c’était la solution qu’on attendait depuis longtemps ? Depuis septembre 2024, les plateformes sociales Meta, Snapchat et TikTok font la promotion d’un programme censé répondre à l’urgence de la santé mentale en ligne. Baptisé « Thrive » – « s’épanouir », en anglais – l’initiative a vu le jour sous l’impulsion de l’ONG américaine Mental Health Coalition. À sa tête : le docteur Daniel Reidenberg, une figure reconnue dans le domaine, également directeur général du Conseil national pour la prévention du suicide aux États-Unis.
Sur le papier, l’idée que des plateformes concurrentes s’allient, façon Avengers, pour défendre une cause commune peut faire croire à un tournant majeur. Sauf que pour l’instant, tout ou presque reste secret. Aucune communication officielle, aucune précision sur les objectifs ou les moyens mis en œuvre. Le programme reste entouré de mystère, que même les experts en cybersécurité ont du mal à percer.
Un partage de signaux entre les plateformes
Que sait-on du fonctionnement de Thrive pour le moment ? « Le programme fonctionne dans le monde entier et permet aux entreprises de partager des informations non personnellement identifiables (signaux ou “hash”) pour contribuer à empêcher qu'elles deviennent virales ou partagées d’une plateforme à l’autre », explique Daniel Reidenberg.
Ce partage de signaux a pour but la création d'une base de données commune aux trois entreprises, qui répertorie du contenu sur le suicide, l'automutilation ou les défis viraux dangereux. « La maintenance des bases de données permet aux entreprises de trouver et supprimer automatiquement des copies identiques ou similaires de la même image, ou empêche de nouvelles copies d’être téléchargées », précise le docteur Reidenberg.
« Les efforts de chaque plateforme devraient profiter à l'ensemble des partenaires », souligne Maxime Adau, ingénieur informatique indépendant qui a étudié le système. Il explique : « Il réutilise une architecture logicielle de Meta déjà utilisée pour la protection des enfants en ligne nommée The Lantern. » Une technique facile à mettre en place pour un coût, a priori, modéré.
Mais est-ce suffisant ?
« Pour l’instant, ça n’endigue pas le fléau », répond maître Laure Boutron-Marmion, avocate des familles ayant porté plainte contre TikTok et fondatrice du collectif Algos Victima, qui a pour but de responsabiliser les entreprises de médias sociaux.
Un dispositif trop discret…, et sans réelle efficacité
Depuis 2024, les plaintes contre TikTok se multiplient. En France, onze familles accusent la plateforme de nuire à la santé mentale et physique de leurs enfants. Aux États-Unis, près de 2 000 familles ont intenté une action collective contre le réseau social chinois, l’accusant de promouvoir le suicide, l’automutilation et une dépendance toxique. À cela s’ajoute une plainte groupée de quatorze procureurs généraux américains. Les premiers procès sont attendus pour l’automne 2025 outre-Atlantique, et début 2026 en France.
Dans ce contexte, l’arrivée de Thrive aurait pu apparaître comme une réponse forte. Mais le dispositif reste étonnamment discret. « C’est intrigant. Si le système fonctionne, ils devraient en parler », s’étonne Maître Laure Boutron-Marmion, avocate spécialisée dans la défense des victimes de réseaux sociaux.
Et ce silence n’est peut-être pas anodin. Car à y regarder de plus près, Thrive présente déjà plusieurs failles techniques. « Selon le hash utilisé, il suffirait de modifier un pixel ou le sens d’une image pour contourner le système », pointe Thibaut Henin, cyberexpert judiciaire. Sa consœur Corinne Henin ajoute : « Même repéré au bout d’un jour, le contenu aura eu le temps de circuler largement. Le système ne bloquera que la cinquième ou sixième génération de viralité. »
On modérera le contenu quand on aura envie de le modérer
Thrive pourrait atténuer la propagation de certains contenus, mais pas les empêcher. D’autant que le dernier mot revient toujours aux plateformes elles-mêmes. Une fois les signaux de contenu nocif détectés, c’est à elles de juger s’ils enfreignent leurs politiques. « L’efficacité du programme dépend des signaux réellement échangés, et de la volonté des plateformes à modérer leurs contenus », résume Thibaut Henin.
Mais veulent-elles vraiment jouer le jeu ? Difficile à dire : Meta, Snapchat et TikTok refusent pour l’instant de communiquer sur le programme. De quoi alimenter les soupçons : Thrive est-il une réponse sincère à la crise, ou un simple coup de communication en prévision des procès à venir ? Le doute est permis, surtout de la part d’acteurs dont le modèle économique repose sur l’attention, et qui, pour certains, ont choisi de réduire leur effort de modération.
Participer à la conversation