
Une enquête du Wall Street Journal révèle comment les dirigeants de Meta ont continuellement sous-estimé les cas de harcèlements d'adolescentes.
Le 4 octobre 2021, la lanceuse d'alerte Frances Haugen jetait un pavé dans la mare en dénonçant la « faillite morale » de Facebook avec les atteintes à la santé mentale des adolescentes sur Instagram. Dans un article du journaliste Jeff Horvitz publié sur le Wall Street Journal, on apprend que cet épisode a servi de prétexte aux dirigeants de Meta pour mettre sous le tapis un autre rapport alarmant concernant le harcèlement des mineures sur Instagram.
Tout va très bien Madame la marquise
Dirigé par Arturo Bejar, un consultant qui a passé deux années au sein de l'équipe « Bien-être » de l'entreprise, ce rapport montre le gouffre qui existe entre la confiance affichée de la plateforme dans l'efficacité de sa modération et les problèmes de contenu et de comportement problématique que rencontrent réellement ses utilisateurs. Bejar s'est intéressé aux calculs dits de prévalence, très appréciés par les pontes de l'entreprise d'Instagram. Cette modalité permet de mesurer le nombre de problèmes rencontrés par les utilisateurs rapportés au nombre d'utilisations. D'après la prévalence donc, l'exploitation de photos d'enfants n'excéderait pas 0.05%. Même chose pour les contenus encourageant l'automutilation, l'intimidation ou le harcèlement qui obtiendraient 8 vues sur 10 000.
Une toxicité ambiguë et pas réellement prise en compte
Absolument persuadée que son système de détection automatique des contenus problématiques fonctionnait parfaitement, l'entreprise a mis en place un système de signalement compliqué, comprenant de nombreuses étapes décourageantes pour les utilisateurs voulant rapporter un problème. Concrètement, seul le contenu explicitement gore se trouve bien modéré sur la plateforme tandis que tout ce qui peut être considéré comme des comportements ambigus est laissé de côté au nom de la vision de la liberté d'expression défendue par Mark Zuckerberg. Arturo Bejar a ainsi découvert qu'il était possible de poster des images d'enfants en sous-vêtement et d'inciter ses followers à rejoindre un groupe Messenger privé « pour en voir plus » ou bien d'inonder des adolescentes de commentaires avec des émojis bisous dans les commentaires. En poussant un peu plus loin son investigation, notre spécialiste a montré que 26% des utilisateurs de moins de 16 ans rencontraient au moins une mauvaise expérience au cours de la semaine dernière en raison d'une hostilité envers quelqu'un en raison de sa race, de sa religion ou de son identité. Plus d'un cinquième se sentait moins bien dans leur peau après avoir consulté les publications des autres, et 13 % avaient subi des avances sexuelles non désirées au cours des sept derniers jours.
Un rapport alertant mis sous le tapis
Arturo Bejar a tenté de faire remonter les problèmes identifiés aux dirigeants de Meta. Mais d'après lui, les responsables de la plateforme ont préféré améliorer les statistiques en se basant sur un système biaisé et presque aveugle plutôt que de changer complètement de logiciel. En dernier ressort, l'expert a envoyé un mail directement à Marc Zuckerberg, à la directrice de l'exploitation Sheryl Sandberg, au directeur des produits Chris Cox et à Adam Mosseri, responsable d'Instagram pour faire bouger les choses. Malheureusement ce dernier a été envoyé le jour même de l'audition de Frances Haugen au Senat américain. En réaction, Meta a réprimé en interne tout travail ou document pouvant desservir sa réputation en cas de fuite. Juste avant la fin de son contrat, Bejar a pu publier une version très aseptisée de son rapport en interne en écrivant tout de manière hypothétique. L'ensemble de son équipe qui travaillait sur le sujet a été licencié dans l'année qui a suivi.
Participer à la conversation