L’ADN a recueilli le témoignage exclusif d'Ysandre*, une modératrice qui travaille sur le réseau social d’une grande plateforme de jeu vidéo. Elle raconte son quotidien difficile entre visionnages de vidéos hardcore, témoignages d'enfants qui s’envoient des menaces de mort et prédateurs sexuels. Récit.
Attention cet article évoque des situations ou des propos pouvant choquer.
« Je vais t’enterrer vivant, toi et toute ta famille gros fils de pute [...] Si je te vois, je te prends et je t'égorge gros bâtard ». « Ah t’es vraiment un bougnoule pour me tirer dans le dos comme ça. Pas étonnant qu’on veuille éliminer ta sale race de la Terre. » Des messages comme ça, Ysandre en écoute et en lit plus d’une centaine par heure. Elle travaille en free-lance pour le compte d’une grande agence européenne qui prend en charge la modération d’un réseau social lié à des consoles de jeux vidéo. Ils sont une centaine comme elle à analyser des messages, écrits ou vocaux ainsi que des images ou des vidéos très gores envoyés par plus de 100 millions de joueurs à l’international, et très souvent par des adolescents ou des enfants de moins de 10 ans. Elle nous a raconté son quotidien passé à nettoyer derrière les internautes.
Le recrutement : « ce qu’on teste, c’est notre résilience psychologique »
Quand on parle de modération, une image vient tout de suite à l’esprit : celle d’une armée de petites mains située dans des pays pauvres comme Madagascar ou les Philippines. Il existe pourtant bien des agences européennes qui emploient aussi des free-lances souvent bilingues afin de modérer des contenus en anglais, espagnol, allemand et bien évidemment en français. On entre dans cet univers, de la même manière que pour des métiers classiques, c’est-à-dire en répondant à une annonce. Mais le processus de recrutement est particulièrement long et drastique. « On m’a fait passer beaucoup d’entretiens et j’ai dû réaliser de nombreux tests avant d’être recrutée, raconte Ysandre. Le fait d’avoir géré des communautés en ligne a sans doute joué en ma faveur, mais je pense qu’ils ont surtout testé ma résilience psychologique pour savoir si j’allais tenir le coup. »
En plus de ce processus, elle raconte aussi les nombreuses heures de formations qui lui ont été dispensées avant de commencer le travail. « Ça dure plusieurs semaines pendant lesquelles on nous inculque les règles strictes que l’on doit appliquer. On a plus d’une trentaine de catégories de propos ou de contenus à connaître par cœur et on nous apprend aussi à repérer les cas de harcèlement ou de prédation sexuelle. »
Viol, meurtre, pédophilie : une première année difficile
« Quand j’ai commencé à travailler, je pensais que j’allais surtout avoir à modérer des insultes ou du harcèlement… Je ne m’attendais pas à ce que ça soit aussi terrible », explique Ysandre qui a dû visionner une quantité incroyable de vidéos ou de photos gores au cours de sa première année de modération. « Les grands classiques auxquels on a droit, ce sont les photos et les vidéos de décapitation, poursuit-elle. On a vu passer beaucoup d’images issues de la propagande de Daesh, comme ce pilote brûlé vivant dans une cage, ou bien la tête coupée de Samuel Paty. D’ailleurs, dire : "je vais te faire une Samuel Paty" est devenu une phrase courante. On a aussi des photos de viol ou de torture, parfois sur des bébés ou des personnes handicapées. »
L’autre grande menace, c’est la présence de prédateurs qui utilisent le réseau pour échanger des images pédopornographiques ou bien demander des photos dénudées aux jeunes utilisateurs. « Au moins une fois par mois, je vois des adultes pratiquer du grooming, explique-t-elle. Ils abordent de jeunes joueurs sur Fortnite par exemple et leur proposent des skins ou bien des items en échange d’une photo dénudée. Le pire c’est que les enfants le font très souvent. » Ysandre a été particulièrement marquée par le cas d’un utilisateur pédophile qui, malgré les bannissements, n’arrêtait pas de revenir pour demander à des petits garçons d'envoyer des vidéos nues via Snapchat. « Je l’ai traqué pendant plusieurs mois celui-là, il m’a rendue dingue, raconte-t-elle. Même après avoir été banni, il pouvait se réinscrire grâce à une adresse IP dynamique. On avait beau le signaler à la police, il n’a jamais été inquiété ».
« Je suis comme un robot »
Une fois passé le choc des premières fois, Ysandre assure que le travail devient plus automatique et moins traumatisant. La routine des images qui tournent en boucle participe au fait d’insensibiliser les modérateurs à la longue. « Il y a beaucoup de contenus dégueulasses, mais en général c'est toujours les mêmes qui tournent donc au bout d'un moment on s'habitue, raconte-t-elle. Maintenant je fais ce travail comme un robot que ce soit techniquement ou mentalement. Une fois que mon shift est terminé, j'ai complètement oublié ce que j'ai vu. »
À l’habitude, viennent aussi s’ajouter un rythme et une logique de travail qui ne laissent pas vraiment la place à la réflexion... ou à l’erreur. « Nous sommes totalement monitorés de partout, indique-t-elle. On pointe sur une plateforme, on est surveillés sur une autre. Ils savent ce qu'on fait, quand, pendant combien de temps. C'est hypersérieux et codifié. Même si je peux prendre mon temps sur un cas en particulier, je dois traiter entre 90 et 100 signalements par heure. Chaque action est passée au crible par des superviseurs qui attribuent un score en fonction des décisions de modération. Au début je me suis fait avoir, car je modérais tout le temps des conversations avec le mot “viol” dedans. J’entendais des jeunes dire : “je vais te violer” à d’autres et je supprimais, ce qui me faisait baisser mon score. Mon superviseur m’a dit que c’était un terme de jeu utilisé par les utilisateurs et que je devais le laisser. » Ysandre indique travailler jusqu’à 40h par semaine selon ses disponibilités et les horaires donnés par la plateforme de jeux vidéo. Elle ne sait jamais combien d’heures elle va faire la semaine suivante. Elle est payée un peu moins de 10 euros de l’heure.
Une modération forcément imparfaite
Interrogée sur les erreurs de modérations des autres grandes plateformes comme Facebook ou Twitter, Ysandre explique que le problème est à la fois technique et culturel. « Nous n’avons pas toujours le contexte dans lequel les mots ou les images sont échangés, explique-t-elle. Je comprends parfaitement qu’il puisse y avoir des erreurs et qu’une phrase sortie du contexte puisse être modérée de manière trop sévère. Ça dépend aussi du pays d’origine des modérateurs. Il suffit qu’une caricature de Charlie Hebdo soit visionnée par une personne qui ne connaît pas le journal pour que le dessin soit considéré comme de la pornographie par exemple. »
Outre ce manque de contexte, les agences font aussi tout pour que les modérateurs ne s’attachent pas aux problèmes qu’ils peuvent rencontrer. Une fois les propos classés parmi la trentaine de catégories allant de la pornographie aux abus sexuels en passant par les propos haineux ou la vente de stupéfiants, la décision de suppression ou de bannissement de l’utilisateur revient au réseau social. Ce sont aussi eux qui font remonter les délits et les crimes constatés sur les réseaux à une personne chargée de faire la liaison avec les services de police des pays concernés. Tous ces processus se passent loin du regard des modérateurs. « Je ne sais pas trop comment ça fonctionne et normalement je n'ai pas le droit de savoir, indique Ysandre. On ne sait jamais quel est l'aboutissement d'un signalement et c'est une volonté de la marque pour ne pas décourager les modérateurs au cas où la police ne fait rien. »
Se sentir utile
On pourrait croire qu’avec ces conditions de travail et cette confrontation permanente avec ce que l’humanité produit de pire, Ysandre voudrait aller voir ailleurs. Pourtant, il n’en est rien. Il faut dire que les équipes de modération sont très suivies sur le plan psychologique. « Nous avons régulièrement des entretiens collectifs ou individuels avec des psychologues. On a aussi une hotline pour dire si ça ne va pas. Quand on voit un contenu dérangeant, on peut toujours prendre une pause. Notre hiérarchie est bienveillante et fait très attention à nous, et je sais que dans d’autres agences, cet aspect-là est bien moins présent. »
Au-delà du management, Ysandre exprime aussi une forme de fierté dans son travail. « On est des invisibles agissant dans l'ombre, indique-t-elle. On ne fait pas que nettoyer, on évite aussi plein de drames, que ça soit au niveau des pédophiles, des suicides ou des menaces de mort. On intervient aussi sur le cyberharcèlement ou le revenge porn. On a un peu le rôle de la police quelque part. Si demain on me demandait d’arrêter ce travail, je pense que je serais triste. Et je ne suis pas la seule à penser ça. Beaucoup de modérateurs à qui j’ai parlé pensent la même chose. On se sent utiles. »
Ce qui a changé en elle
Imaginer que ce travail ne laisse pas de traces serait illusoire. Depuis quelques années, plusieurs documentaires portant sur les modérateurs de réseaux sociaux ont montré une réalité difficile avec des individus souffrant de stress post-traumatique. Quand on lui demande si elle n’a pas perdu foi en l’humanité, Ysandre relativise, mais explique qu’il y a bien certaines choses qui ont changé en elle. « Moi ça va, indique-t-elle. Mais maintenant, je ne publie rien en ligne et je ne commente jamais. Je vais retweeter quelques trucs, mais c'est tout. Si je vois une conversation où je me dis que je pourrais mettre mon petit grain de sel, je ne le fais pas. Je pense que les gens devraient apprendre à se contenir et éviter de la ramener sur les réseaux sociaux ».
En travaillant dans le milieu particulier du jeu vidéo, elle s’est aussi rendu compte que beaucoup d’enfants étaient laissés à eux-mêmes face à leurs écrans. « J’entends souvent des mômes qui doivent avoir 7 ou 8 ans et qui insultent d’autres joueurs lors de parties de jeux violents interdits aux moins de 18 ans, explique-t-elle. J’entends même parfois les parents en train de parler en arrière-plan pendant que leurs enfants racontent des horreurs au micro. Si j’avais des enfants, je ne les laisserais jamais seuls face à un jeu multijoueur. » Enfin, Ysandre aimerait bien que les internautes changent de perception vis-à-vis de la modération et arrêtent de croire au mythe des robots omniscients. « On nous a survendu cette histoire d’intelligence artificielle qui s’occupe de la modération, mais c’est vraiment des conneries, conclut-elle. Les algorithmes détectent bien certains mots, mais les internautes contournent cette censure facilement. En fin de compte, ce sont des gens comme moi qui se retrouvent en première ligne et les utilisateurs qui partagent ces horreurs ne savent pas toujours que ce sont des humains qui vont les voir. »
* Le prénom de notre témoin a été modifié afin de préserver son anonymat.
Participer à la conversation