Surveillance de masse
© LeoPatrizi via Getty Images

Les réseaux sociaux sont utilisés en masse et ils sont donc tenus de mettre en place une modération de masse. Un vrai défi. Tour d’horizon de sept bonnes pratiques et de leurs limites.

Sensibiliser sa communauté au cadre juridique d’utilisation

Les réseaux sociaux ont tous des chartes qui édictent leurs conditions d’utilisation. Elles définissent leur politique de modération et reprennent au minimum les éléments du droit. Les appels à la violence, à la haine, au harcèlement, les contenus pédopornographiques..., sont, évidemment, interdits. Cependant, ces limites sont rarement rappelées aux internautes.

La meilleure charte ?

La charte d’utilisation de Flickr, site de partage de photographies et de vidéos, est souvent considérée comme l’une des mieux rédigées du web. Plutôt que d’édicter une série d’interdits, elle définit ce qu’elle attend de sa communauté. Elle comporte notamment la règle suivante : « Ne soyez pas flippant. Vous savez, ce mec, là ? Eh bien, ne soyez pas ce mec-là. »

Le signalement par les utilisateurs

Tous les réseaux sociaux proposent des outils de signalement qui permettent de demander la suppression d’un post ou même d’un compte. Facebook et YouTube retirent 80 % des contenus signalés, contre 43 % sur Twitter. Mais ces démarches sont détournées par des internautes organisés en groupes qui se livrent à des raids. Ils demandent en grand nombre la fermeture de comptes ciblés et sont susceptibles de l’obtenir plus vite.

La modération est un plat qui se prépare à plusieurs

Pour modérer ses vidéos diffusées en direct, Twitch a mis en place un double système. Les streamers peuvent bloquer certains types de propos, tandis que les spectateurs peuvent bloquer les utilisateurs un peu trop nerveux.

Créer une interface qui ne favorise pas les mouvements de colère

Beaucoup de tensions peuvent être évitées grâce au design de la plateforme. Celui de Twitter, par exemple, permet aux utilisateurs de voir tous les tweets de tout le monde, et de les faire circuler, notamment via les retweets. Le créateur de cette fonctionnalité l’a comparée à « un flingue donné à un enfant de 4 ans », car elle favorise l’emballement autour d’un tweet.

Secret d’interface

Sur Instagram, il faut s’abonner à un compte pour voir son contenu, cliquer sur les commentaires pour les lire, et on ne peut pas partager les contenus et leurs commentaires. Résultat : les posts ne circulent pas au-delà des communautés qui ont décidé de les voir.

Filtration du contenu par l’IA

Pour soutenir le travail d’un signalement à la main, l’IA peut aider. Sur YouTube, c’est elle qui permet de détecter les musiques et les images soumises au droit d’auteur. Elle est aussi chargée de supprimer les contenus dits « problématiques », elle le fait d’ailleurs à plus de 93 % avant même leur diffusion. Sur Facebook, l’IA filtre à la fois les images jugées pornographiques et les contenus selon leur degré de dangerosité. Sur Twitter, l’IA se concentre moins sur le contenu des messages que sur le comportement des utilisateurs – afin de détecter les cas de harcèlement de meute, par exemple.

L’IA ne capte pas tout !

Le langage humain pose de nombreux problèmes aux IA, qui peinent à détecter l’ironie et peuvent se tromper en associant des mots entre eux. En janvier 2021, Twitter a admis que leurs outils de machine learning avaient supprimé des comptes militants ayant posté le message : « Comment fait-on pour que les hommes cessent de violer ? ».

Surveillance interne avec une armée de petites mains

Pour vérifier la qualité des contenus échangés, Facebook emploie 15 000 modérateurs, qui doivent traiter 2 000 images par heure. Google revendique environ 10 000 personnes pour couvrir le moteur de recherche, tandis que YouTube et Twitter en auraient 1 500 seulement. En plus de ces équipes, Facebook revendique 20 000 autres personnes chargées des questions de sécurité des utilisateurs. Leur travail consiste à surveiller les groupes privés et à collaborer avec les forces de l’ordre quand ils présentent un risque. Ce fut le cas avec les groupes QAnon sur lesquels des utilisateurs proféraient des menaces avec des images d’armes à feu. Ils ont été supprimés un peu avant l'élection présidentielle américaine.

Fact checking en collaboration avec les journalistes

Depuis 2017, Facebook collabore avec plusieurs médias pour vérifier la véracité du contenu de certains posts qui circulent de manière virale. En France, Facebook travaille notamment avec Le Monde ou l’AFP. De l’avis des journalistes qui s’occupent de ce travail, le système n’est ni très fonctionnel, ni très efficace. En mars 2021, Libération a d’ailleurs annoncé l'arrêt de cette collaboration qui lui rapportait 239 000 dollars par an. Sur Twitter, c’est une équipe interne dédiée à la curation de contenus qui appose des avertissements sur des posts jugés comme étant de la désinformation liée au Covid-19.

L’angle mort de la publicité

Sur Facebook, les publicités politiques sont exemptes de toute vérification. Le réseau social en a tiré au moins 264 millions de dollars dans les derniers mois de 2020, d’après CNBC.

Conseil de surveillance et possibilité d’appel

Les internautes qui ont vu leur post ou leur compte sanctionné par un réseau social peuvent faire appel. Depuis 2018, sur Facebook, il est possible de demander une deuxième évaluation, et environ 12 % des contenus sont restaurés. Même chose pour YouTube, qui affiche 21 % de restauration. Par ailleurs, Facebook a mis en place un conseil de surveillance indépendant pour traiter les cas les plus importants – comme celui de Donald Trump, par exemple. TikTok a également annoncé la mise en place d’un conseil consultatif de sécurité chargé de se pencher sur les questions de modération et de protection des utilisateurs mineurs.

Pas facile de trancher...

En janvier 2021, le conseil de décision de Facebook a annulé quatre cas de suppression de posts, dont un français qui avait été jugé dangereux. Il évoquait le traitement du professeur Raoult et estimait qu’il sauvait des vies. Facebook a annoncé dans la foulée qu’il allait préciser ses règles concernant les discussions autour du Covid-19.

À LIRE

Who moderates the social media giants? Paul M. Barret, Center for Business and Human Rights, juin 2020.

Balancing Act: Countering Digital Disinformation While Respecting Freedom of Expression, Broadband Commission research “Freedom of Expression and Addressing Disinformation on the Internet”, UNESCO, septembre 2020.

premium2
commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.