Le Conseil supérieur de l’audiovisuel a rendu son deuxième rapport sur la mise en œuvre de la régulation de la désinformation et des contenus en ligne par les grandes plateformes. Et c’est loin d’être glorieux.
« Élèves moyens, peuvent mieux faire ». C’est en substance ce que contient le deuxième bilan du CSA sur la mise en œuvre par les plateformes des mesures permettant de lutter contre les infox et le contenu haineux en ligne. Pour rappel, le Conseil supérieur de l’audiovisuel est chargé, depuis la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, de suivre l’action de 14 grandes plateformes du web sur ce sujet. Facebook, Twitter, Google, YouTube, LinkedIn, Webedia (pour son forum de JeuxVideo.com) ou encore Wikipédia et Snapchat sont inclus dans le processus. On notera l’absence notable de TikTok dans cette sélection.
Distribution de bons points
Concrètement, les plateformes ont répondu à un questionnaire élaboré avec un comité d’experts sur la question de la désinformation. Les plateformes devaient répondre sur 6 types de mesures spécifiques ; la mise en place de dispositifs de signalements de contenus, la transparence sur leurs algorithmes de recommandation et de modération, la lutte contre la propagation des fausses informations, l’information envers les usagers de la manière dont les contenus publicitaires sont mis en avant et enfin l’éducation aux médias.
D’après le bilan du CSA, la plupart des plateformes ont réalisé des progrès sur ces questions, notamment à l’aune de la crise sanitaire. D’après Lucille Petit, responsable de ce projet, les plateformes ont bien assisté à une augmentation de la désinformation en ligne et ont fait un effort sur la vérification d’information ou bien la sensibilisation aux gestes barrières. Elle souligne toutefois qu’au vu des restrictions sanitaires et des différents confinements, les équipes chargées de pratiquer la modération ont été réduites, ce qui a résulté à la mise en place d’une modération plus automatisée, basée sur les algorithmes et donc plus imprécise.
Quand les plateformes se font (gentiment) taper sur les doigts
Du côté des choses à revoir, le CSA a aussi produit plus d’une quinzaine de recommandations. Le gendarme de l’audiovisuel a particulièrement visé les moteurs de recherches Google, Yahoo Search et Bing sur le manque de visibilité de leur dispositif de signalement de fausses informations. « Il n’est pas normal que lorsqu’on tape une question sur la Terre plate dans un moteur de recherche, le premier résultat qui ressort soit un site complotiste qui confirme que la Terre est bien plate, a indiqué Benoît Loutrel, conseiller du CSA mais aussi ex-employé de Google. Les usagers devraient pouvoir signaler facilement ce type de problèmes ».
Le suivi des procédures de signalement et l’information auprès des utilisateurs concernés sont aussi un point sur lequel insiste le CSA. Cette demande semble renvoyer aux nombreux dysfonctionnements d’Instagram ou de Twitter dont la modération est influencée par des campagnes de signalement massives. Le CSA a par ailleurs rappelé que la modération humaine devait être privilégiée pour éviter ce type d’erreur mettant à mal la liberté d’expression.
Pas d'information sur les recettes publicitaires de la désinformation
Enfin le Conseil a particulièrement insisté sur l’effort de transparence concernant les fake news et le contenu sponsorisé. D’après le rapport, les plateformes ne dévoilent pas les chiffres des recettes publicitaires engendrées par les fausses informations et n’ont pas mis en place d’outils permettant aux usagers de comprendre pourquoi ils sont ciblés par certains contenus sponsorisés et comment ce ciblage peut être utilisé dans le cadre de campagne de désinformation.
Le constat du CSA est sévère, mais ses recommandations restent non contraignantes et surtout un brin timides. Aucune plateforme spécifique n’est vraiment montrée du doigt et il faudra attendre la mise en œuvre de la loi du 24 août 2021 relative à la lutte contre la manipulation de l’information pour que ces dernières puissent faire face à de véritables sanctions en cas de manquements.
Participer à la conversation