La décision du Conseil de surveillance de Facebook est tombée hier. Trump, le président aux 60 000 tweets, restera banni. 2021 sera-t-elle l'année où les grandes plateformes abandonnent leur posture sur la liberté d'expression pour se mettre à la modération de masse ?
Le Web a toujours été un outil au service de la liberté d’expression. Mais, depuis que les réseaux sociaux sont au cœur de nos choix de navigation, la modération passe par eux, et devient de plus en plus opaque. Auteur de l’ouvrage Les Nouvelles Lois du web, Modération et censure, Romain Badouard, maître de conférences en sciences de l’information et de la communication à l’université Paris II Panthéon-Assas, reconnaît qu’il savait que ces questions ne manqueraient pas de provoquer un crash à la Trump. Et il est particulièrement conscient que la modération sur Internet doit être revisitée. La chose ne sera pas simple, mais il devient compliqué de s’en passer. Rencontre.
Pendant longtemps, Internet a été considéré comme un territoire libre où la liberté d'expression était plus forte que dans l'espace public classique. Est-ce que l'âge d'or de l'Internet libertaire est terminé ?
ROMAIN BADOUARD : Le Web s'est construit sur des idéaux libertaires qu’il ne s’agit pas d’oublier. Je pense même qu'il faudrait l'enseigner, parce qu'il y a aussi beaucoup d'utilisateurs qui ne savent pas sur quel projet politique Internet s’est construit. Cela étant dit, ces idéaux sont beaucoup moins visibles aujourd'hui, à cause de la massification des usages. Concrètement, le Web des années 2000 était utilisé par des gens très diplômés, qui étaient tout autant dans la production d'informations que dans leur consultation. On avait de petites communautés dans lesquelles des internautes assumaient le rôle de modérateur, et le faisaient de manière transparente. Il y avait bien des discours de haine ou du contenu violent, mais cela était bien moins visible aux yeux de tous. Aujourd'hui, dans les pays occidentaux, l'énorme majorité de la population est connectée. Le Web est entré dans une consommation de masse qui appelle donc une modération de masse.
Les réseaux sociaux sont devenus des acteurs centraux de cette modération de masse. Comment expliquer cette importance ?
R. B. : Si aujourd'hui les plateformes sont aussi puissantes, c'est parce qu'on a assisté à un phénomène de centralisation du Web. Depuis les années 2010, on utilise tous les mêmes services, de Facebook à YouTube, et on consulte les mêmes sites. Ce faisant, on a centralisé les usages autour de quelques grandes entreprises qui ont un pouvoir énorme sur la circulation des flux de données. Mais rien n'est figé sur le Web, et si demain on en revient à des normes d'usage un peu plus décentralisées, il n'est pas impossible que ce pouvoir finisse par échapper aux plateformes.
Les plateformes ont longtemps prétendu ne pas être responsables de ce que postent les internautes. Cependant, vous indiquez que la place oligarchique qu’elles occupent sur le marché de l'information change la donne.
R. B. : Facebook, Twitter et YouTube sont devenues des sources d'information, ce qui n’était pas leur projet initial. À présent, elles décident, par le truchement des algorithmes, le contenu qui est visible et celui qui est caché. Ce rôle d'aiguilleur de l'attention sur le marché de l'information est primordial, et leur donne de grands pouvoirs. On l'a bien vu en Australie, où Facebook a décidé de littéralement couper l'accès de sa plateforme aux journaux.
Cette centralisation nous a amenés à une forme de privatisation de la censure, selon vous, comment l’expliquez-vous ?
R. B. : Jusqu'à récemment, le Web était resté un territoire indompté, malgré les tentatives de régulation des États. Mais la centralisation de nos usages autour de quelques grandes plateformes a beaucoup simplifié les choses. Les États ont délégué le pouvoir de modération aux plateformes, mais c’est aussi parce que la force publique n’a pas les moyens de le faire sans elles. Il y a tellement de contenus qui sont publiés qu’il est impossible qu'elle fasse elle-même le ménage. Donc, ce qui est important, c'est que ces pratiques de modération soient transparentes et qu'elles fassent l'objet d'un contrôle de la puissance publique, parce qu'il y a des cas de censures abusives qui suscitent des inquiétudes légitimes.
Une grosse partie de la modération des plateformes repose sur des travailleurs peu qualifiés et sous-payés. Existe-t-il d'autres solutions ?
R. B. : Il sera difficile de se passer de la modération humaine. Face au problème des contenus, les plateformes parient beaucoup sur l'intelligence artificielle. Mais si ces technologies ont des avantages, elles ont aussi des inconvénients. Elles ne savent toujours pas prendre en compte le contexte des échanges, qui est pourtant déterminant pour comprendre le sens de certains propos. À ce stade, seuls des humains sont capables d’interpréter le contexte. Nous sommes donc face à un problème insoluble. Étant donné le volume des contenus, les grandes plateformes pourraient embaucher des dizaines de milliers de modérateurs, cela ne serait jamais suffisant. L'automatisation de la modération est clairement un mouvement qui va s'accélérer, mais il faut qu'on soit exigeant sur la possibilité de faire appel quand on juge qu'on a été victime d'une forme de modération abusive. Il faut aussi plus de transparence sur comment fonctionnent ces algorithmes de détection et comment se passe cette modération automatique.
On peut aussi noter un détournement des règles de modération qui permet à des internautes de faire du signalement en masse, et donc de participer à la censure aussi. Les outils qui doivent empêcher le harcèlement se retournent contre les internautes eux-mêmes.
R. B. : Exactement. La censure n’est pas seulement du côté de méchantes plateformes qui voudraient empêcher de gentils citoyens de s'exprimer librement. Le débat en ligne ressemble beaucoup à un champ de bataille, où chacun veut donner le maximum de visibilité à ses arguments. Certains internautes ont donc recours au signalement de masse pour faire taire l'opposant. Mais le plus préoccupant est que, face à ce problème, beaucoup ont du mal à faire appel sur les décisions abusives de modération. C’est pourtant un droit que devrait avoir n’importe quel internaute.
Peut-on imaginer des plateformes voulant redonner plus de contrôle aux internautes ?
R. B. : C’est déjà le cas avec Mastodon (une sorte de Twitter décentralisé et autogéré par les internautes), et Reddit, dans une moindre mesure. Ces deux réseaux sont inspirés du fonctionnement des premières communautés Web et des principes de gestion et de régulation collectives. Ce sont les internautes qui décident ce qui doit être visible ou pas par tous, et ils peuvent aussi créer des sous-communautés en fonction de centres d’intérêt ou en fonction de différents niveaux de sensibilité.
Quelle est la limite pour ces plateformes ? Sur Reddit, le forum r/The_Donald a été banni en juin 2020 à cause de son contenu violent et raciste.
R. B. : Il y a une limite qui doit s'imposer à tous, c'est celle de la loi. Même si on est face à des plateformes autogérées, elles ne peuvent pas tolérer des activités illégales, notamment celles qui visent à faire du mal directement à d'autres individus. Dans tous les cas, il faut une forme de supervision de la part de la plateforme. Si on n'est pas capables de garantir une modération minimum, il est possible qu'on s'oriente vers un Web où il sera plus difficile de mettre en place des forums. Est-ce que dans dix ans on aura un Web où existent des endroits non modérés ? C'est vraiment une question que je me pose aujourd'hui.
On a parlé de la modération du contenu violent ou illégal. Qu'en est-il du contenu mensonger ou complotiste ? Dans votre livre, vous indiquez qu'il s'agit de quelque chose de très attractif sur le marché de l’information.
R. B. : Il y a plusieurs façons de lutter contre le complotisme. Plutôt que de vouloir censurer ces voix, on pourrait faire en sorte qu'elles ne soient pas autant gratifiées. On sait que les algorithmes de recommandation ou de hiérarchisation des informations vont avoir tendance à favoriser ces contenus parce qu'ils sont plus regardés et qu'ils produisent plus d'engagement. Or, depuis quelque temps, les plateformes cherchent non pas à effacer au sens strict ces contenus, mais plutôt à diminuer leur visibilité. C'est une forme de censure par invisibilisation, c'est-à-dire qu'on les laisse en ligne, mais on fait en sorte que ça apparaisse moins et que ça devienne moins viral.
On voit aussi émerger d'autres modèles économiques. Je pense à Patreon, OnlyFans ou Substack..., où des internautes vont payer pour avoir plus de contrôle sur ce qu’ils veulent voir, lire et entendre.
R. B. : Le Web est tellement grand que plusieurs modèles peuvent coexister. Le modèle payant fait en sorte que l’entreprise soit redevable vis-à-vis des abonnés, mais il accentue aussi un risque de segmentation. On risque d’avoir d’un côté un Web pour la masse, gratuit, soumis à un modèle publicitaire qui traque les internautes, récupère leurs données personnelles et sert de terrain d’affrontement idéologique, et donc de censure. De l’autre, on aurait un Web pour les personnes averties qui ont les moyens de payer.
Quelles sont les pistes pour renforcer le droit des internautes face aux plateformes ?
R. B. : Il y a trois axes principaux à renforcer. Le premier consiste à rendre les mesures de modération plus transparentes. Le second, c’est la mise en place d’un droit d’appel systématique sur toutes les plateformes. Enfin, il faut créer une agence publique indépendante qui contrôle la manière dont les plateformes appliquent ces règles. On parle depuis longtemps du CSA en France pour tenir ce rôle. Le problème de la régulation par la transparence, c'est que ça rend les pouvoirs publics dépendants des données qui leur sont transmises par les plateformes. Même si Facebook, YouTube et les autres livrent beaucoup de données sur les contenus qu'ils modèrent, on n’a pas vraiment accès à leurs bases de données. On est bien obligés de les croire sur parole. Ce que préconise la Commission européenne, c'est que ces grandes plateformes financent des audits indépendants réalisés par des agences spécialisées capables de certifier que les données qui sont transmises correspondent bien à la réalité. C'est tout l’enjeu des années à venir.
À LIRE
Romain Badouard, Les Nouvelles Lois du web. Modération et censure, Éditions Seuil, 2020
Romain Badouard, Le Désenchantement de l’Internet : Désinformation, rumeur et propagande, Éditions FYP, 2017
À SUIVRE : @RBadouard
Participer à la conversation