Des mains en train de taper sur un clavier d'ordinateur, les logos Facebook, Google et Twitter sont visibles sur l'écran

Bonne nouvelle : nous reprenons le contrôle sur les géants de l'internet

© Hermione Bosseboeuf

Christel Schaldemose et d'autres eurodéputés estiment que le Digital Services Act permettra de mener  « un combat de fond contre le Far West qu'est devenu le monde numérique ». Sont-ils trop optimistes ? Peut-être pas. On fait le point avec Emmanuel Netter, prof en droit privé.

Pendant que nous étions rivés sur le compte Twitter d’Elon Musk, à l’affût d’un nouveau rebondissement concernant le rachat du réseau social par le milliardaire, un autre événement, tout aussi majeur pour le web, se déroulait plus discrètement à Bruxelles. Samedi 23 avril, le Conseil et le Parlement européen ont trouvé un accord sur le Digital Services Act (nom de code : DSA), une nouvelle réglementation aussi majeure que celle sur les données personnelles (RGPD) adoptée en 2016. L’événement a moins passionné les foules que l’affaire Twitter-Musk, pourtant, ce texte pourrait s’avérer être une vraie bonne nouvelle pour les internautes européens. Car il s’attaque à un problème de taille : la responsabilité de Google, Amazon, Twitter, Facebook et tout autre service du web vis-à-vis des contenus diffusés sur leurs plateformes. Une affaire pas complètement étrangère d’ailleurs au rachat de Twitter par Elon Musk et ses velléités d’assouplir la modération. 

Les eurodéputés et commissaires en charge du DSA se sont félicités d’un texte « historique », permettant de « reprendre le contrôle sur les géants du numérique », de mettre fin au « Far West ». Bref, c’est fini la rigolade. L’Union européenne avait déjà sonné la fin de la récré concernant les pratiques commerciales douteuses et anti-concurrentielles des Gafam avec le Digital Markets Act (DMA) en mars. Ici, ce sont leur non-respect des droits des utilisateurs qui sont dans le viseur. C’est-à-dire leur tendance à laisser se propager des contenus illicites, la censure souvent injustifiée que ces entreprises mettent en place vis-à-vis de certains contenus, la sélection des informations qu’elles opèrent via leurs algorithmes opaques tout en se cachant derrière une prétendue neutralité. Tout ce qu’on reproche en somme depuis plusieurs années aux géants du web est désormais très clairement puni par la loi. Ce n’est donc effectivement pas rien. 

Pour mieux comprendre le contexte et les conséquences de cette réglementation, nous avons interrogé Emmanuel Netter, professeur de droit privé à l’Université d’Avignon, spécialiste des questions juridiques liées au numérique depuis une dizaine d’années et auteur du blog « Droit et numérique ». Pour lui le DSA est un texte ambitieux car il revient sur le statut très protecteur dont profitaient Google, Facebook et consorts jusque-là, sans tomber dans la censure excessive. 

Pourquoi ce texte est-il qualifié d’historique ?

Emmanuel Netter : Car cette nouvelle réglementation rend les plateformes davantage responsables des contenus qu’elles diffusent. Avant le Digital Services Act, les grandes plateformes bénéficiaient d’un statut très protecteur au niveau européen. Elles profitaient de la même protection que les hébergeurs et les fournisseurs d’accès internet dont les statuts ont été définis en 2000 par la directive sur le commerce électronique, il y a donc 22 ans ! Le but de cette directive était de distinguer les hébergeurs et fournisseurs d’accès à internet des médias traditionnels, puisqu’ils représentaient de nouvelles manières de diffuser des contenus. Et que contrairement aux médias traditionnels, il a été estimé qu’ils n’avaient pas la même responsabilité vis-à-vis des contenus publiés. Au moment de la directive, les réseaux sociaux étaient encore émergents. Ils ont été par défaut associés aux hébergeurs – et jugés donc non responsables des contenus diffusés sur leur plateforme – plutôt qu’aux médias traditionnels. Le droit européen exigeait simplement d’eux qu’ils soient promptement réactifs lorsqu’on leur signalait un contenu problématique. 

Le problème, c’est qu’on peut difficilement dire que les réseaux sont totalement neutres vis-à-vis des contenus. Ils ne sont pas responsables de la nature des contenus publiés sur leur plateforme, mais ils sont responsables de la manière dont ces contenus sont organisés, de leur visibilité aussi, puisque ce sont leurs algorithmes qui les classent. C'est pourquoi on pouvait légitimement constater que leur statut était donc bien trop protecteur. 

En 22 ans, rien n’a été fait pour remettre en question ce statut ? 

E. N. : Certaines lois à l’échelle nationale ont essayé de corriger ce statut, la loi Avia en France (contre les contenus haineux sur internet, Ndlr) ou la loi NetzDG en Allemagne notamment (destinée à sanctionner les fake news et contenus haineux sur les réseaux sociaux, Ndlr). Mais, souvent ces lois sont allées dans l’excès inverse : en faisant pression sur les plateformes pour qu’elles censurent le plus possible. Cette exigence leur a donné trop de pouvoir sur les contenus. D’un point de vue démocratique, c’est une approche gênante. Facebook ne peut pas décider ce qui doit être censuré ou non. Le Digital Services Act ne semble pas tomber dans cet écueil.

Comment cette réglementation parvient à éviter l’excès de censure ?

E. N. : Sur le signalement par exemple, la loi Avia exigeait des plateformes qu’elles retirent promptement tout contenu signalé par un utilisateur. Le DSA distingue un signalement ordinaire d’un signalement effectué par un signaleur de confiance, c’est-à-dire une association luttant contre le racisme ou le sexisme par exemple, ou bien un utilisateur habitué du réseau dont on sait que les signalements sont pertinents. YouTube effectue déjà ce type de distinction. Et le DSA exige que cette distinction soit faite pour toutes les plateformes.

Concrètement, les utilisateurs auront-ils plus de droits face aux plateformes avec le DSA ?

E. N. : Oui, notamment en cas de retrait de leurs contenus. Le DSA oblige les plateformes à motiver leurs décisions lorsqu’elles censurent un contenu. Les utilisateurs auront également des moyens de faire recours à la décision de censure des plateformes, en leur demandant de réexaminer leur contenu. Par ailleurs le DSA exige des plateformes qu’elles soient transparentes sur leurs moyens de modération, en communiquant sur le nombre de modérateurs pour une langue donnée par exemple. Jusqu’ici ces données étaient très compliquées à obtenir. Les plateformes devront également signaler si elles mettent en place des techniques de ralentissement du contenu, c’est-à-dire quand elles en réduisent la visibilité, sans pour autant le supprimer. Or jusqu’alors les utilisateurs n’étaient pas au courant quand de telles pratiques étaient mises en œuvre vis-à-vis de leurs contenus.

Le DSA ne s’applique-t-il qu’aux grandes plateformes ?

E. N. : Non, en réalité la grande majorité des règles s’appliquent aux entreprises de taille moyenne. Mais la réglementation fonctionne sur le principe des poupées gigognes : plus la plateforme est grosse, plus elle aura de contraintes. Les grandes plateformes seront notamment contraintes de procéder à des audits annuels effectués par des tiers indépendants, et de se justifier en cas de non-application des recommandations. Elles devront évaluer les risques systémiques de leur interface : le risque d’accroître la haine, de manipuler des élections… Autre point intéressant : les très grandes plateformes auront l’obligation d’ouvrir leurs données à la Commission européenne et aux chercheurs qui en font la demande.

Ce texte est-il à vos yeux ambitieux ?

E. N. : Oui c’est un texte ambitieux parce qu’il revient sur le statut très protecteur des réseaux sociaux. La grande nouveauté du DSA ce sont les amendes extrêmement lourdes imposées aux plateformes lorsqu’elles ne respecteront pas les nouvelles règles. Elles pourront atteindre 6 % de leur chiffre d’affaires, soit des centaines de millions d’euros voire des milliards. Mais selon moi il y a un flou sur ce qu’on attend exactement des plateformes sur la censure. Quels sont les critères d’un contenu illégal ? Qui a le pouvoir de fixer la liberté d’expression en ligne ? Qui a le pouvoir de censurer ? Le DSA ne le dit pas. Et il y aura certainement des divergences d’interprétation d’un pays à l’autre. Dans sa loi NetzDG, l'Allemagne considère qu'il faut supprimer tous contenus illégaux, même lorsque l'illicéité n'apparaît qu'au terme d'un examen complexe... En France, seul ce qui est manifestement illicite doit être supprimé ; si ça se discute, c’est au juge de prendre une décision.

Le rachat de Twitter par Elon Musk inquiète un certain nombre d’utilisateurs. Le DSA peut-il nous protéger d’une éventuelle dérive de Twitter, une modération très assouplie par exemple ?  

E. N. : Certainement. Le critère du déclenchement du DSA est la fourniture d'un service aux citoyens européens, peu importe où le prestataire est situé géographiquement. Twitter sera donc tenu d'appliquer ce texte. Et si ses équipes de modération sont insuffisantes, s'ils refusent d'obéir à des injonctions d'un juge ou d'une autorité administrative, ou si des signalements de contenus par des utilisateurs sont laissés sans suite à tort, l'ARCOM (L’Autorité de régulation de la communication audiovisuelle et numérique, qui sera garante de l’application du DSA en France, Ndlr) pourra prononcer les très lourdes sanctions prévues par le règlement.

Est-ce que le DSA permettra de prévenir la survenue en Europe de certaines manipulations de l’opinion publique, observées par exemple avec le scandale Cambridge Analytica lors des élections américaines de 2016 ou du vote sur le Brexit ?

E. N. : À mon sens, l'affaire Cambridge Analytica relève principalement du droit des données personnelles. Les centres d'intérêts de millions de personnes ont été collectés par des moyens totalement illégaux, avant d'être utilisés pour de la communication politique ciblée. C'est plutôt le RGPD qui a vocation à s'appliquer dans un tel contexte. Dans cette matière, la puissance théorique des textes, globalement satisfaisante, est contrebalancée par la trop grande faiblesse des moyens alloués aux autorités de protection des données, en particulier en France avec la CNIL.

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

Laisser un commentaire