la justice aveugle qui tient dans sa balance une tête de mort et le logo de google

Et si Facebook ou YouTube devenaient responsables des contenus qu'ils diffusent ?

La désinformation tue et les plateformes technologiques seraient responsables. C'est l'objet de deux plaintes déposées à la Cour suprême des États-Unis. Un débat qui pourrait changer les règles de la liberté d'expression aux USA.

Le 21 et 22 février 2023, un pan entier du Web va être débattu devant la Cour suprême des États-Unis. La plus haute instance judiciaire examine deux cas qui pourraient remettre en cause la sacro-sainte neutralité des plateformes sociales comme Facebook, Twitter, YouTube ou Instagram.

YouTube et Twitter responsables des attentats islamistes ?

Les deux cas examinés sont portés par des victimes des attentats djihadistes. Le premier concerne les proches de Nohemi Gonzalez, une jeune Américaine tuée dans les attaques de novembre 2015 à Paris. Ils reprochent à YouTube et sa maison mère Google d'avoir permis la diffusion et la recommandation de vidéos de propagande issues de l'État islamique. Le deuxième cas porte sur la mort d'une victime lors des attentats d'Istanbul en 2017. Les avocats reprochent à Twitter de n'avoir pas suffisamment modéré ses posts pour empêcher la propagation de contenus terroristes. Ces plaintes avaient été logiquement rejetées par les autres tribunaux américains à cause de la section 230 de la loi Communications Decency Act datant de 1996. Cette loi reconnaît les plateformes Web en tant qu'hébergeurs de contenus et non en tant qu'éditeurs, ce qui les rend non responsables des contenus qui y sont postés.

Une loi contestée

Décidée à l'époque où le Web était surtout dominé par des hébergeurs de sites Internet, la section 230 est à présent très critiquée. Dans les années 90, elle avait permis la protection des premiers acteurs numériques face à un risque de procès sans fin. En 2023, le paysage numérique a largement changé. Les internautes sont soumis aux algorithmes des plateformes sociales comme YouTube ou Instagram qui pratiquent la suggestion de contenu viral et sont très régulièrement pointés du doigt pour leur manque de modération. Sous couvert de la liberté d'expression et de cette irresponsabilité posée par la section 230, les plateformes ne sont pas reconnues responsables de la diffusion de messages haineux, racistes ainsi que la propagation de désinformation et de théorie du complot à un niveau industriel.

Un changement au cas par cas

Au vu des premiers débats qui se sont tenus à la Cour suprême, rien ne permet de dire si la section 230 va être remise en cause. Le juge américain Clarence Thomas, qui est pourtant réputé pour être un critique des compagnies de la tech a indiqué mardi 21 février qu'il n'était pas certain que l'on puisse accuser YouTube d'avoir poussé volontairement du contenu terroriste quand on sait que « son algorithme fonctionne de manière neutre et de la même manière, que les utilisateurs cherchent des informations sur Daesh ou sur la cuisson d'un riz pilaf ».

Il existe toutefois des cas pour lesquels les plateformes n'ont pas pu bénéficier de la protection de la section 230. Ce fut notamment le cas en 2021 quand Snap, l'entreprise derrière Snapchat avait été mise en cause dans un accident de voiture mortel après qu'un de ses filtres, indiquant la vitesse, avait été utilisé. En 2022,un juge fédéral de Californie avait statué le fait que Google, Meta et Apple ne pouvaient pas se réfugier derrière la section 230 pour éviter des plaintes d'utilisateurs qui avaient été mis en difficulté par des applications de Casino. Enfin, le site Omegle avait aussi été rendu responsable dans une affaire impliquant la mise en relation d'une fillette de 11 ans avec un prédateur sexuel.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.
commentaires

Participer à la conversation

Laisser un commentaire