Une jeune femme panique devant son smartphone

Au Royaume-Uni, diffuser un deepfake porn est en passe de devenir illégal

© Andrea Piacquadio

Un texte de loi qui paraît tardif alors que des témoignages de victimes de ce type d’agression en ligne s’accumulent depuis plusieurs années.

Petite victoire pour les victimes de deepfake porn. Au Royaume-Uni, un amendement du projet de loi Online Safety Bill reconnaît la diffusion sans consentement de vidéos hypertruquées pornographiques comme un crime.  « C’est une étape essentielle, mais ce n’est que le début », s’est félicitée l’organisation #MyImageMyChoice, qui milite contre ce type d’abus, lundi 28 novembre sur Twitter. 

Jusqu’alors, les auteurs de deepfake porn s’en sortaient généralement devant les juges en prouvant qu’ils n’avaient pas « l’intention de nuire ». Le projet de loi britannique devrait donner davantage de pouvoir aux policiers et aux procureurs pour arrêter les auteurs et diffuseurs de ces vidéos non consenties, estime The Independant. Notons qu'en France, il n'existe pas de loi spécifiquement pensée pour lutter contre ce type de vidéos.

Cette annonce du ministère de la Justice britannique fait suite à de nombreux témoignages ces derniers mois de victimes de deepfake porn. Comme celui de Kate Isaacs dans le documentaire choc « Deepfake porn: could you be next? » , diffusé le mois dernier sur BBC Three. 

« Mon cœur s'est effondré. Je n’arrivais pas à penser clairement », raconte cette jeune femme à la chaîne britannique. « Je me souviens avoir eu l'impression que cette vidéo allait être diffusée partout – c'était horrible ». Kate Isaacs est tombée sur une vidéo pornographique d’elle-même, générée par intelligence artificielle en scrollant son fil Twitter. La trentenaire milite justement contre la diffusion d’images pornographiques publiées sans consentement via son association #NotYourPorn. Son activisme a contribué à obliger Pornhub à retirer l’ensemble de ses vidéos publiées par des utilisateurs non vérifiés en 2020. Elle imagine que l’auteur de cette vidéo est probablement un utilisateur de Pornhub agacé par sa campagne. 

« Une violation d’identité »

Pour Kate, cette vidéo deepfake est une « violation ». « Mon identité était utilisée d'une manière à laquelle je n'avais pas consenti », explique-t-elle. Dans une interview à The Independant, la jeune femme décrit ce qui lui est arrivé comme un acte de violence sexuel, soulignant le fait que désormais la ligne entre la perception et la réalité est devenue floue. Des insultes, menaces de viol et menaces de mort, ainsi qu’une opération de doxing (la révélation des coordonnées d’une personne en ligne sans son consentement) ont suivi la diffusion de la vidéo. Ces évènements ont eu un impact sur la santé de Kate et sur sa capacité à faire confiance aux autres, explique la BBC. Elle pense que les auteurs de ces attaques ne cherchaient pas seulement à l'intimider et à l'humilier, mais aussi à la faire taire.

La stupéfaction, l’envie de vomir, la honte, l’angoisse, la méfiance constante… Les victimes de deepfake porn racontent toutes des expériences similaires à celles de Kate. « La honte a été le principal sentiment que j’ai ressenti. (...) C'était si embarrassant, si vulgaire. Je ne m'associe pas à ce côté de la sexualité en ligne, alors quand on me parlait comme à une star du porno, c'était juste... mortifiant », explique une autre victime au média Hunger.

Reprendre le contrôle sur son image

Georgie s’est quant à elle « effondrée sur son lit » en découvrant que des dizaines de vidéos d’elles étaient disponibles en ligne. La jeune femme essaie désormais de reprendre le contrôle de son image en se mettant en scène lors de shooting photos qu'elle poste ensuite sur Instagram accompagné du hashtag #reclaimmyimage. « Je ne voulais pas être dans une histoire de laquelle je n’étais pas la narratrice», explique-t-elle à la BBC. 

La pratique qui touchait majoritairement des actrices il y a quelques années (Scarlett Johansson avait été l’une des premières à s’inquiéter du phénomène en 2018) s’est maintenant largement démocratisée à tous types de personnes, des femmes en très grande majorité. Selon une étude de la société de cybersécurité Deeptrace publiée en 2019, 96 % des deepfakes sont des vidéos pornographiques non consensuelles. L’un des sites qui dénude, grâce à l’IA, des images de femmes aurait reçu 38 millions de visites durant les 8 premiers mois de 2021, a rapporté le gouvernement britannique. 

Une vidéo Zoom suffit

Il existe des services en ligne très facilement accessibles, ne nécessitant aucune compétence informatique, sur lesquels des internautes peuvent demander à un autre de « deepfaker » une femme qu’ils connaissent, ou qu’ils ont croisée en ligne afin d’en faire des vidéos pornographiques en utilisant les images de leur profil Instagram ou Snapchat. Une simple vidéo Zoom peut faire l’affaire, avance Gorkem, un réalisateur de vidéos deepfake interrogé par la BBC. Cet internaute qui décrit son activité comme « un hobby », estime qu’il n’y a pas de problème d’un point de vue moral puisque les « femmes peuvent dire "ce n’est pas moi c’est un fake". » Mais il pourrait, en revanche, reconsidérer son hobby si la loi devenait plus sévère.

Malheureusement l’action pénale ne suffit pas toujours à stopper complètement le phénomène comme le notait l’avocate Maître Rachel-Flore Pardo, avocate spécialiste du cyberharcèlement sexiste et fondatrice de l’association StopFisha interviewée par Marie-Claire. « Même en signalant une image, même après avoir obtenu une condamnation pénale, nous n'avons pas le moyen de prévenir sa rediffusion. Nous ne pouvons offrir à la victime la garantie que le montage ne réapparaîtra pas. Nous sommes dans l'incapacité de mettre un terme à l'infraction, de lui promettre : "C'est bon, ça ne ressortira pas". »

Viser les grandes plateformes pour stopper la culture du deep porn

Pour My Image My Choice, il faut désormais viser les grandes plateformes, et les empêcher de continuer à diffuser cette culture. « Pour résoudre ce problème, il faut arrêter l'infrastructure qui favorise cette culture et la laisse prospérer. Nous devons nous attaquer aux plateformes – il faut réglementer les sites web, les forums, les grandes plateformes technologiques. C'est là que se trouve le pouvoir. » Le Digital Services Act, nouveau cadre législatif européen du secteur numérique qui vise à rendre Facebook et consorts davantage responsables des contenus qu’ils diffusent, fait un pas en ce sens. Le texte prévoit d’importantes amendes en cas, notamment, de publication de contenus factices.

Certains outils utilisés (entre autres) pour créer des images pornographiques tentent déjà de limiter cet usage. C’est le cas de Stable Diffusion, un outil d’IA open source (en accès libre) qui permet d’obtenir une image en entrant un simple texte. Sa dernière version est censée éviter la génération d’images à caractère pornographique. Mais il ne s’agit que d’un outil parmi la masse d’autres applications et services en ligne disponibles pour créer des deepfake porn à la chaîne. 

commentaires

Participer à la conversation

Laisser un commentaire