premium
premium
Image de l'outil de détection de deepfake Microsoft
© Microsoft

Nouveau job : détecteur de deepfakes

Le 3 sept. 2020

Les images manipulées par les outils d'intelligence artificielle envahissent le Web, en particulier les sites pornos. Certaines sociétés ont fait de leur traque un métier.

Quelques 1 000 vidéos de deepfakes seraient mises en ligne chaque mois sur les sites pornographiques. Ce chiffre publié fin août et repris dans le magazine Wired, vient d’une société basée à Amsterdam dont la spécialité est de détecter les deepfakes : Sensity (anciennement appelé Deeptrace).

La mission de Sensity, créée en 2018, est de « défendre les organisations et les individus de la menace des deepfakes », lit-on sur son site Web. Les deepfakes, pour rappel, sont des vidéos, mais aussi des photos et fichiers audios qui ont été modifiés grâce à des algorithmes d’intelligence artificielle. De quoi faire dire à des personnes réelles des propos qu’elles n’ont jamais prononcés, comme ici avec Mark Zuckerberg qui assume parfaitement le fait de voler nos données, ou leur faire faire des actions qu’elles n’ont jamais faites. Sur les sites pornos, le visage des actrices X est alors remplacé de manière réaliste par celui d’une célébrité. Emma Watson et Taylor Swift en ont déjà fait les frais. Mais pas seulement. Les deepfakes sont aussi utilisés en photo de profil de faux comptes sur les réseaux sociaux, pour usurper une identité, espionner… Giorgio Patrini, le PDG de Sensity, explique dans Discover avoir déjà vu des cas de deepfakes utilisés pour ouvrir un compte bancaire en utilisant une autre identité, par exemple.

Certaines images trafiquées peuvent être détectées à l’œil nu. Sur la photo d’un visage généré par un GAN (un réseau de neurones antagonistes génératifs, l’un des types d’algorithmes qui produisent les deepfakes) on remarque souvent des erreurs peu subtiles : une dentition malmenée, des zones de flou étranges... Certaines sont moins évidentes : des dégradés de couleurs pas très cohérents par exemple. Pour les repérer plus rapidement (et automatiquement), Sensity a développé des algorithmes qui s’appuient sur une base de données de milliers de deepfakes, explique Giorgio Patrini, interrogé par Le Nouvel Économiste.

Microsoft est aussi sur le coup

Sensity n’est pas le seul à effectuer ce travail de détection et d’alerte. Microsoft s’est aussi positionné sur ce créneau. En prévision des élections américaines, la société vient de lancer un nouvel outil baptisé Video Authentificator, qui analyse une photo ou les images fixes d'une vidéo afin d'établir un pourcentage de chance que le média soit manipulé, explique L’Usine Digitale.

Des organismes de recherche sont aussi sur le coup. SRI International, un institut californien, l'université d'Amsterdam et l'Idiap Research Institute en Suisse ont tous trois été missionnés par la Darpa en 2019 (agence de recherche et développement du Pentagone), qui prend le problème des deepfakes très au sérieux, rapporte Les Echos.

On devrait tous être des détecteurs de deepfakes

Le problème des technologies qui détectent les deepfakes reste qu’elles deviennent rapidement obsolètes. Notamment parce que les algorithmes qui génèrent des deepfakes sont auto-apprenants et sont amenés à devenir de plus en plus performants.

Le rôle des sociétés comme Sensity est donc aussi de sensibiliser le commun des mortels à s'interroger plus souvent sur la provenance d’une image. C’est l’idée du quiz « Spot the deepfake » lancé début septembre par la société néerlandaise en partenariat avec USA Today et l’Université de Washington. Il est adressé aux électeurs américains, mais rien ne vous empêche de tester vos compétences.

Marine Protais - Le 3 sept. 2020
À lire aussi
premium2
premium2

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.