premium 1
premium 1
obama

Vidéo : celui qui a fait dire n'importe quoi à Obama défend sa création

Le 16 avr. 2018

Démasquer les fake news grâce à un algorithme censé les créer : un expert en intelligence artificielle prédit un bel avenir pour les faux.

Lors d’une conférence donnée à l’occasion du TED talk de Vancouver, le chercheur en intelligence artificielle Supasorn Suwajanakorn estime que la création de fake news peut également servir la bonne cause. Pour le créateur d’un algorithme capable de faire dire n’importe quoi à Barack Obama via une fausse vidéo, son invention irait dans le bon sens.

En juillet 2017, l’expert montre au monde la puissance des fausses vidéos. En particulier lorsqu’il explique comment faire dire ce qu’il souhaite au président des Etats-Unis. Pour y parvenir, il développe un algorithme capable d’utiliser d’anciens enregistrements de discours de l’ex-président américain pour les transposer sur un modèle 3D du visage du leader.

Le résultat est stupéfiant. Apparaît un Obama plus vrai que nature, qui tient un propos monté de toutes pièces. Une fausse vidéo qui n’a nécessité qu’un algorithme nourri de 14 heures d’enregistrements du président américain. La machine a puisé dans cette base pour éditer un nouveau discours et synchroniser ses lèvres pour un rendu parfait. Le système a ensuite été utilisé pour créer des deepfakes. Il s'agit de véritables fausses vidéos mettant notamment en scène des actrices connues comme Daisy Ridley (Star Wars) en transposant leur visage sur le corps d'actrices porno...

On imagine clairement les conséquences de ce type de contenu. La publication virale d’un faux repris en boucle sur les Internets sans décryptage pourrait pourrir le flux d’actualités, centrer l’attention sur un faux problème ou tout simplement nourrir le flot continu de fake news…

Synthesizing Obama: Learning Lip Sync from Audio

Dénicher le vrai du fake

Interrogé sur les conséquences de sa création, le chercheur comprend certes que son algorithme peut être utilisé à « mauvais escient » mais qu’il peut également servir le bien. Interviewé par la BBC, il précise que l’idée directrice de sa création est de pouvoir déterminer si une vidéo a été ou non retouchée.

C’est pourquoi il travaille, en partenariat avec l’AI Foundation, à la création d’une sorte d’application permettant de traquer les fake news. Le système, baptisé Reality Defender, serait directement installé au sein des navigateurs Web. Il pourrait envoyer une notification aux utilisateurs lorsqu’une vidéo est faussée ou tout simplement la rendre inaccessible.

Autre usage « bénéfique » de la création de fausses vidéos, le récit historique. Supasorn Suwajanakorn considère que sa technologie peut servir à « faire parler » les personnes décédées. Dans ce cadre, il collabore à la création d’un projet visant à mettre en images les témoignages des victimes de l’Holocauste par le biais d’hologrammes et de discours pré-enregistrés. Des « fakes vidéos » pour rappeler la vérité historique en somme.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.