habillage
premium1
premium1
Homme masqué
© Alex Iby via Unsplash

Assistant vocal, deepfake : quand la technologie nous leurre

Le 18 déc. 2019

Qu'elles soient vocales ou visuelles, nous traversons quotidiennement le monde à travers des interfaces. Nous leur livrons tout, nos informations et notre attention. Alors, doit-on s’en méfier ?

À l’occasion du Mastercard Innovation Forum qui s’est déroulé le 14 novembre 2019 à Paris, Patrice Slupowski, vice-président de l’innovation digitale chez Orange, a démontré à travers des exemples que les interfaces pouvaient être nos amies… comme nos ennemies.

Des assistants vocaux un peu trop curieux

« Ok Google, lance ma playlist "motivation pour aller au travail" ». Jusqu’ici, personne ne vous juge. Mais on vous écoute peut-être. Ces derniers mois, les révélations se sont enchaînées sur les assistants vocaux accusés de pouvoir nous espionner (et ne pas se gêner pour le faire).

Alexa par exemple, l’assistant vocal d’Amazon, est soupçonné d’écouter et d’enregistrer ses utilisateurs sans leur autorisation ou même d’avoir transmis une conversation à un contact du répertoire. Mais à l’heure où « 30 % des foyers possèdent un assistant vocal et que 50 % des recherches seront activées par la voix en 2020 », selon Patrice Slupowski, le lien que nous tissons avec les algorithmes doit être interrogé. Laurence Devillers, professeure en intelligence artificielle et spécialiste des interactions humain-robot, a imaginé un futur (l’année 2025) où tout serait régi par les objets connectés. Et ce n’est pas beau à voir.

Quand Obama insulte Trump

Souvenez-vous en avril 2018, Barack Obama doublé par Jordan Peele insultait Donald Trump. C’était le début du deepfake, cette méthode d’incrustation vidéo qui permet de faire n’importe quoi avec n’importe qui. Sur le papier du moins. « Tout le monde peut le faire. Il faut juste de la pratique, assure Vincent Nozick, maître de conférences à l’université de Paris-Est Marne-la-Vallée et créateur de MesoNet, un logiciel conçu pour détecter les deepfakes. Mais cela prend énormément de temps. Je ne pense pas que tout le monde ait le temps et la patience de le faire, même si aujourd’hui tous les outils existent pour en réaliser. En réalité, les deepfakes sont surtout utilisés dans le porno ».

Le Monde a tenté d’en réaliser un en remplaçant le visage de Jean Dujardin dans OSS 117 par celui d’Emmanuel Macron. Résultat : raté, à deux reprises.

De deepfake à fake news

Il n’empêche : avec les deepfakes se profile le risque de la propagation de fake news de plus en plus réalistes. Récemment, Solidarité Sida a produit une vidéo dans laquelle Donald Trump apparaît déclarant qu’il avait éradiqué le sida. « La première “fake news” qui peut devenir vraie si le 10 octobre prochain, les chefs d’État s’engagent à rendre les traitements accessibles à tous », conclut la vidéo. Si la méthode pose question, elle a démontré l’impact d’une telle vidéo.

Il faut donc apprendre à détecter ces faux, notamment « en retrouvant la vidéo d’origine ou via le deep learning », insiste Vincent Nozick, et en éduquant la machine à reconnaître ce type de vidéo. Facebook a d’ailleurs mis en place le Deepfake Detection Challenge, un concours de détection des deepfakes pour inciter les chercheurs à perfectionner leurs outils (et sans doute pour ne plus être au centre de polémiques récurrentes sur les fake news sur Facebook). Mais certains vont plus loin. La Californie et la Chine ont ainsi rendu criminels les deepfakes ne mentionnant pas que la vidéo en est un.

Deepfake for good ?

Alors, faut-il interdire les deepfakes ? Ce serait ne regarder que le côté sombre de cette technologie. « Les deepfakes peuvent être utilisés à des fins de communications type Skype, en limitant la bande passante (bien plus écologique), ou encore dans des contextes d’anonymisation de témoins et de victimes qui souhaitent témoigner à l’écran, humanisant ainsi le propos, à l’inverse du visage flouté et de la voix de robot », défend Vincent Nozick.

Si le futur des interfaces interroge, voire fait peur, tout dépend de ce que l’humain en fait. Et nous n’avons pas fini d’entendre parler de deepfake puisque Snapchat lancera ce 18 décembre son outil de deepfake Cameo, permettant de mettre son visage sur des gifs ou de courtes vidéos humoristiques. 2020, année des deepfakes ?

 

Aller plus loin

> Deep fake, GAN... Fascinant (ou effrayant) découvrez la tech qui fait passer du faux pour du vrai

> Pourquoi l’appli de reconnaissance faciale du ministère de l'Intérieur inquiète

Vincent Thobel - Le 18 déc. 2019
premium2
premium1

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.