
L’algorithme du site ImageNet Roulette attribue des mots aux visages des internautes. Le résultat s’avère souvent absurde, sinon carrément offensant.
Êtes-vous plutôt weirdo, traître, divorcé, beau, religieux, violeur potentiel… ? L’intelligence artificielle du site ImageNet Roulette vous donne la réponse à partir d’une simple photo. Et souvent son diagnostic tombe à côté de la plaque.
Sur les réseaux sociaux, les internautes partagent depuis mardi 16 septembre 2019 leur cliché accompagné de la classification opérée par l’intelligence artificielle. Résultat absurde et offensant quasi-garanti. L’algorithme s’avère souvent raciste, homophobe, misogyne et cruel. Il n’hésitera pas à vous catégoriser comme « dingue », « négro » ou « fille stupide ». J'ai moi-même été catégorisée comme « white face », c’est-à-dire « un clown dont le visage est recouvert de maquillage ». Merci bien. Ci-dessous une petite sélection de résultats glanés sur Twitter.
Well, don't I feel judged. #ai #imagenetroulette https://t.co/qF4CMZ6L2U pic.twitter.com/CqkjK85Tx6
— Aadil Kurji (@theomniarch) September 17, 2019
a sap, a muggins, a flibbertigibbet if you will #imagenetroulette pic.twitter.com/RybVgqEZng
— e ? (@pastry4ngel) September 17, 2019
I look like a biographer according to #ImageNetRoulette pic.twitter.com/fiznX4wL6P
— Lesley Eagan (@lesleyeagan) September 17, 2019
"ImageNet Roulette is a provocation designed to help us see into the ways that humans are classified in machine learning systems."
Provocation is the correct term in my case. https://t.co/SvlvXZQRNG
Interesting work on machine learning, though:https://t.co/dZmkpbkfwL pic.twitter.com/KybF6mwCja
— Dan Amrich (@DanAmrich) September 16, 2019
??? #imagenetroulette pic.twitter.com/TjyUats7vt
— Roel (@Roelheid) September 17, 2019
Sgt. Pepper's continues to be a great test of face neural networks. These categories: "Fauve", "Cog", are you sure this wasn't accidentally trained on streampunk novels? pic.twitter.com/XQ0dmewJTq
— Jonathan Fly ? (@jonathanfly) September 16, 2019
L’algorithme s’appuie sur une base de données très utilisée par les chercheurs
Derrière ce petit jeu amusant (et effrayant), se cache un projet très sérieux. ImageNet Roulette fait partie de l'exposition « Training Humans » sur l’histoire de la reconnaissance d’images, à voir jusqu’au 24 février à la Fondation Prada de Milan. L’algorithme d’ImageNet Roulette s’appuie sur ImageNet, l’une des bases de données les plus importantes de l’histoire de l’intelligence artificielle. Cette dernière a été lancée en 2009 à partir de millions de photos du web et de la base de données textuelle WordNet, créée par des chercheurs de Princeton. Elle compte plus 2 500 catégories pour classifier les photos de personnes. ImageNet a été utilisée (et continue de l’être) par des centaines d’équipes de recherche.
« ImageNet contient un certain nombre de catégories problématiques, offensantes et bizarres, toutes tirées de WordNet. Certaines utilisent une terminologie misogyne ou raciste », écrivent sur leur site Kate Crawford et Trevor Paglen, la chercheuse et l’artiste à l’origine d’ImageNet Roulette.
Laisser les IA nous catégoriser est dangereux
Leur objectif est de montrer que de laisser un algorithme catégoriser les humains selon leur genre, émotion, couleur de peau est problématique et dangereux. Car les biais sexistes, racistes et politiques sont inévitables. Et « il n’existe pas de moyen simple pour (les) retirer », estime sur son compte Twitter Kate Crawford. (Il existe tout de même quelques solutions.)
Si vous voulez essayer, rassurez-vous : ImageNet Roulette promet de ne pas stocker les photos des utilisateurs. Pas d’exploitation de votre image par une entreprise façon FaceApp ou Zao.
C'est déjà ça.
POUR ALLER PLUS LOIN :
> Jeux vidéo : les ratés de l'intelligence artificielle créent un nouveau genre d’humour absurde
> Intelligence artificielle : les vraies questions à se poser pour éviter l’ethical washing
> L'intelligence artificielle distingue mal les femmes noires
Participer à la conversation