habillage
Oiseau bleu en train de regarder Twitter
© Morning Brew via Unsplash

Comment des internautes ont réussi à alerter Twitter d'un biais raciste

Le 21 sept. 2020

Ce week-end, de nombreux twittos se sont rendu compte que l'algorithme qui choisit les aperçus d'images sur Twitter semblait préférer les visages blancs aux visages noirs.

L’algorithme de prévisualisation d’images sur Twitter est-il raciste ? La question a agité de nombreux utilisateurs du réseau social ce week-end. Tout est parti avec le tweet de Colin Madland (un chercheur blanc). Pour montrer un possible biais raciste de Zoom (qui a effacé le visage de son interlocuteur noir), Colin Madland publie des captures d’écran de sa viso conférence. Il découvre alors un autre biais raciste, concernant Twitter cette fois-ci. L'algorithme du réseau social montre systématiquement en prévisualisation la partie de la photo où il apparaît, jamais celle où l’on voit son interlocuteur. Y compris lorsque la photo est retournée.

La polémique enfle avec une publication de l'entrepreneur Tony Arcieri partagée plus de 70 000 fois. Pour mettre à l’épreuve l’algorithme de Twitter, il publie deux images comprenant le visage de Barack Obama et celui de Mitch McConnell (un sénateur blanc). Dans la première image le visage de l’ancien président est placé en bas et celui du sénateur en haut, dans la seconde c’est l’inverse. Une large bande blanche sépare les deux visages à chaque fois. Résultat : l’algorithme d'affichage des aperçus de Twitter choisit systématiquement de mettre le visage de Mitch McConnell en avant, peu importe sa position.

Tony Arcieri renouvelle l’expérience en inversant les cravates des deux hommes (pour voir si la couleur de la cravate joue un quelconque rôle) : même résultat. Il fait le test en passant les photos en négatif, et là c’est Barack Obama (dont le visage devient plus clair que celui de Mitch McConnell) qui est mis en avant. Sa conclusion : Twitter est l’un des exemples du racisme présent au sein des algorithmes d’apprentissage automatique.

Michael Jackson vs. Michael Jackson

De nombreux internautes ont reproduit le test en plaçant les photos à l’envers, en réduisant leur taille, ou en essayant avec d’autres personnes noires et blanches. Certains, plus imaginatifs, ont fait le test avec des photos de Michael Jackson au début et à la fin de sa carrière, des personnages des Simpson, des labradors noirs et crèmes... Résultat : Twitter met très souvent en avant la personne ou le personnage à la peau de couleur claire. Pas tout le temps cependant.

En ajoutant des lunettes à Barack Obama, l’algorithme choisit son visage plutôt que celui du sénateur. Idem en essayant avec une photo où l’ex-président est plus souriant.

Une question de contraste selon Twitter

Le directeur du design de Twitter est intervenu et a expliqué que l’algorithme choisissait la partie de l’image à montrer selon le contraste de celle-ci. En gros, plus une partie de l'image est contrastée, plus elle est favorisée par l’algorithme. Il a aussi reconnu que c’était problématique de voir le système sélectionner si souvent une personne blanche plutôt qu’une personne noire et que son équipe allait s’intéresser à ce problème et le résoudre. Interrogé par The Guardian, un porte-parole a déclaré : « notre équipe a procédé à des tests et n'a pas trouvé de preuve de biais raciste ou sexiste lors de ceux-ci. Mais il est clair que d'après ces exemples, nous avons encore des analyses à faire. Nous continuerons à partager ce que nous apprenons, les actions que nous entreprenons, et publierons nos recherches en open source afin que d'autres puissent les examiner et les reproduire.»

L’équipe qui a mis en place cet algorithme n’a certainement pas choisi d’exclure plus fréquemment les visages à la peau de couleur noir, mais en faisant du contraste un critère clé, elle a sans doute indirectement influencé l’algorithme à préférer les visages de couleur blanche. Ce qui reste problématique.

Accusé à tort par un algorithme

Ce n’est pas la première fois que les algorithmes des grandes plateformes sont accusés de racisme. En 2015, des internautes s’étaient rendu compte que l’algorithme de Google tagguaient certaines photos de personnes noires avec les mots-clés « chimpanzé » et « gorille ». En 2018, le géant du Web a « résolu » le problème en supprimant ces tags y compris pour les photos de primates, afin d’éviter toute erreur. Les algorithmes de reconnaissance d'images sont par ailleurs utilisés par la police et la justice. Et les conséquences (négatives) sont déjà visibles. En janvier 2020, Robert Julian-Borchak Williams, un homme afro-américain a été arrêté à Détroit pour un crime qu'il n'a pas commis à cause d'un système de reconnaissance faciale défectueux.

Marine Protais - Le 21 sept. 2020
À lire aussi
premium2
premium2

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.