habillage
premium1
Michelle Obama

L'intelligence artificielle distingue mal les femmes noires

Le 12 févr. 2018

Les I.A. ne font décidément pas mieux que les humains. Elles seraient même capables d’avoir des comportements sexistes et racistes.

Une nouvelle recherche conduite par le MIT Media Lab remet en avant les biais qu’une intelligence artificielle peut avoir, lorsqu'elle nous analyse. L’IA se plante en général violemment lorsqu’il s’agit de qualifier des visages ou d’attribuer un sexe en fonction des outils de reconnaissance faciale. Et ce, qu’il s’agisse d’intelligences développées par Microsoft, IBM ou Megvii (Chine).

Une expérience a donc fait réfléchir ces intelligences sur une base de 1 270 visages - hommes ou femmes – représentants politiques de plusieurs pays. Le but affiché était de leur attribuer un sexe par le simple fait d’analyser leur photographie d’identité. Le bilan est catastrophique. Pour les personnes à la peau claire, les intelligences artificielles ont identifié correctement un homme dans plus de 99% des cas, seulement dans 93% pour une femme.

Pour les personnes à la peau plus sombre, l’affaire se complique. Les I.A. se sont trompées dans 12% des cas pour les hommes et dans 35% des cas pour les femmes… En gros, une intelligence artificielle peine à à identifier correctement une femme, encore plus si elle a la peau noire.
C’est la première fois que de tels biais technologiques sont prouvés. Ils démontrent le besoin d’étoffer des analyses pour confirmer ou infirmer ce type de conclusion. Ces tests sont également le témoin de la nécessité d’apporter davantage de diversité parmi les personnes qui créent ces I.A.

Quand Google qualifiait des personnes noires de « gorilles »

Ce n’est malheureusement pas la première fois que des outils des reconnaissances faciales franchissent la limite. En 2015, plusieurs Américains avaient pointé du doigt l’application Photos de Google pour avoir qualifié par erreur des personnes noires de gorilles. Elles avaient été identifiées automatiquement par la plateforme. Cette dernière avait donc agi seule, sans apport humain.

A l'époque, la seule réponse de Google avait été de retirer le terme « gorille » de son système d’indexation d’images. La firme n’avait donc en rien résolu la mauvaise interprétation qu'opéraient ses propres algorithmes, occultant par là-même la possibilité qu’existent ces biais technologiques.

Toujours est-il qu’il est important de noter que, par principe, les algorithmes ne sont pas biaisés intentionnellement. Ils doivent toutefois mieux prendre en considération la diversité qu’offre la nature humaine. Des travaux doivent donc être conduits dans l’optique de limiter ces biais ou erreurs de fait. Cela se peut en intégrant davantage de groupes démographiques variés au sein même de ces intelligences artificielles.

Tay de Microsoft ou le dérapage gênant

Les exemples ne manquent pas pour montrer que ces biais technologiques sont finalement ceux apportés par l’humain. En 2016, un chatbot lancé par Microsoft avait viré raciste et misogyne en quelques heures. Baptisé Tay, ce robot conversationnel, en apparence candide avait été entraîné pour apprendre à partir d’informations présentes en ligne.

Tay avait répété ce que d’autres pages Web lui avaient indiqué. Le chatbot avait donc appris « bêtement » certains propos nauséabonds pour les valider sans pour autant disposer d’un avis critique. En 15 heures d’apprentissage, Tay a été amené par exemple à considérer le féminisme comme un « cancer » ou prendre des positions racistes comme étant avérées.

lel ogo avec un visage d'une IA de microsoft baptisée Tay

Là encore, Microsoft n’avait pas préparé son robot conversationnel pour réfléchir à la portée de ses propos. Il avait relayé, sans aucun filtre, des données pouvant relever du racisme ou de l’atteinte à autrui, sans aucun moyen d’avoir un quelconque recul sur ses propos. Preuve en est que les intelligences artificielles peuvent donc être racistes ou misogynes, à condition qu’elles soient disposées à l’être.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.