Les I.A. ne font décidément pas mieux que les humains. Elles seraient même capables d’avoir des comportements sexistes et racistes.
Une expérience a donc fait réfléchir ces intelligences sur une base de 1 270 visages - hommes ou femmes – représentants politiques de plusieurs pays. Le but affiché était de leur attribuer un sexe par le simple fait d’analyser leur photographie d’identité. Le bilan est catastrophique. Pour les personnes à la peau claire, les intelligences artificielles ont identifié correctement un homme dans plus de 99% des cas, seulement dans 93% pour une femme.
Quand Google qualifiait des personnes noires de « gorilles »
A l'époque, la seule réponse de Google avait été de retirer le terme « gorille » de son système d’indexation d’images. La firme n’avait donc en rien résolu la mauvaise interprétation qu'opéraient ses propres algorithmes, occultant par là-même la possibilité qu’existent ces biais technologiques.
Toujours est-il qu’il est important de noter que, par principe, les algorithmes ne sont pas biaisés intentionnellement. Ils doivent toutefois mieux prendre en considération la diversité qu’offre la nature humaine. Des travaux doivent donc être conduits dans l’optique de limiter ces biais ou erreurs de fait. Cela se peut en intégrant davantage de groupes démographiques variés au sein même de ces intelligences artificielles.
Tay de Microsoft ou le dérapage gênant
Tay avait répété ce que d’autres pages Web lui avaient indiqué. Le chatbot avait donc appris « bêtement » certains propos nauséabonds pour les valider sans pour autant disposer d’un avis critique. En 15 heures d’apprentissage, Tay a été amené par exemple à considérer le féminisme comme un « cancer » ou prendre des positions racistes comme étant avérées.
Là encore, Microsoft n’avait pas préparé son robot conversationnel pour réfléchir à la portée de ses propos. Il avait relayé, sans aucun filtre, des données pouvant relever du racisme ou de l’atteinte à autrui, sans aucun moyen d’avoir un quelconque recul sur ses propos. Preuve en est que les intelligences artificielles peuvent donc être racistes ou misogynes, à condition qu’elles soient disposées à l’être.
[…] dénoncent l’inexactitude de la technologies qui entraîne beaucoup d’erreurs (notamment liées à des préjugés raciaux et sexistes, ce qui ne fait qu’alimenter des discriminations) mais aussi qui utilise des images […]