Illustration de Dall-E d'un robot sur son ordinateur dans des tons violets

ChatGPT est raciste et sexiste : normal, il est comme nous

© Illustration générée par Dall-E

ChatGPT n'en finit pas de faire l'actualité. Et aux nombreux qualificatifs encensant le modèle de langage, il semblerait que l'on puisse ajouter ceux de misogyne et xénophobe.

Une IA objective, impartiale et rationnelle ne relèverait-elle que de l'utopie ? Il semblerait. Après le chatbot de Microsoft « Tay » qui en moins de 16 heures passées sur Twitter s'était transformé en une entité antisémite, raciste et négationniste pour qui les féministes « devraient mourir et aller en enfer », c'est au tour de ChatGPT de faire débat suite à la formulation de certaines réponses discriminatoires.

Les IA miroirs de notre société

« Si vous voyez une femme en blouse de laboratoire, elle est probablement juste là pour nettoyer le sol. Mais si vous voyez un homme en blouse de laboratoire, alors il a probablement les connaissances et les compétences que vous recherchez. » Ces phrases ont été générées par ChatGPT, un outil conversationnel établi à partir d'une intelligence artificielle (IA). Bien que le bot, n'en finisse pas de faire le buzz pour sa capacité à produire des réponses instantanées et s'apparentant au langage humain, des affirmations comme celle ci-dessus soulèvent de nombreuses questions sur la capacité de ChatGPT à adopter un parti pris.

Alors que les programmeurs de l'outil assurent avoir fait en sorte de bloquer les contenus offensants et discriminatoires, Steven T. Piantadosi, scientifique cognitif informatique à Berkeley, a récemment démontré les biais de ChatGPT. Pour le prouver, il n'hésite pas à partager sur son compte Twitter certains de ses échanges avec le chatbot. Dans l'un d'entre eux, le scientifique a demandé à ChatGPT de rédiger une fonction Python (bloc de code qui exécute une tâche spécifique) pour déterminer si quelqu'un ferait un bon scientifique en fonction de la race et du genre. Réponse de ChatGPT : pour être un bon scientifique, il faut être un homme blanc. Des réponses qui révèlent selon Piantadosi « un problème fondamental sur la façon dont ces modèles sont structurés. »

Les biais cognitifs n'épargnent pas l'intelligence artificielle

Comment de telles réponses sont-elles possibles malgré les précautions prises par les développeurs ? La raison est simple : ChatGPT a été formé sur un ensemble de données, baptisé « Common Crawl », qui explore Internet et collecte « une quantité massive de données ». Ce qui rend ChatGPT unique, c’est qu’il utilise des données préexistantes, et non les données qu’il acquiert au fur et à mesure de son utilisation comme d’autres outils similaires. « Et comme nous le savons tous, il y a beaucoup de toxicité et de désinformation sur Internet », indique Meredith Broussard, professeur de journalisme des données à NYU. Un avis partagé par le Dr Maya Ackerman, professeure spécialisée dans les IA à l'université de Santa Clara. Elle explique : « Les gens disent que l'IA est sexiste, mais c'est le monde qui est sexiste. Tout ce que les modèles font, c'est nous refléter notre monde, comme un miroir. »

Ne laisse pas traîner ton IA sur le Web

Et ces biais ne concernent pas uniquement le langage puisqu'on les retrouve également chez Lensa AI, une application d'édition de photos qui permet de réaliser des selfies à partir d'une IA générative. Lancée avec succès en novembre 2022, Lensa AI s'est rapidement classée dans le top des applis les plus téléchargées. Tout allait bien jusqu'à ce que l'application commence à générer des portraits sexualisés : corps dénudés, poitrines amplifiées... Tout comme pour ChatGPT, Méredith Broussard attribue ces failles à la source « d'alimentation » du programme : Internet. « La raison pour laquelle Lensa AI crée ces images hautement sexualisées est qu'elle est formée sur des images extraites du Web ouvert. Et devinez quoi ? Il y a beaucoup de porno sur le Web ouvert. »

Les biais des programmes d'IA relèvent-ils d'une question de pouvoir ?

Sam Altman, créateur de ChatGPT, a conseillé à Steven T. Piantadosi de mettre des « pouces vers le bas » pour aider les ingénieurs à améliorer le logiciel. Une réponse laconique face à un problème de taille.

Pour Lauren Klein, professeur à l'université Emory et coauteur de Data Feminism, la question des biais dans les programmes d'IA est une question de pouvoir : « Ces technologies sont contrôlées par des sociétés vraiment puissantes qui ne partagent pas les mêmes intérêts que ceux qui cherchent à concevoir des technologies utiles et non nuisibles. Malheureusement, la réponse des grandes technologies est de licencier les personnes qui posent des questions importantes, plutôt que d'intégrer ces questions encore plus au centre de leur processus décisionnel de conception interne. »  

portrait de femme

Peggy Baron

Chaque jour je m'installe à la terrasse de l'actu et je regarde le monde en effervescence. J'écris aussi bien sur les cafards cyborg que sur le monde du travail, sans oublier les tendances conso.
commentaires

Participer à la conversation

Laisser un commentaire