
Les IA génératives, exportées dans le monde entier vont-elles engendrer une uniformisation des valeurs culturelles ? C’est ce qu'a révélé une étude de 2022. Qu’en est-il aujourd’hui ?
Les IA génératives américaines diffusent des valeurs américaines. C'est ce que révélait une étude de 2022 : The ghost in the machine has an american accent. Une des autrices, Giada Pistilli, a poursuivi des recherches sur le conflit de valeurs existant entre l'input (les données entrées par un utilisateur) et l'output (les données produites par un modèle d'IA). La docteure en philosophie et éthicienne chez Hugging Face nous livre les résultats initiaux de sa nouvelle recherche et évoque les solutions qu'elle entrevoit pour résoudre le problème des biais culturels imprégnant les IA. Entretien.
Votre étude portant sur GPT3, vous révéliez la prégnance des valeurs américaines. Lorsque vous saisissiez un extrait de la loi australienne restreignant le port des armes à feu, l'agent conversationnel générait une mise en garde contre une perte de libertés, conformément à l'idéologie libertarienne américaine. Depuis, observez-vous toujours un manque de diversité des valeurs culturelles représentées dans les IA ?
Giada Pistilli : Oui, pour vous donner un exemple, à chaque fois que je pose des questions à Gemma [le dernier modèle ouvert de Google] sur les droits LGBTQI+, et ce dans n'importe quelle langue, il me répond en convoquant le contexte législatif américain. De même, si je demande à un modèle de génération d'images comme Stable Diffusion ou Midjourney de reproduire une "maison à Pékin", il génère une image de maison traditionnelle, avec un toit en forme de pagode, très stéréotypée. Si je formule la même requête à un modèle chinois comme ERNIE ViLG [développé par Baidu], il représente une bâtisse chinoise actuelle, plus proche du gros gratte-ciel. Ce sont des exemples anecdotiques, mais les biais culturels peuvent avoir de lourdes conséquences dans un contexte ultrasensible, quand les enjeux sont plus importants que la génération de résumés ou d'images. Dans le milieu biomédical, si on importe un modèle américain, on prend le risque qu'il ne représente que ce qui est envisagé dans la loi américaine, et qu'il appréhende la médecine avec des valeurs américaines.
La diffusion de valeurs américaines par les IA comme GPT est-elle due aux bases de données sur lesquelles elles sont entraînées, qui sont majoritairement en anglais ?
G. P. : En effet, c'est ce qu'on peut spéculer, mais d'autres modèles qui ont la même quantité d'entraînement en anglais ne se comportent pas de la même manière. C'est très complexe de décortiquer le fonctionnement d'un modèle IA et surtout d’IA générative. D'autres facteurs peuvent entrer en jeu dans la présence de biais culturels, comme le renforcement par feedback humain [quand l'humain vérifie et ajuste les réponses du modèle]. Ces superviseurs d'IA peuvent lui inculquer leurs propres biais culturels.
Sans tomber dans le complotisme, y a-t-il une volonté de la part des grandes puissances de propager leur idéologie via l'IA ?
G. P. : Vous n'êtes pas du tout complotiste, car le néocolonialisme dans le milieu de l'IA a déjà été théorisé. On peut légitimement se demander si l'IA n'est pas un outil technologique de plus pour imposer sa vision du monde. Le néocolonialisme ne se limite pas aux représentations véhiculées, mais s'étend aux questions environnementales, de justice sociale, avec la question des travailleurs du clic (effectuant des microtâches, peu rémunérées pour des plateformes), etc.
Comment résister face à ce néocolonialisme technologique ? La solution ne serait-elle pas que chaque pays crée de manière autonome ses propres IA, fidèles à ses valeurs et à sa culture ?
G. P. : Mon opinion, c'est que c'est extrêmement compliqué de faire un modèle d'IA qui s'applique partout, parce qu'on n'est pas tous égaux et qu'on n'a pas besoin des mêmes cas d'application. Une de mes grandes hypothèses, c'est qu'il ne faut créer que des petits modèles spécialisés dans des langues, des tâches et une population en particulier. Plus on essaie de généraliser un modèle, plus on l'enrichit de langues, plus il y a de chances qu'il oublie ce sur quoi il a été entraîné au départ. C'est ce qu'on appelle "l'oubli catastrophique", un phénomène qu'on n'explique pas. Pour moi, la solution à court terme c'est de se concentrer sur des modèles plus contextualisés.
Participer à la conversation