
Les IA génératives reproduisent nos biais. Le comprendre en profondeur nous permet de mieux envisager comment utiliser ces outils à notre bénéfice réel.
Certaines inquiétudes se sont exprimées concernant le déploiement rapide de systèmes d'IA avancés, en particulier des grands modèles de langage tels que GPT d'OpenAI, avec des arguments suggérant qu'ils pourraient constituer une menace pour l'humanité, les systèmes politiques, la démocratie et le concept de vérité. Une préoccupation qui fait réfléchir est que, s'ils ne sont pas soigneusement conçus et contrôlés, des systèmes d'IA comme ChatGPT peuvent notamment amplifier les préjugés existants et contribuer à la polarisation politique.
En effet, les modèles d'IA, entraînés sur d'immenses jeux de données peuvent hériter des biais sociétaux, et le déploiement de leurs usages peut renforcer ces biais au travers des contenus qu’ils génèrent. Bien que ces préoccupations ne doivent pas être rejetées d'emblée, l’une des thèses sous-jacentes est que l'IA devrait être impartiale, neutre, équitable, juste. Paradoxalement à l’intention, c'est cette thèse implicite qui, plus que l’IA, pourrait faire peser une menace sur l'humanité.
Rendre l’IA responsable ne doit pas conduire à la déresponsabilisation humaine
Un monde, où l’homme serait formaté à croire que seule la machine est digne de confiance – parce que plus responsable que ne saurait l'être l’humain – représenterait un véritable danger pour l’humanité. Comme les LLM reflètent nos biais, ils nous offrent un miroir pour voir peut-être de manière plus réaliste l'ampleur de leur conséquence dans notre société. Et c’est aussi parce que nous ne les voyons pas à l'échelle de ce qu'ils sont et de ce qu’ils font dans le réel, que nous avons tendance à penser que l'IA les amplifie.
Chercher la perfection avec des jeux de données non biaisés ou autrement dit « purs », qui alimenteraient l'IA de sorte qu’elle soit la plus parfaite possible, nous fait prendre le risque de créer des chambres d'écho qui nous conduiraient à perpétuer des illusions qui, souvent, nous font sous-estimer l'impact de nos propres biais dans la société.
Nous devons utiliser l'IA pour également révéler, étudier et appréhender les biais qui pénètrent la société, sources de certains de ces maux. C’est une opportunité pour prendre des mesures, non pas dans le seul but de « manipuler » le jeu de données pour y corriger ces biais – comme s’il suffisait de les supprimer à cet endroit pour les supprimer de la société – mais pour renforcer notre esprit critique et prendre des décisions guidées par des valeurs fondamentalement humaines.
Du spécifique au systémique, et vice versa
Une compréhension des biais que nous révèle l’IA, c'est-à-dire de nos biais, doit considérer a minima deux niveaux de lecture : les biais d’ordre spécifique et ceux d’un ordre systémique.
Les biais spécifiques peuvent se rapporter à la manière dont nous comblons ou compensons le fait de ne pas savoir dans un domaine en particulier ou simplement d’être exposé à un contexte dans lequel des informations sont manquantes pour pouvoir porter un jugement. Notre système de biais va alors compenser ce manque par la production d’une information préconçue et parfois précontextualisée qui va compléter les pièces manquantes du puzzle de sorte que la situation nous apparaisse sans ambiguïté et sans aucun doute. Ce qui est pernicieux dans ce processus est qu’il se produit parfois sans que nous y prêtions garde, nous poussant parfois à prendre pour des faits, des informations qui in fine proviennent de notre propre capacité de création.
Les biais systémiques jouent un rôle d’amplificateur dans la société. Ils résultent du fonctionnement de ce que nous avons créé pour réguler, pour contrôler, pour juger de situations à l’échelle de la société. Ces systèmes héritent des biais spécifiques devenus en quelque sorte des biais d’ordre général ou normatif, qui donc s’érigent en institutions pour œuvrer à la gouvernance de la société, pouvant de manière systémique, avantager ou désavantager certains groupes sociaux, de par leur origine, leur genre, etc.
Ces biais sont d’autant plus complexes à modifier lorsqu'ils ne sont pas à proprement parler objectivement visibles et participent à établir quasi systématiquement ce qui est appelé le standard, la culture, le mode de vie ou encore le savoir être en société. Ces biais systémiques, entretiennent la source qui les a vus naître, c'est-à-dire la somme de biais spécifiques dont elles sont la synthèse, pour se maintenir et pour évoluer.
L’IA, réceptacle et révélateur de l’ampleur de nos biais
L’IA est en quelque sorte le réceptacle de la construction de cette boucle d’action / rétroaction autogénératrice entre biais spécifique et biais systémique, à la fois mentale, sociale et sociétale, et imite le fonctionnement en vase communiquant entre l’un et l’autre, de façon computationnelle, et les perpétue.
En effet, les modèles d’IA, constituant des fondations pour d’autres modèles, tels que GPT d'OpenAI, BERT de Google, ou encore Anthropic sont de facto les porteurs de nos biais systémiques. Ces modèles, entraînés sur d'immenses corpus de données collectées à partir d'une large gamme de sources Internet, reflètent les dynamiques et les préjugés présents dans ces données, elles-mêmes le résultat reflétant des inégalités, des stéréotypes et des idéologies dominantes dans nos sociétés.
À l’autre extrémité du spectre, il y a les modèles d'IA créés à partir de ces modèles fondateurs. Ils sont entraînés pour certaines tâches dans des domaines particuliers.
Il est crucial de noter que ces modèles d'application spécifique d’IA sont immergés dans le bain des biais systémiques hérité de leur modèle d’IA fondateur. Influencés par ces biais systémiques sur lesquels ils sont construits, ils sont par ailleurs également sujets à des biais plus spécifiques au domaine d’application qu’ils sont censés adresser. Leurs biais spécifiques proviennent des particularités inhérentes aux jeux de données spécifiques ou aux contextes d'application.
Par exemple, un modèle d'IA développé pour un usage médical à partir du modèle GPT d’Open AI, héritera des biais systémiques présents dans le modèle d’Open AI, auxquels viendra s’ajouter un héritage de préjugés liés aux données cliniques spécifiques sur lesquelles il est entraîné.
Cela peut se produire même si les données spécifiques de leur entraînement sont relativement exemptes de biais. Le processus d'apprentissage transfère non seulement les connaissances mais aussi les préjugés intégrés dans les modèles de fondation.
Enfin, ces modèles d’IA spécifiques peuvent eux-mêmes faire hériter de leurs biais, le modèle, voire des modèles fondateurs.
Si les données produites par des modèles d’IA spécifiques dans n’importe quel domaine en particulier se trouvent être largement publiées et accessibles sur Internet, elles pourraient effectivement être intégrées dans les corpus de données utilisés pour entraîner ou mettre à jour les modèles d’IA fondateurs.
Cela pourrait créer le cycle de rétroaction similaire à celui qui existe entre biais systémiques et biais spécifiques dans la société, où cette fois, les biais des modèles spécifiques d’IA influencent le ou les modèles d’IA fondateurs à partir desquels les modèles d’IA spécifiques sont conçus.
La probabilité de ce scénario dépend certes de plusieurs facteurs, notamment de la fréquence à laquelle le ou les modèles fondateurs sont mis à jour avec de nouvelles données et de la représentativité des données issues des modèles spécifiques dans l'ensemble du corpus d'entraînement.
Et cela n’a rien d’original. Ces mêmes facteurs prévalent aussi d’une certaine manière à la mise à jour des biais systémiques de notre société, depuis la nuit des temps.
Un vieux problème avec de nouvelles modalités...
Il devient donc essentiel de considérer non pas simplement la question dite « des biais dans l’IA » comme s’il s’agissait de l’adresser de façon intrinsèque à l’A, mais surtout l’interaction complexe entre les biais systémiques et spécifiques, ainsi que les modes de propagation et d’auto-génération dans l'IA.
Vouloir traiter la question des biais de l’IA avec une approche simplement technique visant à « supprimer les biais » des jeux de données, sans même comprendre la dimension sociale qui est intrinsèque aux biais dont elle hérite, est in fine une approche vouée à l’échec. Ces biais, tissés dans la trame même de nos systèmes, se manifestent tant dans le microcosme du spécifique que dans le macrocosme du systémique, influençant imperceptiblement nos jugements et nos actions.
Les efforts pour débiaiser l'IA doivent donc s'attaquer à la fois aux biais systémiques qui se retrouvent dans les modèles de fondation d’IA et aux biais spécifiques qui peuvent se manifester dans des applications plus ciblées.
Cela implique de travailler à la fois sur la diversification et la représentativité des jeux de données, ainsi que sur la mise en place de mécanismes de contrôle et d'évaluation critiques tout au long du processus de développement des modèles. En outre, une compréhension approfondie des interactions entre les modèles de fondation et les modèles d'application spécifique est essentielle pour une approche globale et efficace de la gestion des biais dans les systèmes d'IA.
Par conséquent, au-delà des techniques d’équité algorithmique, trois leviers sont essentiels pour y parvenir et se situent sur le plan de la régulation, de la formation et des organisations.
Pas de responsabilité sans transparence
Il devrait être obligatoire pour chaque système d’IA de révéler clairement aux utilisateurs des informations détaillées sur la composition des jeux de données avec lesquels il a été entraîné, y compris les périodes de collecte, les sources, la diversité des contenus et les méthodologies employées pour leur traitement et leur sélection.
Cette obligation de divulgation aiderait les utilisateurs à prendre des décisions plus éclairées sur la façon dont ils interagissent avec l'IA et sur la confiance qu'ils peuvent lui accorder. Par exemple, si un modèle a été principalement entraîné sur des données provenant d'une région géographique ou d'un groupe démographique spécifique, les utilisateurs devraient être informés de cette limitation, ce qui peut influencer leur interprétation des réponses fournies par l'IA.
Cette exigence de transparence s'inscrit dans une démarche de responsabilisation des créateurs et des utilisateurs d'IA. La divulgation des caractéristiques des données d'entraînement, est le premier pas vers une IA responsable, ancrée dans les réalités de notre monde et consciente de ses propres limitations.
Pour les modèles d’IA fondateurs, tels que GPT d'OpenAI, il est nécessaire que des informations détaillées sur les sources globales de leurs jeux de données soient accessibles. Cela inclut la nature des données (texte, images, etc.), les domaines couverts (actualités, littérature, forums en ligne, etc.), les périodes de collecte, ainsi que l’assurance d’un consentement préalable pour l'utilisation des données lorsqu'elles n'appartiennent pas au domaine public.
Ils devraient également fournir des détails sur les méthodologies utilisées pour le traitement et la sélection des données, y compris les techniques d'échantillonnage, de filtrage, et de pondération des données.
Enfin, ils devraient indiquer les limitations potentielles liées à la diversité géographique, démographique, et culturelle des données.
Pour les modèles d’IA spécifiques, donc développés à partir de modèles fondateurs, des informations relatives aux jeux de données spécifiques utilisés devraient être divulguées. Cela devrait inclure des détails sur le type de données, les sources spécifiques, et la manière dont ces données complètent ou modifient les préconceptions du modèle fondateur.
Des informations sur le contexte spécifique d'utilisation du modèle, y compris les domaines d'application (par exemple, médical, juridique, éducatif) et toute adaptation ou personnalisation effectuée, devraient être fournies.
Les interactions avec le Modèle d’IA Fondateur devraient être expliquées de sorte que la transparence soit faites sur la façon dont les données d'entraînement spécifiques interagissent avec le modèle fondateur, notamment en termes d'accentuation ou de modification potentielles des caractéristiques du modèle fondateur.
Enfin, des audits réguliers par des tiers indépendants sur les systèmes d'IA sont nécessaires pour identifier et corriger les biais avant qu’ils ne deviennent systémiques.
Ces audits, basés sur des pratiques réglementées sont cruciaux pour le maintien d’une qualité d'objectivité, en évaluant les jeux de données, les algorithmes et les résultats pour détecter, rectifier et limiter les phénomènes de propagation potentiels de biais.
Ces audits devraient inclure une analyse approfondie de la transparence et de l'explicabilité des systèmes, tout en vérifiant leur conformité avec les réglementations en vigueur.
De plus, il est essentiel que ces audits prennent en compte les répercussions éthiques et sociétales des systèmes d'IA, en examinant par exemple leur impact sur la vie privée, la sécurité des données et les droits de l'homme.
Les auditeurs devraient également évaluer comment l'IA interagit avec les utilisateurs finaux et dans quelle mesure elle influence les normes sociales et culturelles.
Les audits réalisés sur les modèles d’IA fondateurs devraient vérifier la transparence des méthodes d'entraînement et l'explicabilité des décisions prises par le modèle, ainsi que leur conformité aux normes réglementaires et éthiques.
Ils devraient tenir compte de l'impact global du modèle sur la société, y compris la vie privée, la sécurité des données, et les droits de l'homme, ainsi que son influence sur les normes sociales et culturelles.
Concernant les audits des modèles d’IA spécifiques, ils devraient évaluer la manière dont les données et les algorithmes spécifiques sont utilisés et gérés.
Les auditeurs devraient examiner comment les adaptations spécifiques interagissent avec le modèle fondateur et influencent les résultats, en particulier en ce qui concerne les biais et les inexactitudes.
Il est crucial que les audits des modèles spécifiques considèrent leur impact dans le contexte spécifique, y compris les implications éthiques et sociétales, comme les effets sur des patients dans le domaine du médical ou sur des décisions de justice dans le domaine du juridique.
Une telle démarche contribuerait grandement à renforcer la transparence, donc la confiance du public dans l'utilisation des technologies d'IA.
De la nécessité d’apprendre à décoder
La mise en place de programmes de formation à la détection des biais dans les organisations et les institutions constitue une des étapes cruciales dans le développement et l’adoption responsable de l’IA.
Ces programmes devraient aider à plonger au cœur des biais humains et des différences culturelles pour permettre d’appréhender la complexité des spectres. L'éducation sur la manière dont les biais se forment et influencent nos systèmes de pensées et, en conséquence, influencent celui de l'IA, peut aider à développer des perspectives débiaisées.
L'analyse critique de nos préjugés implicites, la compréhension de l'impact des stéréotypes et la promotion de l'empathie interculturelle sont autant de moyens pour y parvenir et concevoir des technologies d'IA plus justes et inclusives.
Les développeurs de modèles d’IA fondateurs devraient être formés pour comprendre et identifier les biais potentiels dans de vastes ensembles de données. Cette formation devrait couvrir la manière dont les biais culturels et sociétaux peuvent se manifester dans des données diverses et comment les atténuer.
Ces programmes devraient promouvoir une compréhension de la diversité culturelle et encourager le développement de modèles d'IA inclusifs et représentatifs de différentes perspectives.
Les développeurs de modèles spécifiques d’IA devraient recevoir une formation axée sur la détection et la gestion des biais dans les contextes spécifiques de leur domaine d'application, tels que la santé, la finance ou l'éducation.
Ceci devrait inclure des modules sur la manière dont les modèles spécifiques interagissent avec les modèles fondateurs et comment les adaptations ou les modifications peuvent influencer les biais.
De telles formations devraient également intégrer des perspectives interdisciplinaires, combinant des connaissances techniques avec des insights provenant de domaines tels que l'éthique, la sociologie, et la psychologie, pour comprendre l'impact de l'IA dans des contextes spécifiques.
Par ailleurs, l'éducation à la pensée critique dans les programmes scolaires, devrait être renforcée pour bâtir les compétences nécessaires permettant d’affronter la surexposition moderne à l’information et réduire l'impact négatif des biais cognitifs spécifiquement liés à l’IA.
Ces programmes devraient enseigner sur la manière de scruter méticuleusement les sources d'information, reconnaître les éventuels biais médiatiques, différencier le crédible de l'incertain, et comprendre le scepticisme comme un élément essentiel de la démarche scientifique.
Ils devraient également inclure des formations sur la manière d'évaluer les arguments, distinguer les faits des opinions, et développer une compréhension de la façon dont nos propres préjugés et perspectives peuvent influencer notre interprétation de l'information.
Ces programmes devraient permettre d’apprendre à évaluer de manière critique les résultats générés par les modèles d'IA fondateurs, en comprenant que ces résultats peuvent refléter des perspectives ou des préjugés, non pas individuels, mais plutôt issus de larges corpus de données.
Ils devraient permettre l’appropriation de méthodologies permettant d’encourager le scepticisme envers les conclusions tirées des modèles d’IA fondateurs, tenant compte que ces conclusions peuvent être influencées par des biais de nature systémiques.
En complément, des programmes devraient se concentrer sur les méthodes permettant de faire l'analyse critique des résultats produits par les modèles d'IA appliqués dans des domaines spécifiques. Par exemple, en médecine, comprendre comment les données de patients peuvent présenter des biais en raison de limitations dans la collecte de données ou de préjugés dans les pratiques médicales.
Ces programmes devraient aussi permettre d’apprendre à différencier entre les données et les résultats qui sont spécifiques à un domaine particulier, et ceux qui peuvent être influencés par les tendances globales du modèle fondateur.
Enfin, l'éducation interpluridisciplinaire doit se développer. Cette approche éducative doit viser à cultiver une compréhension profonde des implications éthiques, sociales, sociétales, environnementales, juridiques et culturelles des technologies de l’IA.
L'éducation doit donc transcender les frontières traditionnelles des disciplines
Cette éducation interpluridisciplinaire doit commencer dès les premières étapes de la formation académique et pouvoir se poursuivre tout au long de la carrière professionnelle.
Pour appréhender les enjeux propres aux modèles d’IA fondateurs, les approches éducatives devraient inclure une compréhension des impacts environnementaux et juridiques de ces modèles qui traitent des quantités massives de données et peuvent avoir un impact significatif sur les ressources et les réglementations.
L’approche devrait aussi aborder ces impacts dans des contextes d'application spécifiques, soulignant comment les modèles spécifiques peuvent affecter ou être affectés par les lois et l'environnement dans des secteurs particuliers.
L’addition de différences pour soustraire aux biais
L’encouragement de la diversité parmi les équipes de développement d'IA est un atout pour aider à réduire les biais individuels et systémiques.
Des équipes diversifiées apportent un éventail de perspectives, d'expériences et de compréhensions qui peuvent aider à identifier et à corriger les biais potentiels dans les systèmes d'IA.
Par exemple, une équipe composée de personnes de différentes origines ethniques, cultures, genres, orientations sexuelles et capacités peut être plus à même de reconnaître les stéréotypes ou les préjugés dans un jeu de données.
Encourager une telle diversité, représentative de diverses cultures et sociétés est crucial pour les modèles d’IA fondateurs, car ils sont souvent utilisés à l'échelle mondiale et doivent donc refléter une compréhension globale de diverses perspectives.
Incorporer des activités de « red teaming » avec des équipes internationales pour tester et identifier les biais globaux dans les modèles d’IA fondateurs permettrait d’aider à repérer les préjugés qui pourraient être invisibles dans un contexte culturel, mais évidents dans un autre.
Les équipes devraient se concentrer spécifiquement sur l'identification et la correction des biais systémiques qui peuvent être intégrés dans de vastes ensembles de données.
Pour les équipes développant des modèles d'IA spécifiques, encourager une diversité en leur sein pour refléter le contexte spécifique d'utilisation du modèle d'IA est aussi primordial. Par exemple, pour un modèle d'IA utilisé dans le domaine de la santé, inclure des professionnels de différentes disciplines médicales devrait être un passage obligé.
Également, faire collaborer ensemble des équipes de « red teaming » spécialisées pour tester des modèles d'IA dans des contextes spécifiques, en veillant à ce que les équipes comprennent des experts du domaine concerné est une nécessité.
C’est le gage d’une meilleure reconnaissance et correction des biais qui pourraient survenir en raison de la spécialisation du modèle et de son application dans un domaine particulier.
Par ailleurs, instituer un processus de retour d'information continu est crucial pour améliorer constamment les systèmes d’IA. Ce processus devrait permettre aux utilisateurs et à toutes les parties prenantes concernées de signaler facilement les problèmes de biais qu'ils observent dans les systèmes d'IA.
Ces retours sont essentiels car ils fournissent des perspectives réelles et pratiques sur la manière dont l'IA fonctionne dans des contextes variés et avec des populations diverses. Ces informations peuvent ensuite être utilisées pour affiner et ajuster les algorithmes.
Un tel processus encourage également une dynamique de responsabilisation et de transparence, renforçant la confiance des utilisateurs dans les technologies d'IA.
Aucune IA responsable ne le sera à notre place
L'IA fait de la responsabilité humaine un des enjeux primordiaux de notre époque.
Mettre uniquement en lumière ce qui doit être amélioré dans l’apprentissage de l’IA, nous empêche de regarder cet enjeu plus grand qui est celui de l’apprentissage humain, levier fondamental d'amélioration de nous-mêmes, et donc des IAs que nous cré(er)ons.
Notre ère nous offre une chance, non pas celle de nous livrer à la simple manipulation des données qui nourrissent nos IA – espérant ce faisant extirper les préjugés de notre monde – mais d'affiner notre jugement critique.
Nous sommes appelés à guider nos choix par des valeurs profondément ancrées dans l'humanité, transcendant la simple correction algorithmique.
Ne demandons pas simplement ce que l'IA peut faire pour chacun de nous – demandons-nous ce que nous pouvons faire pour que l'IA serve l'humanité.
Hamilton Mann est fondateur de ‘The Hamilton Mann Conversation’ et Senior Lecturer INSEAD, HEC et EDHEC.
Participer à la conversation