
Les logiciels de recrutement alimentés par l'IA reproduisent, et parfois amplifient, les préjugés qu’ils sont censés éliminer. Un problème quand on sait que près de 70 %* des entreprises les utilisent.
Après avoir postulé en vain à près de 100 emplois via la plateforme RH Workday, Derek Mobley a remarqué un schéma suspect. « Je recevais tous les e-mails de refus à 2 ou 3 heures du matin. Je savais que cela devait être automatisé. » Mobley, Afro-Américain handicapé proche de la cinquantaine et diplômé en finance, en a la certitude, il a été victime de discrimination à l'embauche de la part des algorithmes de l'IA. Lui et ses avocats ont déposé plainte le 21 février 2023. Motif : « Le schéma de rejet dont il a été victime laisse supposer l'utilisation d'un algorithme discriminant les personnes noires, handicapées ou âgées de plus de 40 ans. » Pour sa défense, Workday a déclaré que le procès de Mobley était « totalement dépourvu d'allégations et d'affirmations factuelles » et que l'entreprise s'engageait en faveur d'une « IA responsable ». Mais qu’est-ce qu’une IA responsable ? Une question qui dépasse le simple procès Mobley contre Workday, et qui interroge les opposants de plus en plus nombreux à une utilisation de l’IA dans les processus de recrutement.
Une pratique en forte progression
Selon le Japan Times, environ 85 % des grands employeurs américains, utilisent une « forme d'outil automatisé ou d'IA » pour sélectionner ou classer les candidats à l'embauche. Des processus qui incluent l'utilisation de filtres de CV, des outils d'évaluation de l'aptitude d'un candidat à un emploi sur la base d'un test en ligne, ou encore des outils de reconnaissance faciale ou de reconnaissance des émotions qui peuvent analyser un entretien vidéo. « En ce moment, c'est le Far West », s’inquiète Matt Scherer, avocat au Centre pour la Démocratie et la Technologie (CDT), une organisation à but non lucratif qui défend les droits civiques à l'ère numérique.
Les biais d’embauche de l’IA coûtent cher
Une étude publiée par le Forum économique mondial a révélé que certains outils réduiraient de 8 % les chances des femmes de trouver un job. Amazon a d'ailleurs abandonné l'un de ces logiciels après avoir constaté qu'il rejetait automatiquement les CV contenant le mot-clé « femme » (comme « capitaine de club d'échecs féminin » ). Rien de surprenant selon les chercheurs, puisque les algorithmes sont formés sur la base de modèles de CV soumis et validés par des entreprises dans lesquels les hommes sont embauchés de manière disproportionnée par rapport à des candidates tout aussi qualifiées. En se nourrissant de ces données, elles-mêmes discriminatoires, l'IA absorbe les préjugés sexistes implicites. Selon RAND (organisme de recherche à but non lucratif), les biais ne concernent pas seulement le sexe, l'origine ethnique ou encore l'âge. L'IA aurait également des « préjugés techniques » et écarterait des candidatures aux compétences jugées « moins favorables ». Des discriminations qui freinent l'accès à l'emploi, mais qui coûtent (très) cher. Selon leurs estimations, les entreprises américaines perdraient entre 100 et 300 milliards de dollars de productivité chaque année en « négligeant des candidats qualifiés et issus de la diversité. »
La nécessité de réglementer
Une démocratisation du recours à l’IA qui nécessite, voire impose, régulation et réglementations. En mai 2023, l'Equal Employment Opportunity Commission (EEOC) (Commission pour l'égalité des chances en matière d'emploi) a publié de nouvelles lignes directrices pour encadrer et prévenir la discrimination résultant de ces outils qu'elle qualifie de « boîte noire ». En août, l’Agence fédérale a infligé sa première sanction. Le groupe iTutorGroup (plateforme d'éducation en ligne) a été condamné à une amende de 365 000 dollars pour avoir utilisé un logiciel « permettant de rejeter automatiquement les candidats de plus de 40 ans ». En juillet, la ville de New York, est devenue la première juridiction du pays à introduire une loi visant à réglementer les algorithmes d'embauche. Les candidats peuvent désormais demander à être informés lorsque les entreprises ont recours à des « logiciels qui s'appuient sur l'IA ». Rebecca Bauer-Kahan, membre de l'Assemblée de l'État de Californie, a quant à elle présenté une proposition de loi, pour soumettre ces outils à des « audits d'équité ».
Néanmoins, pour certains défenseurs de la vie privée numérique, à l'image de Cody Venzke, conseiller politique principal de l'Union américaine des libertés civiles (ACLU), ces réglementations ( « édulcorées » selon ses termes), ne vont pas assez loin : « Certaines propositions exigeraient que les candidats et les employés lésés prouvent qu'un algorithme a directement causé une discrimination, alors que le véritable préjudice de nombreux outils de recrutement algorithmiques réside dans leur forte influence sur la prise de décision humaine. »
Participer à la conversation