Une photo d'identité d'une femme ressort sur un tas de Des photos d'identité
© filadendron via GettyImages

Les algorithmes recrutent en masse (et on ne sait pas s'ils sont vraiment objectifs)

Le 15 févr. 2021

Près de 40 % des services RH utiliseraient des algorithmes prédictifs. La bonne nouvelle c’est qu’ils commencent à être audités. La mauvaise est qu’il reste complexe de mesurer leur prétendue objectivité.

Demander à un candidat de gonfler des ballons sur un jeu vidéo pour vérifier ses compétences. L’idée peut paraître absurde. Pourtant de grandes entreprises comme le cabinet de conseil Boston Consulting Group ou McDonald's ont opté pour cette méthode. Le jeu en question fait partie de la dizaine de jeux de recrutement développés par l’entreprise new-yorkaise Pymetrics. Un algorithme analyse la partie jouée par le candidat afin de déterminer si celui-ci a une bonne tolérance au risque, ou s’il est capable d’apprendre vite. Un exemple parmi d’autres d’intelligences artificielles dédiées au recrutement. D’autres comme Meteojob préfèrent scanner les CV en ligne, HireVue, analyse quant à elle les expressions faciales d’un candidat et le ton de sa voix…

Le taux de pénétration de ce type de technologie aurait sensiblement augmenté ces dernières années. Les recruteurs les utilisent pour faire face à la masse des candidatures. En particulier depuis la pandémie avec la forte hausse des demandeurs d’emplois, décrit le MIT Technology Review. Selon une étude du cabinet Mercer menée auprès de 7 500 managers RH à travers le monde en 2020, 39 % des services de ressources humaines utilisent des algorithmes prédictifs, contre 10 % en 2016.

Les entreprises qui éditent ces algorithmes les présentent comme une façon plus objective et neutre de recruter. Mais des chercheurs ont déjà mis en garde sur leur opacité et l'éventuelle amplification des biais existant.

Les entreprises payent pour prouver que leurs algos sont objectifs

Pour faire face à ces inquiétudes, certaines entreprises comme Pymetrics font appel à des organismes indépendants pour faire auditer leurs algorithmes. « Cela va dans le bon sens », note la professeure de droit Pauline Kim, interrogée par le MIT Technology Review. Les auditeurs ont cherché à savoir si l’algorithme respecte la règle des quatre-cinquièmes, utilisée aux États-Unis pour identifier d’éventuelles pratiques discriminatoires chez les employeurs. Selon cette règle, si 100 % des hommes passent une étape d’un processus de recrutement, alors au moins 80 % des femmes doivent également passer cette étape. Idem entre candidats de différentes origines. Selon les chercheurs en charge de l’audit, Pymetrics respecte bien cette règle.

Mais cet audit reste limité, note le MIT Technology Review. Il ne dit pas si les algorithmes de Pymetrics sont réellement dénués de biais, et c’est pourtant ce que revendique l’entreprise sur son site web. Il ne cherche pas à savoir si un groupe spécifique de personnes est discriminé par rapport à un autre – des femmes noires par rapport à des hommes asiatiques par exemple. Et il n’évalue pas la réelle efficacité de Pymetrics : les jeux dopés à l’I.A parviennent-ils à trouver les meilleurs candidats pour une offre d’emploi ? De manière générale, ces audits d’intelligence artificielle sont opérés par des organismes qui sont payés (environ 100 000 dollars dans le cas des auditeurs de Pymetrics) par les sociétés éditrices. « Il y a un risque que l’auditeur soit influencé par son client », note Pauline Kim.

Aux États-Unis, des datas scientists plaident donc pour qu’une réglementation soit mise en place afin d’encadrer systématiquement l’utilisation de ces algorithmes. Et des élus ont suivi. En 2019, l'Illinois a mis en place une loi obligeant l'employeur à demander la permission au candidat avant d'enregistrer une vidéo de son entretien à distance et d'y appliquer des algorithmes d'intelligence artificielle, rappelle le JDN. L’employeur doit également l'informer des critères que le logiciel utilisera pour l'évaluer et supprimer ses données sous un délai de 30 jours.

De notre côté de l’Atlantique, la Commission européenne s’intéresse aussi à l’éthique des intelligences artificielles. En 2019, un guide a été publié pour permettre aux entreprises qui utilisent des algorithmes de s’assurer que ceux-ci respectent un certain nombre de règles, dont la non amplification de biais. Mais ces règles n’ont rien d’obligatoire pour le moment.

Les offres d’emplois sexistes de Facebook

Pour la chercheuse et informaticienne Cathy O’Neil, le problème se situe bien en amont des algorithmes utilisés. Il y a déjà une forme de discrimination lorsqu’une personne voit certaines annonces d’emplois sur Facebook, Monster ou LinkedIn selon ses données démographiques, expliquait-elle dans une interview à Business Insider. Fin 2020, Algorithm Watch lui a donné raison. Une enquête réalisée par l’organisme et plusieurs médias a démontré que les offres d’emplois diffusées sur Facebook et Google étaient ciblées selon des stéréotypes sexistes. En France, une annonce pour un poste de camionneur·euse a été diffusée sur Facebook à 2 427 hommes et seulement à 327 femmes. Une autre pour un poste en puériculture, lancée au même moment, a été diffusée à 1 787 femmes et à près de 10 fois moins d'hommes (186).

Marine Protais - Le 15 févr. 2021
À lire aussi

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.