
Repérer des démissionnaires, recruter, gérer la mobilité interne… Les ressources humaines utilisent déjà beaucoup l'intelligence artificielle. Ces usages jugés à « haut risque » par l’AI Act font pourtant le succès de startups.
Il n’y a pas que le remue-ménage chez OpenAI qui a agité le petit monde de l’intelligence artificielle. Depuis quelques mois, un texte de loi anime aussi les conversations. En juin 2023, le Parlement européen a adopté l’AI Act, une loi pour mieux réguler les usages de l’intelligence artificielle après plusieurs années de préparation. Le 6 décembre, le Parlement, la Commission européenne et le Conseil européen se réuniront pour se mettre d’accord sur les derniers arbitrages. Le texte prévoit plusieurs catégories de risques allant de minimes à inacceptables, Dans cette dernière catégorie, on trouve notamment les systèmes de notation sociale. Entre les deux, il y a les catégories à risque intermédiaire et à haut risque. Parmi cette dernière, sont classées toutes les IA employées pour le recrutement et la gestion des salariés.
Le management algorithmique est déjà partout
Ces systèmes, notamment ceux utilisés pour la sélection d'individus, la prise de décision concernant leur promotion ou leur licenciement « doivent être considérés comme à "haut risque" car ils peuvent avoir un effet sur la carrière future et la vie des personnes concernées », explique le texte de loi. Cette classification n’interdit pas pour autant leur utilisation mais elle donne lieu à la mise en place de garde-fous. Ils doivent notamment être davantage transparents, ils doivent faire en sorte de mitiger les risques, et s’ils sont utilisés, c’est à l’humain de prendre la décision in fine. Ils seront audités sur ces aspects. En cas de non-respect, le fournisseur de l’outil comme son utilisateur seront sanctionnés. Pour certaines entreprises, les amendes pourront aller jusqu'à 4 % du chiffre d’affaires.
Cela fait plusieurs années que les entreprises se sont approprié ces outils parfois dits de « management algorithmique ». En Europe, 28 % des entreprises auraient déjà recours à des algorithmes pour recruter, selon un sondage réalisé par la banque d’affaires Littler fin 2022. Et les livreurs des plateformes considèrent déjà l’algorithme comme étant leur manager. Depuis le confinement, la surveillance des salariés s'est largement démocratisée. Et toute une industrie a fait son beurre sur cette promesse : rendre la gestion d’une entreprise plus fluide grâce à l’IA. Des myriades de startups proposent des services en ce sens. Golden Bees se targue d’ « avoir inventé la publicité programmatique pour le recrutement en France ». Elle utilise des algorithmes de deep learning pour mieux cibler les candidats en ligne. La plateforme Albert aide des entreprises dont Engie, Total et Monoprix à anticiper leurs recrutements. T.O.P promet, quant à elle, de réduire le turnover en identifiant les salariés prêts à démissionner au sein de l’entreprise et en proposant des actions pour tenter de les retenir. Cette solution est utilisée par des entreprises en France, en Suisse et en Afrique du Nord depuis septembre 2022. Notamment par un grand groupe du BTP, de grandes entreprises de banque et d’assurances, précise Maxime Cariou, son PDG.
Détecter les démissionnaires
Maxime Cariou accueille l’AI Act plutôt favorablement. Il estime que la réglementation permet de mettre l’accent sur les biais de ces outils, et donc de mieux les corriger. « Selon les données d’entraînement, il est possible que les logiciels d’intelligence artificielle surtraitent une population plutôt qu’une autre », complète-t-il. Son logiciel, comme bien d’autres, s’appuie sur les données passées de l’entreprise. À partir de l’historique des anciens démissionnaires, et d’informations relatives au marché de l’entreprise, il tente de prédire les salariés actuels les plus susceptibles de partir selon leur poste, leur rémunération, leur statut… Maxime Cariou dit aussi être conscient des risques spécifiques de sa solution : « on peut imaginer qu’en sachant que certains salariés sont prêts à démissionner, on va faire en sorte de ne pas le retenir. » L’AI Act apportera à ses yeux plus de transparence et la garantie que l’action envers un individu soit prise par l’humain. « Cela va de manière générale améliorer la compréhension vis-à-vis de l’intelligence artificielle dans le monde des RH. »
L’entrepreneur assure que ses équipes ont déjà commencé à rendre le système de T.O.P. « supervisable » (contrôlable par une personne). Pour le moment, la perspective de la réglementation n’a pas ralenti son activité même si elle donne lieu à des discussions poussées avec les services juridiques de ses futurs clients qui veulent s’assurer que l’utilisation de la solution ne leur portera pas préjudice.
Mais tout le monde n’est pas de cet avis. Certains entrepreneurs jugent que l’AI Act représente un frein à l’innovation. Paul Courtaud, fondateur de Neobrain dit déjà le constater sur le terrain. « On a rallongé de deux mois nos cycles de vente alors qu’en parallèle, l’adoption aux États-Unis de ce type d’outils s’est accélérée. » L’entrepreneur explique ne pas avoir perdu de clients, mais certains projets avec des prospects ont été gelés. « Les entreprises sont perdues, elles ne savent pas comment l’AI Act va les impacter. Cela leur coûte plus cher de s’équiper avec nos solutions parce qu’ils doivent faire appel à des cabinets d’avocat. » Pour maintenir sa croissance face à ce "ralentissement", Neobrain a décidé de miser sur son développement outre-Atlantique, en rachetant l’entreprise américaine Flashbrand.
Des entreprises plus frileuses
Sa startup créée il y a six ans vend une plateforme logicielle permettant aux grandes entreprises de cartographier les compétences des salariés afin d’adapter leur stratégie de mobilité et de formation. La plateforme utilise l’IA pour prédire les compétences clés du moment en se basant sur les offres d’emploi et des études prospectives, mais aussi pour établir un “parcours de développement” de chaque salarié selon ses préférences et compétences en se connectant aux outils de gestion RH de l’entreprise (SAP, Talentsoft…). La startup travaille avec 120 clients, dont Renault, LVMH, Safran et Bosch.
L’entrepreneur estime que certains points de la loi ne sont pas cohérents. « L’AI Act se trompe de cible », dit-il. Il s’étonne par exemple de ne pas voir les usages militaires intégrés au texte de loi, ni les logiciels permettant de créer des deepfakes très facilement catégorisés comme “à haut risque”, estimant que le risque de désinformation lié à ceux-ci est bien plus important que les risques des IA liés à l’emploi.
Autre point de discorde : l’AI Act prévoit des obligations réglementaires pour les « foundations models », c’est-à-dire les grands modèles type GPT-4, le moteur de ChatGPT. Ces modèles sont assez opaques notamment parce que les entreprises créatrices (OpenAI notamment) communiquent peu sur leurs données d’entraînement. Donc toute application – peu importe son usage – incluant un LLM pourrait se trouver empêchée par l’AI Act, craint Paul Courtaud. « Par exemple, pour un cabinet de conseil aux États-Unis, nous avons construit un système de matching interne pour que les salariés soient positionnés sur des missions. On a complété notre solution de base avec un Large language model (un large modèle de langage) pour expliquer les choix faits par notre algorithme de matching. On a constaté que cela a permis de diversifier les profils choisis et d’être plus transparents. Mais en Europe c’est impossible de faire cela, parce que l’ajout du LLM va complexifier la procédure et que les entreprises ne veulent pas prendre ce risque. »
Un lobbying qui pèse dans les négociations
C’est également ce que reproche à la réglementation Arthur Mensch, patron de la startup française Mistral AI qui a levé 105 millions d’euros pour son alternative française à ChatGPT. Pour lui, l’AI Act qui, à l’origine, ne réglementait que les applications de l’IA, s’attaque désormais à la technologie, et c’est une erreur, argumente-t-il. « On ne peut pas réguler un moteur sans considérer son usage. On ne régule pas le langage C parce qu'il peut être utilisé pour développer des logiciels malveillants », explique-t-il dans une publication X justifiant sa position.
Interviewé dans La Tribune, le commissaire européen Thierry Breton a répondu à ces critiques très clairement. Pour lui ces entreprises défendent avant tout leur intérêt particulier, or la loi vise à défendre l’intérêt général. Ce lobbying a toutefois fini par semer la discorde au sein de l’U.E. Puisque mi-novembre, trois pays, la France, l’Allemagne et l’Italie, se sont dressés contre l’intégration des grands modèles (foundation models) dans le texte légal, rapporte Euractiv. « Nous sommes en démocratie et nous sommes dans une phase ultime de trilogue, il est donc certain que le texte va bouger jusqu'au bout, mais nous allons trouver un accord qui ne sera pas là pour défendre ceux qui ne veulent absolument pas de régulation – parce que ça profite à leur modèle économique et enrichit plus rapidement leurs actionnaires. Je le redis, mon rôle est de défendre l'intérêt général », répète encore Thierry Breton dans La Tribune.
Participer à la conversation