
Les algorithmes sont partout et savent tout (ou presque) de nous. Face à leur influence croissante sur nos vies, nos métiers et nos business, et en l’absence de réglementation, certaines villes prennent les devants pour imposer plus de transparence.
Début février, le tribunal administratif de la Guadeloupe a enjoint l’université des Antilles de publier les algorithmes locaux utilisés par l’établissement sur Parcoursup pour classer les candidats. Une première. Cette décision, qui pourrait faire jurisprudence, souligne bien que le temps de la naïveté envers les algorithmes qui nous gouvernent est révolu.
Ouvrir les “boîtes noires”
Dans son rapport consacré aux intelligences artificielles publié en 2018, le député de l’Essonne Cédric Villani posait déjà les principes du problème posé par l’opacité des algorithmes, soupçonnés de provoquer certains effets pervers comme les bulles de filtres et les biais. Il s’agit du fameux problème de “la boîte noire” : l’IA est aujourd’hui capable de produire des résultats très précis sans que l’on puisse parfois expliquer comment elle y est parvenue. En clair, la mécanique interne des IA (la “boîte noire”) nous échappe.
Or, cette mécanique peut influencer nos vies. Une récente étude de la fondation Panoptykon souligne que nous ne contrôlons réellement qu’un tiers de notre identité en ligne, graphique à l’appui. Concrètement, les algorithmes s’appuient sur les informations que nous partageons consciemment (tout ce qu’on communique via les réseaux sociaux et les applications) ou non (notre comportement en ligne et les métadonnées que nous laissons derrière nous), puis extrapolent pour produire un troisième niveau de connaissance, beaucoup plus profond, de notre double numérique.
Aux États-Unis, les banques, les assurances ou les services de santé modifient leur offre en fonction de ce reflet. En Chine, ces éléments permettent de calculer le fameux score social qui détermine votre place dans la société. Or, un système déterminant pour les choix et l’avenir des humains doit être transparent et explicable. Ouvrir ces “boîtes noires” est devenu un enjeu majeur pour éviter les biais et garantir la neutralité des algorithmes utilisés.
Une obligation de transparence éparse
Faute de réglementation en la matière, les citoyens américains s’organisent, avocats et activistes en tête, pour réfléchir à une obligation de transparence des algorithmes. « La FDA a été créée au début du XXe siècle pour encadrer les produits alimentaires et les produits pharmaceutiques, expliquaient récemment Dan Greene, expert médias et Genevieve Patterson, spécialiste des données, dans IEEE Spectrum. De même, les fournisseurs d’IA qui vendent des produits et des services qui affectent la santé, la sécurité et la liberté des personnes pourraient être tenus de partager leur code avec un nouvel organisme de réglementation »,
Dans un rapport publié en décembre par l’institut AI Now, un groupe de chercheurs a repris cette idée à son compte, appelant les fournisseurs et les développeurs qui créent des systèmes de décision automatisés et d’intelligence artificielle à l’usage du gouvernement de renoncer au secret commercial ou à toute autre revendication légale « empêchant un audit et une compréhension complets de leurs logiciels. »
Qui gouverne les algorithmes ?
Pour combler le vide juridique autour des algorithmes, certaines municipalités américaines appliquent leurs propres règles de transparence pour les algorithmes du secteur public. En 2017, le conseil municipal de New York a adopté une loi de responsabilisation algorithmique. En Californie, plusieurs villes ont adopté des ordonnances strictes régissant l’achat de technologies de surveillance (logiciels d’analyse des médias sociaux, équipements de reconnaissance faciale, lecteurs de plaques d’immatriculation…). Objectif avoué de ces démarches : en finir avec l’opacité pour garantir aux citoyens une plus grande liberté de décision et une meilleure protection de leur vie privée
Dans son rapport, Cédric Villani estimait que les algorithmes devraient être audités, en respectant évidemment les secrets industriels des entreprises, pour savoir quelles données ils utilisent et s’ils comportent des biais. C’est ce que propose l’Inria depuis l’an dernier avec Transalgo, une plateforme scientifique inédite en Europe qui étudie la transparence des algorithmes et des données. Au-delà des enjeux techniques et juridiques, la généralisation de l’usage des algorithmes pose des questions d’éthique et de choix de société que les Etats n’ont pas encore tranchées.
HOW, c’est le média qui donne la parole aux experts et expertes de l’innovation.
POUR ALLER PLUS LOIN :
I.A. : 5 idées reçues à déminer (d'urgence) pour apprendre à bien travailler avec elle
L'intelligence artificielle va-t-elle finir par transformer les créatifs en une armée de clones ?
Intelligence artificielle : tout le monde va en profiter, surtout les Américains
Participer à la conversation