Ce n’est plus un secret : les algorithmes sont biaisés. Mais au lieu que de s’en contenter, certains évoquent des pistes pour les arrêter. Et c’est plutôt une bonne nouvelle !
Quoiqu’il en soit, c’est problématique, car non content de véhiculer des biais, les algorithmes reproduisent les inégalités sociales. Pour Yasmeen Ahmad, directrice de la division Think Big Analytics de Teradata, il est important pour les professionnels de « nettoyer les données » qui sont responsables de ces biais, « de les préselectionner avant leur utilisation ». Par exemple, elle propose de mettre en place une forme d’autorégulation. Et que les entreprises ne s’y méprennent pas : « la principale conséquence des biais sera le rejet d’une marque ou d’un service ». Elles ont donc tout intérêt à œuvrer pour plus de transparence et rectifier le tir.
Contrôler ou autoréguler les algos ?
En Grande-Bretagne, la Chambre des Lords a publié un rapport poussant à la création d’outils capables « d’auditer et de tester les bases de données, afin de s’assurer qu’elles représentent efficacement la diversité de la population ».
Mais le combat ne se cantonne pas à la sphère politique : des experts commencent à alerter l’opinion publique. C’est le cas de Stephen Brobst, directeur technique de Teradata. Celui qui a été reconnu comme l’un des meilleurs CTO – il a notamment collaboré avec Barack Obama – considère qu’il y a là un nouveau terrain de recherche : celui de « l’explicabilité » des algorithmes. « Il s’agit d’expliquer la manière font un algorithme fonctionne – d’expliquer un fait et de le traduire en données. Cela pousse tout le monde à plus de transparence ».
Est-ce trop tard ?
Selon elle, le fait de transformer les individus en simples données rend les décisions prises par les administrations imparables, difficilement discutables, et jamais contestables – à moins de vouloir s’engager dans d’âpres négociations verbales… Elle rapporte une anecdote personnelle qui fait froid dans le dos. « Un jour, j’ai découvert que mon assurance sociale avait été suspendue à cause d’une prétendue fraude de notre part. En demandant davantage d’informations, j’ai appris que mon cas était entré dans une sorte de pattern automatique de personnes à risque. J’avais souscrit à une nouvelle assurance peu de jours avant un accident survenu à mon conjoint, nous n’étions pas mariés et il a dû recevoir des médicaments contrôlés (pouvant être utilisés en tant que drogue). Un combo qui a rapidement alerté l’assurance au point de ne plus nous couvrir, sans même nous avertir. Nous avons dû nous battre pour recevoir les remboursements médicaux », explique-t-elle.
Participer à la conversation