Un visage pixellisé artistique

Racisme, sexisme : peut-on arrêter les algorithmes ?

Ce n’est plus un secret : les algorithmes sont biaisés. Mais au lieu que de s’en contenter, certains évoquent des pistes pour les arrêter. Et c’est plutôt une bonne nouvelle !

Au quotidien, cela se traduit par des billets d’avion plus ou moins chers selon le lieu où vous vous trouvez. Dans d’autres cas, ça se traduit par une invisibilisation des minorités.

Quoiqu’il en soit, c’est problématique, car non content de véhiculer des biais, les algorithmes reproduisent les inégalités sociales. Pour Yasmeen Ahmad, directrice de la division Think Big Analytics de Teradata, il est important pour les professionnels de « nettoyer les données » qui sont responsables de ces biais, « de les préselectionner avant leur utilisation ». Par exemple, elle propose de mettre en place une forme d’autorégulation. Et que les entreprises ne s’y méprennent pas : « la principale conséquence des biais sera le rejet d’une marque ou d’un service ». Elles ont donc tout intérêt à œuvrer pour plus de transparence et rectifier le tir.

Contrôler ou autoréguler les algos ?

En France, la mission Villani pose les bases du sujet. Le médiatique député milite pour un meilleur audit des algorithmes, une forme de transparence dans l’intelligence artificielle, et une éthique « par défaut » dès la conception des algorithmes (Ethics by design). Le concept vous paraît flou ? Il pourrait pourtant permettre de responsabiliser l’ensemble des acteurs, depuis la conception jusqu’au développement et à la mise en service.

En Grande-Bretagne, la Chambre des Lords a publié un rapport poussant à la création d’outils capables « d’auditer et de tester les bases de données, afin de s’assurer qu’elles représentent efficacement la diversité de la population ».

Mais le combat ne se cantonne pas à la sphère politique : des experts commencent à alerter l’opinion publique. C’est le cas de Stephen Brobst, directeur technique de Teradata. Celui qui a été reconnu comme l’un des meilleurs CTO – il a notamment collaboré avec Barack Obama – considère qu’il y a là un nouveau terrain de recherche : celui de « l’explicabilité » des algorithmes.  « Il s’agit d’expliquer la manière font un algorithme fonctionne – d’expliquer un fait et de le traduire en données. Cela pousse tout le monde à plus de transparence ».

Est-ce trop tard ?

La pression monte. En Europe, on commence à ériger des règles – et le RGPD pointe le bout de son nez. Ailleurs, on dénonce carrément dans des ouvrages assassins : Virginia Eubanks, autrice et experte en sciences politiques dénonce la manière dont les algorithmes classent et comparent les populations les plus pauvres pour octroyer les aides sociales. Elle détaille ainsi dans son ouvrage, Automating Inequality, comment les algorithmes ont tendance à rejeter les personnes les plus fragiles – contre toute logique. Elle explique comment la technologie ne fait que répliquer les inégalités sociales en y ajoutant une nouvelle couche : l’automatisation.

Selon elle, le fait de transformer les individus en simples données rend les décisions prises par les administrations imparables, difficilement discutables, et jamais contestables – à moins de vouloir s’engager dans d’âpres négociations verbales… Elle rapporte une anecdote personnelle qui fait froid dans le dos. « Un jour, j’ai découvert que mon assurance sociale avait été suspendue à cause d’une prétendue fraude de notre part. En demandant davantage d’informations, j’ai appris que mon cas était entré dans une sorte de pattern automatique de personnes à risque. J’avais souscrit à une nouvelle assurance peu de jours avant un accident survenu à mon conjoint, nous n’étions pas mariés et il a dû recevoir des médicaments contrôlés (pouvant être utilisés en tant que drogue). Un combo qui a rapidement alerté l’assurance au point de ne plus nous couvrir, sans même nous avertir. Nous avons dû nous battre pour recevoir les remboursements médicaux », explique-t-elle.

Face à l’automatisation algorithmique, il revient donc aux utilisateurs eux-mêmes de redoubler de vigilance ou de mettre les acteurs techniques face à leurs responsabilités. Scandale Cambridge Analytica oblige, la vigilance des utilisateurs s’accroît concernant le vaste sujet du traitement des données. La récente audition de Mark Zuckerberg devant le Congrès américain a prouvé que les États n’en resteront pas là : dans les années à venir, les gouvernements veilleront sur les algorithmes et les données de leurs entreprises comme autant de biens nationaux. Une conséquence à laquelle les géants de la tech ne s’étaient peut-être pas préparés…

commentaires

Participer à la conversation

Laisser un commentaire