Qu'ils soient mis en place par des entités publiques ou des organisations privées, les algorithmes ont des conséquences sur notre vie sociale. La fondation Eticas veut les identifier et les classer.
Savez-vous qu’en Pologne, un algorithme détermine le profil des chômeurs avant de leur accorder une aide sociale ? Et qu’en Espagne, ceux qui demandent un soutien financier pour payer leur facture d’électricité sont aussi audités par un algorithme baptisé Bosco ? En France, vous connaissez sans doute Parcoursup qui classe les élèves et leur attribue leur place dans l’enseignement secondaire.… Tous ces algorithmes mis en place par des administrations publiques ou des organismes privés ont des conséquences sur la vie sociale.
Ma vie algorithmique
Depuis 2018, la fondation Eticas a entrepris de les identifier, les classifier et les suivre. Ce qu’elle a nommé son Observatoire des algorithmes à impact social (OASI) recense aujourd’hui 60 programmes dans une quinzaine de pays. On y trouve des initiatives d'État, comme celles citées plus haut, mais aussi des algorithmes d’entreprises privées que nous utilisons presque tous les jours (Netflix, Google…). « La mise en œuvre des algorithmes par les entités publiques et organisations privées a toujours des conséquences sur la vie sociale, juge Sirivan Prak, sociologue et membre d’Eticas. Car ces algorithmes sont généralement basés sur des données publiques, et qu’ils peuvent déterminer la répartition des ressources et des services publics… Lorsque ces algorithmes provoquent des discriminations ou ne fonctionnent pas comme prévu, alors on peut dire qu’ils ont un impact négatif. »
Trois personnes chez Eticas dont un journaliste d’investigation s’attèlent à classer ces algorithmes selon leurs conséquences : menace sur la vie privée des personnes, reproduction d’inégalités existantes, discrimination selon le sexe. « Nous comptons sur la participation des citoyens, explique Sirivan Prak. Car il n’est pas toujours facile d’obtenir des informations.» Eticas travaille aussi à partir d’articles de presse, de travaux de recherche et de publications d’autres organismes comme Algorithm Watch.
Des programmes très rarement audités
Le but de ce projet est de susciter une prise de conscience, mais aussi d’inciter les organismes à plus de transparence et davantage de contrôle. La fondation indique d’ailleurs si l’algorithme a été audité ou non. « Mais dans la plupart des cas, soit nous n’avons pas l’information, soit ils n’ont jamais été audités ».
Grâce à son travail fastidieux, Eticas espère recenser près de 200 algorithmes d’ici fin 2022. « Le but est aussi de pouvoir les comparer dans le temps, de dégager des tendances », projette Sirivan Prak.
Les algorithmes à impact social sont d'abord une menace à la vie privée, car autant les algorithmes peuvent être pratiques pour suggérer des gouts musicaux ou es sujets YouTube , autant ils peuvent créer des procès d'intention et des fausses interprétations si ils ont des prétentions sociales.
Je le vis dans les activités de réseautage dans les chambres de commerce au Canada où l'algorithme prétend me "matcher" avec des clients ou des fournisseurs potentiels sur la base d'un questionnaire à base de questions fermées où il manque toutes les subtilités et l'analyse fine .