Un homme perplexe sur fond de lignes de code.

De Parcoursup à Netflix, ce site répertorie les algorithmes à impact social

© MSpiske-Sammy-Williams

Qu'ils soient mis en place par des entités publiques ou des organisations privées, les algorithmes ont des conséquences sur notre vie sociale. La fondation Eticas veut les identifier et les classer. 

Savez-vous qu’en Pologne, un algorithme détermine le profil des chômeurs avant de leur accorder une aide sociale ? Et qu’en Espagne, ceux qui demandent un soutien financier pour payer leur facture d’électricité sont aussi audités par un algorithme baptisé Bosco ? En France, vous connaissez sans doute Parcoursup qui classe les élèves et leur attribue leur place dans l’enseignement secondaire.… Tous ces algorithmes mis en place par des administrations publiques ou des organismes privés ont des conséquences sur la vie sociale. 

Ma vie algorithmique

Depuis 2018, la fondation Eticas a entrepris de les identifier, les classifier et les suivre. Ce qu’elle a nommé son Observatoire des algorithmes à impact social (OASI) recense aujourd’hui 60 programmes dans une quinzaine de pays. On y trouve des initiatives d'État, comme celles citées plus haut, mais aussi des algorithmes d’entreprises privées que nous utilisons presque tous les jours (Netflix, Google…). « La mise en œuvre des algorithmes par les entités publiques et organisations privées a toujours des conséquences sur la vie sociale, juge Sirivan Prak, sociologue et membre d’Eticas. Car ces algorithmes sont généralement basés sur des données publiques, et qu’ils peuvent déterminer la répartition des ressources et des services publics… Lorsque ces algorithmes provoquent des discriminations ou ne fonctionnent pas comme prévu, alors on peut dire qu’ils ont un impact négatif. »

Trois personnes chez Eticas dont un journaliste d’investigation s’attèlent à classer ces algorithmes selon leurs conséquences : menace sur la vie privée des personnes, reproduction d’inégalités existantes, discrimination selon le sexe.  « Nous comptons sur la participation des citoyens, explique Sirivan Prak. Car il n’est pas toujours facile d’obtenir des informations.» Eticas travaille aussi à partir d’articles de presse, de travaux de recherche et de publications d’autres organismes comme Algorithm Watch

Des programmes très rarement audités 

Le but de ce projet est de susciter une prise de conscience, mais aussi d’inciter les organismes à plus de transparence et davantage de contrôle. La fondation indique d’ailleurs si l’algorithme a été audité ou non. « Mais dans la plupart des cas, soit nous n’avons pas l’information, soit ils n’ont jamais été audités ».

Grâce à son travail fastidieux, Eticas espère recenser près de 200 algorithmes d’ici fin 2022. « Le but est aussi de pouvoir les comparer dans le temps, de dégager des tendances », projette Sirivan Prak. 

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

  1. Avatar Philippe Chevalier dit :

    Les algorithmes à impact social sont d'abord une menace à la vie privée, car autant les algorithmes peuvent être pratiques pour suggérer des gouts musicaux ou es sujets YouTube , autant ils peuvent créer des procès d'intention et des fausses interprétations si ils ont des prétentions sociales.
    Je le vis dans les activités de réseautage dans les chambres de commerce au Canada où l'algorithme prétend me "matcher" avec des clients ou des fournisseurs potentiels sur la base d'un questionnaire à base de questions fermées où il manque toutes les subtilités et l'analyse fine .

Laisser un commentaire