Services publics : le règne discret des algorithmes

Services publics : le règne discret des algorithmes

© FB via ChatGPT

Dans Les algorithmes contre la société, le journaliste Hubert Guillaud révèle comment la technologie transforme nos services publics.

En nous glissant quoi regarder, écouter, acheter, on sait que les algorithmes gouvernent nos interactions sur les plateformes numériques. Mais on sait moins qu’ils se sont aussi immiscés dans nos services publics. Dans Les algorithmes contre la société, un essai très documenté paru aux éditions La Fabrique, Hubert Guillaud révèle comment ces outils décident de nos allocations, de nos places en crèche ou en université… Selon lui, c’est toute une philosophie du social qui est remodelée par les machines – en dehors de tout process démocratique.

Vous affirmez que les algorithmes déployés dans la fonction publique sont en train de « défaire l’État providence », pourquoi ?

Hubert Guillaud : Il y a deux moyens de réduire les services publics : en diminuant les droits et les aides à travers des mesures législatives diverses, et en amoindrissant les services publics eux-mêmes, c’est-à-dire en restreignant leur financement, leur personnel, etc. Ce sont deux mouvements concomitants en France et dans beaucoup de pays du monde ces 30 dernières années, et le numérique est un levier qui permet de faire les deux. D'un côté, en proposant de nouveaux services numériques financés par la puissance publique en échange de la diminution du nombre d'agents. De l'autre, en complexifiant l'accès aux droits. Beaucoup de chercheurs ont documenté comment la dématérialisation de ces dernières années a rendu l’accès aux droits plus compliqué.

L’étendue des données auxquelles la CAF, la Sécurité Sociale, ou France Travail ont accès est méconnue. En quoi est-ce un danger ?

H. G. : Le fait que des administrations qui ont beaucoup de puissance puissent accéder à des données très facilement et puissent de plus en plus les croiser pose un problème de surveillance. Le problème de l'accès au fichier bancaire, appelé FICOBA, est très délicat d’autant qu’il est très peu documenté. Par exemple, les impôts ont accès à nos comptes bancaires, pas aux détails mais aux sommes et au nombre de comptes. D’autres administrations en revanche peuvent avoir des accès totaux, et ce, seulement pour vérifier que vous résidez bien à l’endroit où vous dites vivre. D'autres demandent des accès non seulement à vos données mais également à des informations concernant vos enfants, vos parents, vos conjoints, etc. Et on n'a aucune idée du type d’agent qui accède à quoi et pourquoi. Il règne une grande opacité.

On découvre dans votre livre l’importance du scoring, qui a investi toutes les sphères de la société, souvent à l’insu des individus.

H. G. : En effet, les scores ne sont pas accessibles, ne sont pas publics malgré les obligations qui incombent aux services publics. Ils sont même très secrets. Ils sont le fruit de calculs algorithmiques complexes, reposant sur des données toujours plus nombreuses. Cela donne par ailleurs volontiers lieu à des choses absurdes. Par exemple, le fait que vous vous connectiez plusieurs fois par mois à votre espace CAF, devient un élément en plus du score de risque de la CAF, faisant de vous un individu suspect, à contrôler. Alors qu’il est logique, et non suspect, que vous vous connectiez plus souvent à votre espace CAF si vous avez besoin d'argent. Cela n’a rien à voir avec de la fraude.

Vous pointez aussi le problème des quotas notamment sur Parcoursup. En quoi favorisent-ils la reproduction des inégalités sociales ?

H. G. : Il y en a deux types de quotas sur Parcoursup. Des quotas académiques, c’est-à-dire que chaque formation selon son Académie doit prendre un certain pourcentage d'élèves de l'Académie, et un petit pourcentage d’élèves hors Académie. Et des quotas d'élèves boursiers d’autre part. Mais le nombre de boursiers dans les grandes classes préparatoires françaises, dans les grandes écoles est resté minime, malgré Parcoursup qu’on a vendu comme un outil d'égalisation sociale parce qu'il imposait à toutes les formations des taux de boursiers. Or, quand on regarde très concrètement, les boursiers sont dirigés par les algorithmes vers des formations professionnelles et leur taux n’a pas évolué au sein de Sciences Po, ou des écoles de commerce. Au contraire même, disent plusieurs études, les taux de boursiers se sont dégradés dans les meilleures formations. Mais le vrai problème n’est pas tant l’attribution des places, mais le nombres d’élèves et les réformes menées par l'Éducation nationale. Il y a 30 ans, 400 000 lycéens environ entraient dans le supérieur. Aujourd'hui, c'est 900 000. Or il y a 30 ans, on construisait encore des universités en France. Depuis, on n’en a pas construit. Dans Parcoursup, il y a donc moins de places que d’élèves. On a fait reposer la nouvelle offre sur celle du privé.

Les administrations se dotent parfois de comité d’éthique. Sont-ils efficaces ?

H. G. : France Travail a nommé un comité d’éthique, la CAF serait en train d’essayer d’en monter un, ParcoursSup a un comité scientifique. Mais le problème c'est que ce sont souvent des lieux de l'entre-soi, avec quelques ingénieurs, experts qui échangent entre eux et sans le concours des principaux intéressés : les usagers. Or, pour rendre les systèmes responsables, il n'y a pas de meilleur moyen que de faire entrer les usagers dans les discussions.

Vous plaidez en faveur d’une réappropriation démocratique du débat sur l’IA dans les services publics, cependant, les usagers semblent subir tous ces changements de manière fataliste.

H. G. : Bien sûr qu’il y a un fatalisme, C'est normal. Quand vous recevez une notification de la CAF ou de France travail, la plupart du temps, elle n’est accompagnée d’aucune explication. C'est un mail brut, et joindre quelqu’un par téléphone est une gageure, tant les effectifs de personnel ont été réduits. D’où l'importance de se regrouper, de monter des associations d'usagers pour pouvoir faire pression au sujet de la transparence et des méthodes de calcul, et pour pouvoir échanger. Ce sont nos services publics, nous les payons avec nos impôts. Nous devons rester décisionnaires, nous impliquer pour cela. Nous devons nous demander si ce recours à l’IA, aux algorithmes est le sens unique du développement des services que nous voulons et comment faire autrement. D’autant que le réchauffement climatique et les ressources exigées par ces puissances de calcul nous y obligent. Et que les experts ont démontré que la complexité de ces calculs est rarement plus efficace que des calculs plus simples. Pour faire société, nous avons besoin que les calculs du social soient compréhensibles et accessibles.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
Podacast : En immersion
commentaires

Participer à la conversation

  1. Avatar Patrick dit :

    Ces data des usagers des services publics peuvent-elles être « capturées » par les politiques ? Un ministre qui nécessairement a la connaissance de ces scorings ou datings, peut-il les récupérer directement ou indirectement pour un usage personnel politique ou marchand ?
    Quels sont les gardes fou républicain qui existent et sont-ils efficaces ? Je viens de terminer la lecture de « les ingénieurs du chaos » qui m’a laissé abasourdi 😧

Laisser un commentaire