Airbnb dit connaître votre location idéale selon votre ADN, des écologues anticipent les effets du réchauffement climatique, des partis politiques prédisent et influencent votre vote... Pour le philosophe Philippe Huneman, la collecte massive des données a créé une société du profilage et de la prédiction du futur proche. Explications.
On a déjà beaucoup dit et écrit sur la collecte des données, les réseaux sociaux, les biais cognitifs, le capitalisme de surveillance qui en découle et la surprésence du numérique. Mais le regard de Philippe Huneman, philosophe des sciences et directeur de recherche CNRS à l’Institut des sciences et des techniques, est différent. Pour lui, cette collecte massive de données ne dessine pas vraiment une société de la « surveillance », mais plutôt une société du profilage. Il la définit comme une nouvelle manière d’avoir des rapports sociaux et de comprendre le monde qui serait basée sur la prédiction du futur proche.
Dans son ouvrage Les sociétés du profilage, évaluer, optimiser, prédire (Payot, janvier 2023), il décrit comment la prédiction est devenue la norme, de l’écologie à Airbnb, en passant par la génétique. Interview
On parle souvent de « société de la surveillance numérique » ou de « surveillance de masse » pour décrire la collecte massive des données. Vous choisissez plutôt le terme de « profilage », pourquoi ?
Philippe Huneman : La première raison, c’est que « profil » est un terme familier. On remplit un profil dès que l’on s’inscrit quelque part, ce qui indique un consentement. On consent à donner son profil, on ne consent pas forcément à être surveillé. Certes, cela reste un consentement non éclairé. Mais cela distingue la notion de profilage et de surveillance. Dans La société d’exposition, le juriste américain Bernard Harcourt insiste, lui aussi, sur le caractère consenti du don de données personnelles.
Ensuite, la société du profilage n’est pas selon moi une implémentation technique plus fine de la société de surveillance telle que l’entendait le philosophe Michel Foucault, c’est autre chose. Selon Foucault, la surveillance advient avec le capitalisme industriel. Il ne s’agit plus de faire peur aux sujets en rappelant la force du Roi, du Léviathan, par des condamnations à mort par exemple. Mais de surveiller que la norme soit respectée dans différents pans de la société : celle des soldats dans une armée, des élèves à l’école, de la productivité des ouvriers à l’usine. Le but de cela est d’augmenter le rendement.
L’enjeu des technologies de collectes et de traitements des données n’est pas tout à fait là. Plutôt que de surveiller, il s’agit avant tout de prédire. Il ne s’agit pas tant de vérifier si une norme est bien appliquée et de punir lorsque ce n’est pas le cas. Il ne s’agit pas non plus de savoir à chaque instant qui est où, qui achète quoi. Mais il s’agit plutôt de prédire ce que vont faire des groupes d’individus. L’accent est mis sur le futur proche.
Comment vous êtes-vous intéressé à ce sujet ?
P.H. : Mon champ habituel de recherche se concentre sur la philosophie de l’écologie et de l’évolution. Je me suis donc beaucoup intéressé à l’idée de causalité et par conséquent, à la prédiction. J’ai notamment travaillé sur l’écologie prédictive, et sur la génomique – sur la prédiction des phénotypes notamment. Dans ces domaines, les chercheurs ont désormais la possibilité de prédire certaines évolutions, les effets du réchauffement climatique ou la perte de biodiversité, à partir d’importantes masses de données sans comprendre les mécanismes de causalité, sans théorie. C’est très net en écologie. On peut par exemple prédire l’évolution d’un étang, sa possible désertfication, à partir de données sur sa température, son pH, son ensoleillement, les entrées et sorties d’eau, les effectifs d’oiseaux et de poissons, etc.. On parle également d’“early warning signals”, des signaux précoces qui alertent de la dégradation d’un écosystème à partir de statistiques.
Par ailleurs, comme beaucoup de personnes, je me pose des questions politiques sur les nouvelles technologies. Les forces productives conditionnent la politique, selon la pensée marxiste. On peut donc se poser la question de ce que les technologies numériques conditionnent comme rapports sociaux, formes de domination et résistance à la domination. La question de la prédiction est, à mes yeux, au centre de cela. La prédiction se retrouve aussi bien dans la recherche en écologie, que dans le profilage fait par les agrégateurs de données.
Qu’entendez-vous exactement par « profil » et « profilage » ?
P.H. : Dans le mot de profil, il y a un double sens. Profiler c’est prédire, à la manière du profiler (spécialiste des sciences du crime) des séries télé qui prédit où trouver un meurtrier à partir de ce que l’on sait de lui, de ses précédents meurtres, et éventuellement d’autres tueurs en série.
Les agrégateurs de données fonctionnent de la même manière : ils prédisent mon comportement, parce que l’on a des milliers de données sur moi, et les personnes qui sont, dans un certain sens, analogues à moi-même.
Le deuxième sens du mot profilage vient de l’aéronautique. Il désigne la géométrie d’une pièce cambrée. Dans le profilage, il y a donc l’idée d’infléchissement des comportements. Celui des consommateurs, bien évidemment, grâce notamment au nudge – un coup de pouce pour nous inciter à faire quelque chose (le bouton « tout accepter », mieux mis en avant que « changer les paramètres de préférences », par exemple). Mais aussi le comportement d’électeurs. L’exemple le plus évident de cela c’est Cambridge Analytica où l’on a montré à certaines personnes faux comptes de réseaux sociaux en sachant qu’on pourrait probablement les faire voter pour le Brexit.
Peut-on se fier à ces montagnes de prédictions que nous livrent ceux qui agrègent et traitent nos données ?
P.H. : Les prédictions ont plus de chance d’être fiables lorsqu’elles s’appuient sur de très importantes masses de données. Mais cela ne fonctionne pas à tous les coups : en écologie il y a beaucoup de faux positifs pour les "early warning signals" et la police prédictive ne marche pas. Le problème n’est pas tant de savoir si la prédiction fonctionne ou pas. Car dans de nombreux cas, la prédiction ne sert pas à savoir ce dont quelqu’un a besoin, mais à construire ce besoin.
Vous écrivez que personne n’a voulu de cette société du profilage. Mais il y a bien eu un glissement. Quand le situez-vous ?
P.H. : C’est une conjonction d'évènements. Le principal est évidemment l’arrivée d’Internet, qui a permis la collecte massive de données. L’un des grands moments de la société du profilage est sans doute la décision du PDG de Google, après la crise de la bulle dot.com, de monétiser les données que recueillait l’entreprise sur les activités des gens. L’arrivée des smartphones en est un autre – ils ont permis de rendre le profilage commensurable à un espace très précis. On sait où se trouvent les gens exactement.
À cela s’ajoutent d’autres données obtenues grâce au développement de la vidéosurveillance, aux images satellites de tout ce qu’il se passe sur la Terre…
La pandémie nous a-t-elle engagés un peu plus dans cette manie de la prédiction ?
P.H. : Le Covid a révélé et accéléré des tendances qui existaient déjà. Il a par exemple rendu pensables des plans de quadrillage et de surveillance du territoire, discutés au Sénat, semblables à ce que fait la Chine. Dans ces plans, les individus sont associés à une couleur, et certaines choses leur sont interdites selon leur couleur… Ce genre de projet n’était pas pensable avant le Covid. La pandémie a été un moment de renégociation de l’articulation liberté-sécurité.
C’est donc en partie une décision des entreprises de la tech et des gouvernements. Mais chacun ne participe-t-il pas à cette société, en y trouvant des bénéfices ?
P.H. : On peut effectivement avoir un point de vue rationnel, faire une analyse coût-bénéfice de ces outils de recommandation, de géolocalisation. Ils sont utiles, donc nous pouvons donner en échange quelques données. C’est assez logique, mais cette analyse est biaisée parce que nous n’avons pas forcément toutes les connaissances des coûts. Si on vous dit : tu donnes des informations servent à une compagnie de matelas qui va te vendre ses produits, vous répondrez peut-être : « je m’en fiche, je peux dire non à leurs matelas » ! Mais si ces mêmes données servent aussi à vous inciter à voter d’une manière qui ne vous convient pas, le coût n’est pas le même, et vous refuseriez cette collecte si on vous la proposait ainsi. Il faut insister sur cette idée d’envers de l’Internet. Les choses que nous acceptons ont un coût caché.
On peut faire une analyse plus métaphysique de ce consentement. On ne sait jamais exactement à quoi on consent, il y a toujours un flou. De même : sait-on exactement ce que l’on veut ? Si on infléchit mon comportement, je n’en aurais peut-être pas conscience car ce que je souhaite au départ n’est pas clair.
Hormis de grandes opérations de manipulation - comme le scandale Cambridge Analytica, quelles conséquences et influences ont ces prédictions sur nos comportements ?
P.H. : Il y a bien sûr un effet sur les comportements de consommation. Mais l’effet va au-delà des comportements individuels. Le profilage infléchit la manière dont les individus se connectent à d’autres. Ce changement n’est pas forcément voulu par l’instance qui construit l’architecture numérique. Mais à partir du moment où on commence à influencer un comportement, cela peut créer de nouveaux comportements de groupe.
Les algorithmes ne fonctionnent pas comme nous. Quand il vous recommande un film, l’algorithme ne l’a pas regardé. Ce sont les proximités entre les films que vous visionnez, et ceux qu’aiment les gens comme vous. Ce type de fonctionnement n’est pas le nôtre, et a un effet sur la manière dont les gens discutent, se trouvent des points communs et créent des dynamiques sociales. Classiquement, les gens ont des idées, et ces idées peuvent aller les unes avec les autres : les communistes avec les socialistes, par exemple. À partir de là, ils discutent et se regroupent. Ce sont des rapprochements sémantiques. Les algorithmes, eux, font des rapprochements probabilistes. C’est intéressant de constater cela. Je ne dis pas d’ailleurs que c’est bien ou mal, c’est juste nouveau. Le livre de Foucault Surveiller et punir n’est pas une condamnation de l’âge de la discipline. Avant, c’était l’âge des supplices et c’était abominable.
Dans votre livre, vous évoquez le métavers, ou GPT-3 (sur lequel est basé ChatGPT). En quoi ces nouvelles technologies sont-elles aussi liées à cette société du profilage ?
P.H. : Le métavers est un environnement dans lequel la référence à l’extérieur est totalement suspendue. C’est à mes yeux, le prolongement de la logique des algorithmes de profilage où il n’y a pas de référence aux contenus. De même ChatGPT dont on parle beaucoup fait des calculs probabilistes mais n’a pas de référence aux contenus. La norme de vérité n’est pas implémentée dans un logiciel comme celui-ci.
Vous mettez aussi en parallèle ces sociétés du profilage et notre incapacité à agir pour l’écologie…
P.H. : Inciter les gens à être plus écolos via le numérique est selon moi une catastrophe. Cela éclipse l’idée que l’une des causes du changement est le système économico-politique. D’autre part, cela rend encore moins possible et désirable le fait que l’on puisse agir au niveau politique. L’idée de profilage induit que la solution aux problèmes est individuelle. Nous ne sommes donc pas dans la politique – des personnes qui se rassemblent, délibèrent et prennent des décisions – mais dans le redressement des comportements individuels. Cette complicité entre néolibéralisme, numérique et solution individuelle éloigne l’horizon politique.
Participer à la conversation