
Des chercheurs de l’université de Stanford ont utilisé l’IA DeepMind de Google pour développer des agents autonomes pouvant simuler les pensées et opinions de vraies personnes.
Cette expérience a tout d’un film de science-fiction. Invités dans les laboratoires de l’université de Stanford, un peu plus de 1000 cobayes ont été incités à interagir avec l’IA DeepMind de Google pendant quelques heures. Après avoir lu un court passage de Gatsby le Magnifique, les volontaires devaient ensuite raconter l’histoire de leur vie à un petit personnage de jeu vidéo et répondre à des questions variées sur leurs origines ethniques, la composition de leur famille, leurs opinions politiques, revenus, l’utilisation des réseaux sociaux ou le stress lié à leur travail. Avec seulement 6000 mots tapés, l’IA a ensuite été capable de répliquer le caractère et la manière de penser des sujets avec un taux de précision de 85 %.
Cyber foule sentimentale
Cette étude intitulée Generative Agent Simulations of 1,000 People a pour objectif d’expérimenter la fabrication d’une foule virtuelle pouvant présenter des opinions aussi variées qu’un véritable groupe témoin. « Comment un ensemble diversifié d’individus pourrait-il, par exemple, réagir à de nouvelles politiques et à de nouveaux messages de santé publique, réagir au lancement de nouveaux produits ou réagir à des chocs majeurs ? », expliquent les chercheurs. « Lorsque des individus simulés sont combinés en collectifs, ces simulations pourraient aider à piloter des interventions, à élaborer des théories complexes capturant des interactions causales et contextuelles nuancées, et à élargir notre compréhension de structures telles que les institutions et les réseaux dans des domaines tels que l’économie, la sociologie, les organisations et les sciences politiques. » Avec ce système, il est donc techniquement possible de proposer à cette simulation de public des idées ou des décisions politiques et économiques et de tester les réactions.
Humain mais pas trop
L’expérience a aussi démontré que certains aspects de la psyché humaine sont plus difficilement reproductibles. Alors que les IA ont réussi à simuler le « caractère » des sujets par l’intermédiaire des tests psychologiques comme les General Social Survey (GSS) et le Big Five Personality Inventory (BFI), elles ont eu beaucoup plus de mal à répliquer les décisions prises par les humains lors des jeux économiques. Ces derniers sont des expériences de pensée comme le dilemme du prisonnier (deux complices sont arrêtés et interrogés séparément et chacun a le choix entre trahir l'autre (en espérant une peine réduite) ou coopérer en gardant le silence) ou le jeu du dictateur (un joueur, appelé le "dictateur", reçoit une somme d'argent et a le pouvoir de décider comment la partager avec un autre joueur, le "receveur", qui n'a aucun pouvoir de négociation ou de décision). Dans ces deux épreuves, l’IA n’arrivait qu’à un taux de 60 % de corrélation avec l’humain imité.
Malgré ces imperfections, cette nouvelle forme d’utilisation des IA est très proche d’une réelle utilisation, que ce soit par des gouvernements, des grandes entreprises ou par n’importe qui. Les conséquences négatives sont faciles à imaginer. Depuis la récupération plus ou moins consentante de nos données privées permettant de façonner un double numérique, à son utilisation pour tester les meilleures méthodes pour nous manipuler, ou la prise de décisions politiques basée sur une approximation de foule humaine, le champ des possibles invivables est infini.
Participer à la conversation