File de filles-robots dans la série Real Humans

« On s'attache à des robots de plus en plus parfaits, qui vont toujours dans notre sens »

© Real Humans de Lars Lundström

Pour la chercheuse Cécile Dolbeau-Bandin parler avec un chatbot ou un robot n’a rien d’anodin. À ses yeux, nous devrions davantage nous interroger sur l’empathie artificielle que ces nouvelles relations provoquent. 

« Merci ChatGPT. » Depuis son lancement, certains utilisateurs s’adressent à ChatGPT comme à un être humain. Peut-être pas comme à un ami, mais comme à une sorte de partenaire de vie serviable à souhait. Certains avouent le remercier, d’autres se moquent de lui ou l'envoient bouler. Ils et elles l’anthropomorphisent. Et c’est assez normal. Cet agent conversationnel est conçu pour paraître le plus naturel possible et pour mimer notre langage.

Parfois, ces simulacres d’humain nous trompent. Des adeptes de Replika, un chatbot programmé pour être empathique, ont entretenu des relations sentimentales et érotiques avec leur compagnon virtuel. Ils se sont trouvés désemparés lorsque Replika a mis davantage de garde-fous pour éviter la production de contenus pornographiques. Dans certains cas, les conséquences sont encore plus tragiques. Fin mars, La Libre révélait qu’un jeune homme belge, éco-anxieux depuis quelques années, s’était suicidé, encouragé par un chatbot avec qui il conversait.

Le mimétisme de ces intelligences artificielles ne cesse de progresser. Au début du mois d'avril, des chercheurs de Stanford et de Google ont recréé une mini-ville virtuelle peuplée de 25 agents artificiels, semblables à ChatGPT, capables d'interagir entre eux. Ces agents ont commencé à se comporter comme de petits humains de leur propre initiative, sans programmation spécifique. Ils se brossaient les dents, discutaient des élections municipales, échangeaient des informations et organisaient des fêtes... Comment envisager nos relations avec ces nouveaux objets virtuels qui imitent de mieux en mieux le langage et le comportement humains ? Pour en savoir plus, nous avons interrogé Cécile Dolbeau-Bandin, chercheuse en sciences de l'information et de la communication à l'Institut pour l'étude des relations homme robots de l'université de Caen. Elle s'est exprimée à l'occasion du festival Turfu à Caen, qui se déroule jusqu'au 15 avril. Cécile est notamment l'auteure d'Un robot contre Alzheimer, Approche sociologique de l'usage du robot PARO dans un service de gériatrie, publié aux éditions C&F, et a contribué à plusieurs ouvrages sur nos relations aux objets numériques.

Vous travaillez depuis plusieurs années sur les interactions entre les humains et les robots. Peut-on créer un lien émotionnel avec un robot ?

Cécile Dolbeau-Bandin : Dans notre culture, on a une image assez formatée des robots tirée des films de science-fiction comme Terminator et Her. Nous avons souvent l’idée d’un robot surpuissant, qui va nous remplacer. Cette idée est assez différente de celle d’autres pays comme le Japon et la Corée, mais aussi de la réalité. Les robots sont utilisés depuis les années 1950 dans les milieux industriels et ils s’immiscent de plus en plus dans d’autres milieux : l’agriculture, les domiciles et l’espace public. Il existe donc déjà de nombreuses interactions humains-robots.

Dans le cadre de mes recherches, je me suis notamment intéressée aux robots sociaux utilisés en milieu médical. Ce qu’on appelle robot social est un robot capable d’identifier des émotions et de faire croire qu’il comprend les humains, et qu’il les aime. Le petit robot Paro est un exemple de cela. C’est un robot animaloïde en forme de phoque utilisé auprès de personnes âgées et de patients atteints de la maladie d’Alzheimer. Il est proposé aux patients, qui acceptent, ou non, la compagnie du robot. Ils peuvent lui parler, et celui-ci va réagir en fonction du son de leur voix, lever la tête, la tourner à gauche ou à droite, et pousser de petits cris. Ils sont intégrés, mais encadrés par un protocole défini car il s’agit d’un objet thérapeutique. L’acceptation des patients varie du rejet à l’attachement fort. Tout dépend de la personne et du moment où on l’utilise. 

Pourquoi a-t-il une apparence animale, et non humaine ?

C. D-B. : C’est d’abord pour le côté Kawaï, car ce robot a été conçu par une entreprise japonaise. Il s’apparente à un phoque, les créateurs ne voulaient pas qu’il ressemble à un chat ni un chien pour éviter l’appréhension des patients, qui pourraient avoir peur d’une éventuelle griffure ou morsure. Les usagers n’ont pas de peur particulière vis-à-vis des phoques. Certains robots sociaux ont des formes plus humanoïdes comme Nao, qui est capable de réaliser des mouvements de gymnastique, il n’a pas la même fonction.  

Ces robots ont un corps. Ce n’est pas le cas de ChatGPT, par exemple, ni celui de chatbots ayant le rôle d’amis virtuels comme Replika ? Qu’est-ce que cela change ?

C. D-B. : Il y a effectivement des robots incarnés comme Sophia, ce robot humanoïde très médiatisé, Nao et Paro. Et puis il y a une autre catégorie de robots – dits désincarnés – que sont les chatbots conversationnels par exemple. Les influenceurs numériques comme Lil Miquela ou Bermuda en font partie aussi. Peu d’études ont été menées sur les robots désincarnés. Les influenceurs numériques, malgré leur absence de corps, parviennent à susciter des interactions et des émotions. Lil Miquela, par exemple, a des millions d’abonnés sur Snap, Instagram, TikTok. Ses abonnés lui parlent, écrivent des commentaires. Est-ce qu’ils font tous la différence avec une vraie personne ? Difficile à dire. Ce robot a l’apparence d’une jeune femme qui pose devant de vraies personnalités – les mannequins Gigi et Bella Hadid, par exemple, ce qui entretient la confusion. Lil Miquela est d’origine brésilienne et défend des valeurs progressistes. Bermuda est blonde, ressemble à une sorte de Barbie et elle est pro-Trump. Leurs créateurs leur ont donné des goûts, des préférences, des opinions. Cela renforce un attachement parce qu’elles défendent des causes et des opinions que des humains partagent.

@lilmiquela

Cozy season has arrived!! shop @pacsun for more 🍁 #fallfashion #robot #pacsun

♬ original sound - MIQUELA

Lorsque Paro est présenté en Ehpad, le personnel précise bien qu’il s’agit d’un robot. Il ne doit pas y avoir de leurre, ni de confusion. Or, ce n’est pas toujours le cas lorsque vous croisez un influenceur virtuel ou lorsque vous discutez avec un chatbot qui mime très bien notre langage. 

Pourquoi a-t-on besoin de rendre les robots plus humains ? 

C. D-B. : L’anthropomorphisme des objets est un phénomène ancien. L’animisme existe dans de nombreuses cultures dites primitives. Pour la robotique, cela est aussi une question d'adaptabilité – par exemple un robot humanoïde s’adapte mieux à notre environnement et cette ressemblance faciliterait l’acceptation sociale. Et surtout, il y a un but commercial derrière cet anthropomorphisme. Hanson Robotics, la société derrière le robot Sophia, lui a donné une apparence humaine très réaliste, lui a donné un genre – ce qui pose par ailleurs question – elle lui a créé un profil sur les médias sociaux. Et c’est la société Hanson Robotics qui parle à travers elle, puisque toutes ses interventions sont « scriptées ». L’objectif est de faire accepter les robots, afin de mieux les commercialiser, de les intégrer de plus en plus dans les domiciles. Sophia permet à Hanson Robotics de commercialiser « Little Sophia », une sorte de petit assistant qui aide les enfants à faire leur devoir. Pour moi, le problème n’est pas tant le fait d’anthropomorphiser les robots, mais plutôt l’empathie artificielle que cela provoque. On va s’attacher de plus en plus à ces objets parce qu’ils nous ressemblent.

Et pourquoi est-ce problématique ?

C. D-B. : On va s’attacher à des objets de plus en plus parfaits, qui vont toujours dans notre sens. Replika ou ChatGPT sont consensuels, ils ne font pas de vague. Cela pose question quant à notre esprit critique, mais surtout à notre attachement aux autres. Ne va-t-on pas préférer des objets qui vont nous paraître quasiment parfaits à une communication humaine, qui par nature, est imparfaite ?

Il serait intéressant de mener des études auprès des enfants qui vont grandir avec ces objets. Auront-ils plus de recul que nous ? Vont-ils les considérer comme des objets, des « robjets » pour reprendre le terme de Serge Tisseron, ou des miroirs d’eux-mêmes ? Ces questions me paraissent essentielles puisque nous allons être de plus en plus entourés par ces influenceurs numériques, ces avatars… Ils vont parler comme nous, avoir une gestuelle similaire à la nôtre. Je suis étonnée que peu de chercheurs se posent ce type de questions, car nous sommes à un tournant important.

Dans vos travaux, vous montrez tout de même qu’il y a des bienfaits à ces robots compagnons… 

C. D-B. : Je ne suis pas technophobe ni technophile. J’observe ce qu’il se passe sur le terrain. Il y a des effets bénéfiques bien sûr dans le cas de Paro : une meilleure mémorisation chez certains patients, une baisse de l’agressivité, une baisse des angoisses crépusculaires… Mais un robot est un objet particulier, qui nécessite un certain accompagnement. Il ne faut pas qu’il soit utilisé seul par une personne vulnérable comme une personne âgée ou un enfant. Et c’est quelque chose que l’on a tendance à oublier. On commercialise très facilement et sans accompagnement des produits comme ChatGPT, qui sont des objets particuliers. Ce ne sont pas des tables basses ou des micro-ondes, ils nécessitent des explications, une éducation, y compris des plus jeunes. On pense que les enfants savent mieux que nous concernant l’usage des médias sociaux notamment, mais c’est une erreur, il faut les accompagner avec bienveillance. C’est ce que montrent notamment les travaux d’Anne Cordier ou de Danah Boyd.

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

Laisser un commentaire