bannière 2
premium 1
premium 1 mobile
visage emotion IA

Reconnaissance faciale : les IA ne comprennent rien à nos grimaces !

Le 15 mai 2018

Décrypter les 5 émotions en scannant l'expression de notre visage, un jeu d'enfant pour IA ? En fait, non, nous explique la psychologue Anna Tcherkassof : nos émotions et la manière de les exprimer, s'avèrent beaucoup plus ambigüe que prévu !

Traquées, enregistrées, analysées. Les émotions qui s’affichent sur nos visages sont de plus en plus souvent captées par des dispositifs de reconnaissance faciale. L’enjeu est de taille. Détenir des data biométriques sur une personne permettrait de lui simplifier la vie en évitant de la soumettre à l’étape du mot de passe, de mieux l’identifier dans une foule pour la surveiller ou lui proposer des publicités ciblées. On peut s’en inquiéter.

Mais Anna Tcherkassof, docteur en psychologie, l’affirme : la technologie est loin du compte lorsqu’il s’agit de reconnaître une véritable émotion. Ces dernières sont encore bien gardées.

Les systèmes de reconnaissance faciale peuvent-ils lire sur nos visages comme dans un livre ouvert ?

ANNA TCHERKASSOF : Il est important de distinguer deux choses. La reconnaissance faciale au sens strict du terme est aujourd’hui relativement performante. En effet, les machines sont capables de reconnaître des visages et de leur attribuer la bonne identité. Mais elles n’y parviennent qu’à partir d’éléments très stables. Or, sur les photographies d’identité, les visages sont neutres, le cadre est bien défini. Rien ne vient perturber l’algorithme.

Pour ce qui est du décryptage des émotions, cela se complique nettement. De nombreux travaux sont fondés sur un postulat émis par le professeur Paul Ekman, psychologue à l’université de New York. Il suppose que les émotions prototypiques universelles comme la joie, la colère, la tristesse… s’affichent clairement sur notre visage, et qu’il est donc possible de les décrypter. Cette idée sous-tend la grande majorité des systèmes de reconnaissance automatique.

D’autres chercheurs prennent ce raisonnement à contre-pied. Ces spécialistes estiment, tests à l’appui, que les personnes ont des manières très différentes d’afficher la peur par exemple, ou qu’ils ne la montrent pas, même quand ce sentiment les habite. Ils pensent que notre visage n’est tout simplement pas dédié à l’expression des sentiments, ce qui tend à rendre le travail de leur reconnaissance complexe, voire impossible.

Les cinq émotions fondamentales ne répondraient pas à des codes universels ?

A.T. : Des chercheurs espagnols ont étudié l’attitude des médaillés d’or aux Jeux olympiques. Dans la grande majorité des cas, leurs visages n’exprimaient pas la joie. La seule exception survient lorsque l’athlète interagit avec le public et affiche sa satisfaction. Mais, de lui-même, il n’arbore pas le visage de la joie. Les exemples sont légion : le fait de froncer un sourcil peut être compris de multiples manières selon les personnes et les situations, certaines, en cas de colère, préféreront peut-être pleurer. Face à toutes ces attitudes, la machine est perdue.

Une IA pourrait-elle plus facilement anticiper nos réactions plutôt que de les décrypter ?

A.T. : Rien ne permet de prédire ce que l’on va exprimer à l’avance. Les intelligences artificielles vont pouvoir élaborer des hypothèses mais elles ne pourront pas en déduire une routine, un pattern, pour l’exploiter par la suite. C’est pourquoi les travaux actuels portent majoritairement sur le contexte qui provoque une émotion. Il s’agit pour le robot de tenter d’établir un lien entre un affichage expressif et la manière dont il est montré. Cela lui sert quelque part de béquille pour interpréter un sentiment. Mais il n’arrivera pas à égaler l’humain sur ce registre.

L’homme interprète les émotions à l’instant même où il les vit, et il les décode de manière subjective en fonction de son passé, de son expérience ou de son ressenti.

La machine, elle, reste objective. Elle n’interprète pas. Elle décode en fonction des informations dont elle dispose. Et sur le registre émotionnel, elle ne dispose pas des bons sets pour effectuer une reconnaissance fiable. La reconnaissance faciale ne peut même pas s’appuyer sur des biais, comme, l’idée selon laquelle nous avons des ressentis intérieurs qui s’affichent sur nos visages. Car il s’agit d’un présupposé et non d’une réalité scientifique. Lorsqu’une personne juge l’émotion d’une autre en la voyant, elle y calque une construction émotionnelle qui lui est propre. Elle fait travailler ses circuits émotionnels et le ressenti de chacun sera différent.

Comment la reconnaissance faciale émotionnelle pourrait-elle nous servir au quotidien ?

A.T. : L’industrie automobile, par exemple, veut pouvoir identifier les signes de fatigue chez les conducteurs. À cet égard, la recherche n’a pas réalisé de grands progrès depuis vingt ans, et il ne s’agit pas à proprement parler d’une émotion mais d’un état physiologique qui peut se comprendre grâce à des signaux universels tels que le clignement répété des yeux, le bâillement, l’affaissement des paupières… Pouvoir détecter un défaut de concentration pourrait permettre un ralentissement du véhicule ou, tout simplement, la cause de son arrêt. Mais là encore, nous sommes sur des terrains différents des expressions émotionnelles.

La qualité de la donnée recueillie dépend donc hautement du contexte dans lequel elle a été enregistrée ?

A.T. : Une même émotion peut s’exprimer à des degrés différents, et une situation peut ne pas provoquer la même émotion chez tout le monde. Prenons le fait de s’exprimer en public. Devant quelques collègues connus, l’émotion générée, disons de l’anxiété ou du stress, sera relativement faible. Mais réaliser cette même action devant un parterre d’universitaires, de journalistes ou de spectateurs plus nombreux générera une émotion généralement plus forte. Les réactions humaines seront donc différentes en fonction des personnes concernées, et du contexte, ce qui rend toute qualification de ces sentiments en simples données d’autant plus complexe, voire impossible.

Vous ne croyez donc pas en l’utilité des dispositifs de reconnaissance des visages ?

A.T. : En l’état actuel des connaissances, je demeure dubitative sur leurs promesses. Pour illustrer les difficultés de la reconnaissance faciale, il est également important d’évoquer la question de la culture. Dans chaque pays, ou plutôt dans chaque culture, les individus expriment différemment leurs ressentis. Au Japon, les personnes estiment qu’être chanceux ou même calculateur est, en soi, une émotion. Pour un Français, ce sera plutôt une qualité ou un défaut, mais pas une émotion. À Tahiti, le terme « tristesse » n’existe même pas. Les gens expriment cela différemment, par un état qui ressemblerait plus à de la lassitude. Une machine ne peut pas comprendre le contexte particulier de cette île du Pacifique pour interpréter une émotion. Et il est probable qu’elle n’y parviendra jamais.

Ce texte est paru dans le numéro 14 de la revue de L’ADN consacré à la Transmission. Pour vous la procurer, cliquez ici.


 

PARCOURS D’ANNA TCHERKASSOF

Docteur en psychologie, membre de l’International Society for Research on Emotion. Elle est spécialiste de la compréhension hommes-machines dans le domaine de la reconnaissance faciale. Ses travaux analysent et qualifient les émotions et les expressions du visage humain.

À LIRE

Anna Tcherkassof, Les Émotions et leurs expressions, Presses universitaires de Grenoble, 2008.

 

Crédit photo : gratisography

 

Que sait-on vraiment de l’expression faciale des émotions ? Anna TCHERKASSOF
Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

L'actualité du jour