Montage de plusieurs morceaux de visage

Élèves souriez, vos émotions sont analysées (par l’intelligence artificielle)

© Ryan JLane via Getty

Nos visages sont de plus en plus scrutés par les algorithmes détecteurs d’émotions, un business particulièrement actif dans le secteur éducatif. La startup de cours en ligne GoStudent teste un tel outil et envisage de le déployer à plus grande échelle. 

Un élève est-il plus attentif en cours de maths ou en cours de langue ? Un professeur joyeux a-t-il plus de chance d’être écouté qu’un autre ? Le spécialiste des cours en ligne GoStudent a voulu répondre à ce type de questions en analysant les expressions faciales de ses élèves et des professeurs grâce à l’intelligence artificielle. L'entreprise autrichienne, présente en France depuis 2020, a mené une étude sur 948 cours particuliers en visioconférence. La startup qui emploie 11 000 tuteurs dans 22 pays envisage de déployer cet outil à plus grande échelle. 

32 points du visage scrutés de près

Concrètement, GoStudent utilise un logiciel qui analyse 32 points sur le visage et identifie des expressions faciales : inclinaisons de la tête, clignements des yeux, sourires, haussements de sourcils… À partir de celles-ci l’outil est censé détecter certaines émotions comme le mépris, la joie, la colère, la surprise… L’idée est ensuite de comparer les émotions de l’élève à celles du professeur, mais aussi d’établir des corrélations entre émotions et intensité de l’attention de l’élève (que le logiciel interprète également en analysant les expressions faciales).

« Nous avons ainsi constaté qu’il y avait un effet miroir : lorsqu’un tuteur exprime de la joie, l’élève a tendance à exprimer aussi cette émotion. Souvent cela se traduit par une hausse de son attention », expose Laura Warnier, directrice de la croissance de GoStudent. Par ailleurs, l’étude montre que les élèves expriment peu d’émotions pendant les cours de maths, et sont généralement très attentifs en cours de langue.  

Quelle est l’utilité de ces trouvailles ? En fait, cette étude permet à GoStudent de tester l’outil. À terme, l’entreprise aimerait le déployer afin d’ « améliorer la personnalisation et la qualité de ses cours en ligne », explique Laura Warnier. En affinant notamment l’intelligence émotionnelle des professeurs. « On pourrait fournir des outils aux tuteurs pour qu’ils comprennent les réactions de leurs élèves, mais aussi leurs propres émotions, et comment celles-ci impactent le succès des élèves. »  

Rapport d’attention et matching émotionnel

L’idée serait aussi d’utiliser cet algorithme pour le recrutement des tuteurs afin d’identifier ceux capables d’exprimer certaines émotions lors de leurs cours, explique la dirigeante. GoStudent fonctionne sur un système de matching entre tuteur et élève. Ce matching est aujourd’hui établi manuellement via des questionnaires. L’outil de détection des émotions permettrait d’affiner ce matching et de l’automatiser, par exemple en analysant à l’issue d’un premier cours la compatibilité émotionnelle entre prof et élève, illustre Laura Warnier. 

GoStudent songe également à envoyer des rapports sur le niveau d’attention des élèves à leurs parents. Exemple : l’attention du petit Gérôme a baissé de 30 % par rapport à la semaine précédente, et il est plus attentif avec professeur Trucmuch avec lequel il exprime de la joie qu’avec le professeur MachinChose…

Laura Warnier assure que ce déploiement ne se fera pas sans l’accord des élèves et des professeurs. « Pour le moment nous sommes en phase de test. Il faut que tous les élèves et tuteurs acceptent ce dispositif et que nous soyons sûrs qu’il apporte de la valeur. » 

La détection des émotions : une technique très critiquée

GoStudent est loin d’être la seule entreprise à s’être emparée de l’IA émotionnelle. D’autres sociétés dans l'éducation, mais aussi le marketing, la sécurité routière et le recrutement se servent de ce type d’outils. Leur usage s’est fortement accéléré à la faveur de la pandémie et de la zoomification de tout. Le marché représentait 20 milliards de dollars en 2019 et devrait atteindre 37 milliards de dollars en 2023 selon certaines estimations

La légitimité de tels algorithmes pose question. D’une part parce qu’ils présupposent une intrusion dans la vie privée et la psyché de la personne analysée. D’autre part, parce que la prétendue capacité des algorithmes à détecter les émotions a été maintes fois remise en question par les chercheurs. Dans une tribune pour la revue scientifique Nature, la chercheuse Kate Crawford, spécialiste de l’intelligence artificielle, plaidait pour un encadrement de ces outils de détection des émotions. En avril 2021, un collectif de scientifiques a mis en ligne un jeu (emojify.info) afin d’alerter sur la non-fiabilité et les biais causés par ce type d’algorithmes qui entendent lire sur nos visages. 

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

Laisser un commentaire