un homme japonais trinque avec un holograme

Dis Siri... Et si t'arrêtais de me manipuler ?

© Gatebox

Les GAFAM nous promettent des systèmes de plus en plus sensibles à nos émotions. Si ces derniers sont encore nuls pour comprendre ce qui se passe dans nos têtes, ça ne les empêche pas de capter suffisamment d’information pour mieux nous manipuler.

Akihiko Kondo est amoureux et il a tenu à le faire savoir. Ce directeur d’école japonais a fait les gros titres après avoir annoncé publiquement son « mariage »  en octobre 2018 avec la star virtuelle de la pop Hatsune Miku. Pour interagir avec elle, Akihiko a investi dans une Gatebox, une petite boîte transparente connectée dans laquelle apparaît l’hologramme interactif de la chanteuse. Cette dernière le réveille le matin, lui donne des informations ou le bulletin météo, lui envoie des textos dans la journée ou prépare son retour à la maison en allumant le chauffage et la lumière. 

« Google, prend-moi dans tes bras »

L’exemple vous paraît extrême et anecdotique ? Il indique pourtant une véritable tendance. Car oui, comme Akihiko Kondo l’instituteur japonais, nous sommes de plus en plus nombreux à confier nos états émotionnels, souvent négatifs, à des machines. Aux avant-postes : les enceintes connectées de Google, Amazon ou Microsoft. Les GAFAM semblent avoir pris la mesure du phénomène et ont même implémenté dans leurs machines des garde-fous.

On nous présente les enceintes connectées comme étant sensibles à nos émotions et notamment à nos coups de déprime, explique la chercheuse Laurence Devillers, spécialiste en IA émotionnelle au CNRS. « J’ai voulu tester et j’ai expliqué à Google Home que j’étais très triste. Au bout de la 4ème fois, il m’a expliqué qu’il aimerait avoir des bras pour pouvoir me faire un câlin. Je lui ai dit, “Des bras ? C’est une bonne idée”, et il m’a répondu : “Vous voulez des bras ? Voilà les adresses des services de déménagement les plus proches de chez vous.” »

Les enceintes connectées, de bien mauvais psy

La chercheuse est très sceptique quant à l’idée d’utiliser les assistants vocaux comme un partenaire amoureux ou un psy. « Tout d'abord, il faut rappeler que les IA ne peuvent détecter que les six émotions les plus primaires que sont la peur, la colère, le dégoût, la joie, la tristesse et la surprise, indique-t-elle. Ce système ne reflète pas vraiment la complexité de ce que nous ressentons. On peut se lever d’humeur maussade, être amusé par une chose entendue à la radio et transformer tout ça en ironie. C’est impossible d’atteindre une telle finesse de détection en décryptant uniquement ce que nous exprimons par la voix. »

L’autre ressort de l’IA émotionnelle se trouve dans l’analyse du langage naturel qui est toujours en développement. « Permettre aux machines de reconnaître les émotions est très important, explique Chloé Clavel, chercheuse à Telecom ParisTech. On doit offrir aux utilisateurs une fluidité et un naturel à la conversation pour éviter des bugs frustrants. Au-delà des émotions primaires, l’enjeu est aussi de détecter des comportements socio-émotionnels, c’est-à-dire des émotions mélangées, des attitudes sociales, des humeurs, etc. Avec cette technologie, on peut par exemple créer des robots assistants pédagogiques comme cela est fait dans le projet ANIMATAS, ou bien mieux détecter des messages de haine sur le web pour les contrer ».

Comment les machines dressent nos profils psychologiques ?

Pour capter ce fameux contexte, les IA émotionnelles ne font pas que répertorier les différents types d’émotions. Elles peuvent aussi utiliser notre empreinte numérique, c’est-à-dire toute notre activité en ligne : qui nous sommes, où nous sommes, avec qui nous interagissons, les pages, groupes, posts que nous aimons, ce que nous partageons. Tous ces éléments sont extrêmement signifiants et peuvent livrer notre profil psychologique.

Reste à nous cartographier par typologie. La plupart des acteurs s’appuient sur le Big Five, un modèle d'évaluation de personnalité créé par le psychologue américain Lewis Goldberg. Très utilisé par les cabinets de recrutement, ce modèle envisage notre personnalité en modulant cinq critères : l’ouverture d'esprit, la conscience morale ou autodiscipline, l'extraversion, l'amabilité, et le névrotisme.

Pourquoi savoir ce que nous avons dans la tête ?

Connaître la personnalité des internautes – ce qu’ils aiment, ce qu’ils détestent, ce qui les fait réagir positivement ou négativement, va évidemment plus loin que de ne connaître d’eux que leur profil socio-démographique. Les GAFAM ne s’y sont d’ailleurs pas trompés et ont dépensé près de 8 milliards de dollars dans l’achat de start-up spécialisées dans l’IA et l’informatique affective. Pour quoi faire ? Le ciblage publicitaire et la prédiction de nos comportements d’achat restent leurs premiers objectifs. On le sait, nos actes – d’achat entre autres – sont bien davantage pilotés par nos émotions que par notre rationalité. Les annonceurs le savent – au moins depuis l’invention de la publicité et du marketing. Ils ne sont pas les seuls.

Le scandale de Cambridge Analytica a prouvé que les profils psychologiques et émotionnels de milliers d’utilisateurs avaient été scannés et utilisés à des fins d’influence politique. Mais ce n’est pas le seul cas. En mars 2017, Facebook a été de nouveau épinglé par le journal The Australian pour avoir sondé émotionnellement des lycéens inscrits sur la plateforme afin de vendre ces données à des publicitaires. En regardant les posts et les photos, l’algorithme était capable de détecter si les ados étaient stressés et anxieux ou s’ils se sentaient « stupides », « bêtes » ou « inutiles ». L’objectif était de leur proposer des publicités pouvant répondre à ces émotions.

Les aventuriers de l'éthique perdue

Face à ce qu’il convient d’appeler de la manipulation émotionnelle de masse, la plupart des chercheurs en appellent à la mise en place d’une éthique de ces IA. Reste à savoir si les industriels ont la volonté de s’autoréguler. À les entendre, difficile de s’en convaincre. « Lorsque l’industrie investit à fond dans ces technologies, ça paraît normal qu’elle veuille en récolter les fruits, déclare William Eldin, fondateur de l’entreprise XXII, spécialisée en intelligence artificielle. Je pense qu’il faut sortir de cette peur de la surveillance. Quand je vais à Shenzhen (Chine), les gens sont ravis d’être suivis par des IA, ça leur apporte la sécurité. En France, de par notre histoire, on s'accroche à une soi-disant liberté qui ne veut plus rien dire. Mais je pense que c’est une question de temps avant qu’on se rende compte du véritable intérêt de l’intelligence artificielle. »

Laurence Devillers s’accroche quant à elle à l’idée que ces outils pourraient aussi être utilisés pour le bien commun. « Ce qu’il faut, ce sont des objectifs sains et de la transparence dans les algorithmes, insiste la chercheuse. Matraquer les gens malheureux ou seuls avec de la publicité, c’est de la bêtise sociétale. Il faut pouvoir détecter la dépression ou surveiller l’état psychique et physique des personnes âgées pour prolonger le plus longtemps possible leur autonomie. Il faut que ces systèmes nous aident à nous reconnecter les uns aux autres, et non pas qu’ils tentent de remplacer la relation humaine. »

POUR ALLER PLUS LOIN 

L'IA émotionnelle va révolutionner le ciblage marketing : pour le meilleur ou pour le pire ?

« OK Google, tu peux éduquer mes enfants ? » : découvrez les nouveautés (flippantes) des géants du web

Flippant ! Les IA peuvent scanner notre cerveau pour noter notre intelligence et nos compétences

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
Podacast : En immersion
commentaires

Participer à la conversation

Laisser un commentaire