bannière 2
premium 1
premium 1 mobile
IA émotionnelle marketing émotionnel

L'IA émotionnelle va révolutionner le ciblage marketing : pour le meilleur ou pour le pire ?

Le 22 juin 2018

Les intelligences artificielles se perfectionnent et sauront bientôt analyser notre psyché en détectant nos émotions. Des avancées considérables pour le ciblage sont à présager. Doit-on rêver du meilleur ou craindre le pire ?

En 2016, à la suite du décès d’un ami proche, Eugenia Kyuda met au point Replika, un chatbot conçu à partir des souvenirs et conversations qu’elle entretenait avec le défunt. Que fait Replika ? À partir d’échanges de messages, de questions et en allant piocher dans les données de votre profil Facebook, l’application apprend à connaître vos goûts, votre personnalité et…vos tourments. Peu à peu, ses réponses s’adaptent : elle s’inquiète, demande des nouvelles, encourage, stimule. Pour Eugenia, l’expérience est cathartique : grâce à son application, elle peut conserver un « lien » avec son ami. Depuis que Replika est devenu un programme disponible sur l’Apple Store, il a été téléchargé par 2,5 millions d’utilisateurs (Forbes).

La naissance de l’IA empathique

Établir un rapport affectif avec un programme…Cette perspective n’est pas sans rappeler les films de science-fiction Her de Spike Jonze (2014) ou encore Ex Machina d’Alex Garland (2015). Dans chacun, les héros tombent amoureux des intelligences artificielles avec lesquelles ils échangent quotidiennement. Intuitive, intelligente, affectueuse, lorsqu’elle est programmée pour simuler et imiter les émotions humaines, une IA pourrait se transformer en Roméo ou en Juliette. Pourquoi ? D’abord parce que l’IA vous connaît mieux que vous-même, et surtout, parce qu’elle est en mesure de vous aimer sans faillir, sans éloignement ni crise, de manière constante et inconditionnelle. Fatigué•e ? Elle vous enverra un message d’encouragement agrémenté d’un GIF rigolo. Agacé•e ? Elle vous proposera un cours de yoga ou une séance de méditation.

États d’âmes, affects et dopamine

Toucher à nos affects, c’est être au cœur de ce qui nous anime. Et les géants de la tech l’ont bien compris : ils ont façonné leurs interfaces afin qu’elles favorisent notre satisfaction immédiate au détriment de notre bien-être durable. Ainsi, il a été scientifiquement prouvé que le bouton « Like » de Facebook stimule la sécrétion de la dopamine, l’hormone du « bonheur ». En accumulant les « Like », j’accumule des micro récompenses symboliques, qui me donnent irrémédiablement le désir de le faire, puis de le refaire… sans plus arrêter. Nos outils influencent donc clairement nos comportements. Alors, quand les IA ajouteront une variable émotionnelle aux dispositifs actuels, l’on conçoit assez clairement que cela soulèvera un certain nombre de problématiques éthiques.

Extension du domaine du ciblage

Évidemment, les applications vertueuses ne manquent pas. Côté éducation, IBM planche sur un programme qui permet de personnaliser les enseignements en fonction de l’état émotionnel des élèves. Côté business, la société Affectiva travaille à un algorithme de reconnaissance des émotions, à partir de l’analyse de données biométriques du visage (inflexions faciales, regard, sourire). Elle vise le marché de l’automobile et souhaite implanter le logiciel dans les véhicules autonomes pour permettre de prévenir les accidents : l’algorithme pourrait notamment repérer les signes précoces de fatigue au volant. Il est possible d’envisager, qu’à terme, il soit en mesure de détecter directement les émotions du conducteur pour adapter la conduite du véhicule. Côté marques, les spécialistes du marketing se réjouissent déjà de pouvoir enfin réellement comprendre les drivers de leurs cibles.

En effet, avec l’IA émotionnelle ce ne sont plus les catégories traditionnelles comme l’âge, le sexe, la catégorie socioprofessionnelle ou la localisation qui déterminent le ciblage : ce sont les profils psychologiques inférés à partir de l’analyse des orientations politiques, des goûts artistiques…. L’IA est ensuite en mesure de proposer des contenus ajustés à l’humeur du moment, à l’instant T. Un pas de géant pour toute une industrie.

Pourtant, de la bonne intention à la manipulation, il n’y a qu’un pas. En Mars 2018, le scandale éclate : l'entreprise Cambridge Analytica contribue à déstabiliser les élections électorales dans plusieurs pays, dont le Kenya et les États-Unis. Son arme ? Le profilage puis le micro-ciblage des électeurs en fonction de leur personnalité pressentie et de leur système de valeurs. Grâce à l’analyse des métadonnées issues des profils Facebook, l’entreprise a pu envoyer des messages personnalisés à des centaines de milliers d’électeurs et les influencer dans leurs choix politiques.

 

À ce jour, l’IA émotionnelle n’a pas encore donné la pleine mesure de ses potentialités. Demain, serions-nous prêts à tomber amoureux d’une entité virtuelle, quitte à devenir dépendant ? À être analysés jusque dans nos moindres battements de cils ? À ce que l’on pénètre notre for intérieur pour en tirer des conclusions marketing ? Pas si sûr, pourtant Google, Amazon, Facebook, Apple et Microsoft y travaillent d’arrache-pied.


Ce papier est paru dans le hors-série “Benevolence” réalisé par L’ADN Studio en partenariat avec l’agence Change.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

L'actualité du jour