1. Accueil
  2. Médias mutants
  3. Affichage et nouveaux écrans
  4. Cool (ou pas) ? Ces machines peuvent calculer nos émotions sur notre visage

Cool (ou pas) ? Ces machines peuvent calculer nos émotions sur notre visage

Cool (ou pas) ? Ces machines peuvent calculer nos émotions sur notre visage
Introduction
Plus besoin d’accéder à nos data ! Notre visage livre direct nos humeurs et nos émotions. Top 6 de ces solutions qui nous calculent.

La reconnaissance faciale, c’est maintenant ! Et il n’y a pas que Facebook qui s’intéresse au sujet. Top 6 des projets qui font leur beurre en décryptant les émotions lisibles sur nos visages avec des applications qui concerneront aussi bien le marketing, la santé connectée, les voitures autonomes, ou la surveillance numérique… entre autre.

AFFECTIVA : My tête is rich

Bien tranquillement installé dans votre salon, vous regardez un film. Pendant que vous riez, pleurez, somnolez, une caméra vous scrute. Elle décrypte vos émotions en zoomant sur votre visage, elle capte celles produites par la modulation de votre voix. Le service est programmé pour ça : capter, analyser, enregistrer les sentiments humains pour les retranscrire en algorithme. Et ce très indiscret mouchard s’installe doucement dans le quotidien. Lors du dernier CES, la solution était intégrée à une enceinte connectée destinée au domicile. Le dispositif est doté d’une caméra pour analyser le visage des occupants et de microphones pour capter leurs voix. Bienvenu chez vous : souriez, vous êtes capté !

affectiva.com

Date de création : 2009

Israël

Rana el Kaliouby, fondatrice d'Affectiva

UNIVERSITÉ D’OSAKA, JAPON : Quand la peau parle

La peau possède son propre langage, et les machines tentent de le décoder. Des recherches conduites par les professeurs Shinoda, Kotani, Shimomura, Suzuki, Asao et Iizuka de l’université du Kansai à Osaka ont démontré que la peau produisait des réactions, possiblement traduisibles en données. Une chaleur diffusée sur la main va se propager sur une partie du bras et provoquer une sensation de bien-être ou de douleur… dont la variation peut être mesurée en calculant son évolution sur deux points distincts. Cette réaction de la peau aux stimuli pourrait être utilisée pour le développement d’interfaces tactiles incluant des mécanismes de perception thermiques ou de robots à même de capter les réactions humaines produites par la peau.

Date : 2016

Japon

REALEYES : Le robot qui sait pourquoi vous chantonnez sous la douche

En comparant deux musiques jouées sur une même vidéo, l’algorithme identifie celle qui touche le plus un individu, qu’il va le mieux retenir (et probablement chanter sous la douche). La machine connaît notre réponse émotionnelle aux musiques que nous entendons… Chaque morceau va en effet produire des réactions propres à chaque personne. Un tracker enregistre le degré de surprise ou de joie en temps réel, puis les classe. Celle qui a provoqué un meilleur score l’emporte. Lors du dernier Super Bowl, le dispositif a dressé un classement des publicités les plus « émotionnellement engageantes ». La palme est revenue à un spot diffusant le morceau « Time of my life », la musique du film Dirty Dancing, avec un score de 10/10. Un résultat pas hyperétonnant non plus…

realeyesit.com

Date de création : 2007

Grande-Bretagne

 

GAIA : La déesse qui connaissait tous vos mouvements

Moins attentif en classe, l’esprit ailleurs ? Une caméra et son logiciel d’analyse peuvent distinguer les signes d’inattention et aider la personne à se ressaisir. La machine peut, par exemple, ralentir le rythme d’une leçon pour que l’élève puisse à nouveau suivre l’enseignement. Le système développé par cette société japonaise est donc en mesure de se fonder sur un véritable set d’analyse comportementale donnant le sentiment général d’une personne (ennui, stress, fatigue…). Ce type d’outil est actuellement en test dans certaines écoles et ouvre la voie à des applications médicales (surveillance de l’état d’un patient, télémédecine), commerciales (supermarchés, boutiques) ou publicitaires (impact de campagnes).

gaiaweb.co.jp/en

Date de création : 1996

Japon

EYERIS : Dis-moi comment tu conduis et je te dirais comment tu te sens

Les mains en position 10 h 10 sur le volant ou à moitié avachi sur son siège, la fiabilité de voter conduite ne passera plus sous le radar. En plus de son visage, les systèmes d’Eyeris analysent la position d’un conducteur pour en dégager un sentiment général. Est-il vigilant, coupablement détendu ou dangereusement énervé ? Ce combo mouvement + visage en dit long. Pour parvenir à capter l’ensemble, une armée de capteurs ainsi qu’une caméra sont intégrés au sein de l’habitacle de la voiture. Si le conducteur n’est pas dans de bonnes dispositions, le système embarqué peut lui suggérer de laisser la main au véhicule lui-même.

eyeris.ai

Date de création : 2013

Californie

NVISO : Les micromuscles du visage vous ont trahis

Notre visage s’exprime à notre insu. Les micromuscles des pommettes, des joues, du front, des arcades, et j’en passe, réagissent lorsqu’un individu exprime une émotion. Commode quand il s’agit d’analyser les sentiments de personnes lors de lancement de campagnes créatives et marketing. Via un système d’imagerie faciale 3D, le système capture en temps réel les réactions d’un cobaye exposé à un stimulus marketing. Le procédé est simple et ne nécessite aucune machine particulière. La caméra d’une webcam, d’un smartphone ou d’une tablette suffit pour lancer l’enregistrement d’un visage. Ainsi, les mouvements des micromuscles de la face génèrent des data permettant de prédire les réactions de futurs clients.

nviso.ch

Date de création : 2005

Suisse

nViso AI

Ce texte est paru dans le numéro 14 de la revue de L’ADN consacré à la Transmission. Pour vous la procurer, cliquez ici.


Copyright photo : gratisography

Ajouter votre commentaire