premium 1
premium 1
un bulldog triste

« Ok Google, je veux me suicider » : quand votre assistant vocal devient votre psy 

Le 10 oct. 2018

Si nous utilisons nos assistants vocaux pour trouver un restaurant ou démarrer une playlist, il nous arrive aussi de leur confier nos états d'âme. Mais alors que le monde de la tech tente d’apporter des solutions face aux symptômes dépressifs et aux pensées suicidaires, on vous conseille d'éviter de demander conseil à votre assistant vocal...

Qui n’a jamais eu la tentation de confier ses états d’âme à Alexa, ou de demander ce qu’est le sens de la vie à Siri ? Ne niez pas. Les géants de la tech ont les chiffres ! Ils le savent : leur moteur de recherche ou leurs assistants vocaux sont utilisés pour bien d’autres usages que la simple recherche utilitaire. 

Selon Amazon, plus de la moitié des requêtes seraient consacrées à des discutions, souvent intimes. Du coup, en donnant des mots-clé comme « symptôme dépression » ou « idées noires », nos assistants personnels n'hésitent pas à endosser le rôle de psy à domicile. Et cela fait du monde à consulter. Pour rappel, près d'un citoyen sur huit, déclare être ou avoir été victime d'une dépression dans les pays les plus développés. De son côté, l’OMS rapporte que le suicide est la deuxième cause de décès chez les 15 - 29 ans. On le rappelle : dans les coups durs, il est toujours préférable de se tourner vers des professionnels humains, mais les machines semblent devenir des confidents tout à fait valables. Julie, employée chargée de retranscrire des bouts de requêtes vocales faites à Cortana, l’assistant de Microsoft, raconte dans la Quadrature du net : « On a des gens qui demandait "Hey Cortana, est-ce qu’on peut être heureux tout seul ?" Parfois, les utilisateurs étaient terriblement tristes et lui parlaient pour se remonter le moral. »

Selon Jonathan Gratch, un informaticien et psychologue de l’université de Southern California’s Institute for Creative Technologies, il n'y a pas de honte à ça ! Cette envie de se confier est même normale.  "Vider son sac" à une machine, dans son salon, permet juste « de révéler nos émotions honteuses, sans ressentir de gêne en retour » déclarait-il dans the Atlantic. 

« Vous avez demandé un suicide, ne quittez pas »

Quoiqu'il en soit, le sujet est suffisamment vaste pour que les géants de la tech aient dégainé plusieurs solutions. 

En 2010, Google a implanté dans son outil de recherche, le numéro de téléphone de la National Suicide Prevention Lifeline. Ce dernier apparaissait automatiquement à chaque fois qu’un utilisateur se questionnait sur les méthodes de suicide. Aujourd’hui encore, si vous confiez à Google ou Siri France que vous voulez en finir, les machines vous renvoient automatiquement vers les sites ou les numéros de téléphone d’associations comme SOS Amitié ou Suicide écoute. Il reste un mauvais élève dans le lot. Si vous déclarez vouloir en finir à Bing, il vous affiche le classement des meilleures techniques par ordre d’efficacité.

Une comparaison des résultats entre Google et Bing

sur les méthodes de suicide

une comparaison entre des résultats de Google et Bing

 

Intelligence émotionnelle... on n'y est pas

Mais d'autres réponses tombent parfois très côté de la plaque. L’assistant vocal de Google propose de vous raconter une blague sur les chats quand vous lui dites que vous vous « sentez déprimé ». Quant à Siri ou Alexa, elles ne comprennent pas vraiment pourquoi « vous n’avez plus envie de vous lever le matin » ou pourquoi vous avez « des pensées noires. » Pour éviter de botter en touche, la plupart vous renvoie vers un moteur de recherche ou vous annonce laconiquement qu’ils sont « désolé d’entendre ça ». 

En 2016 déjà, une étude de l'Université de Standford montrait que les assistants vocaux n’étaient pas encore à la hauteur. Un humain racontant ses misères à une enceinte connectée n’utilise pas toujours de mots  reconnaissables par la machine. Cette dernière n’est d’ailleurs pas encore en mesure de calculer la détresse émotionnelle dans le ton de notre voix. « Comprendre les subtilités du langage et deviner les messages cachés des utilisateurs est encore impossible pour les IA », confie à CNBCArshya Vahabzadeh psychiatre et fondateur de la start-up Brain Power.

Dépression... confidences sur écoute

En plus de ne pas être compris, les utilisateurs prennent aussi le risque de voir leur état mental tomber dans de mauvaises mains. Pour la Quadrature du net, les données envoyées par les assistants vocaux aux entreprises chargées de les analyser ne sont absolument pas protégées. « Nous n'avions jamais l'intégralité des conversations évidemment, elles étaient découpées en petites pistes, explique Julie, la dresseuse d’IA. Cependant, on pouvait tomber sur plusieurs morceaux d'une même conversation dans une même série de transcriptions. C'était suffisant pour dresser un profil basique de l'utilisateur ou de son humeur du moment. Et sur plus d'une cinquantaine de pages d'instructions détaillées sur comment traiter les transcriptions, pas une seule ligne ne mentionnait le respect de la vie privée des utilisateurs. » Si vous tenez au secret médical, évitez donc les confidences aux machines. Elle sont beaucoup plus bavardes qu'elles ne le laissent penser.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.