Lorsque les marques s'inquietent de la consommation de leurs services, cela pose question. Jouent-elles les psys ?
De notre côté, aucune confirmation des propos de cet utilisateur n'a pu être apportée. La rédaction tient donc à présenter ses excuses pour avoir présenté ces faits de la sorte.
_____________________________________________________________________________________
Netflix et votre psy ont de nombreux points communs : vous les payez tous les mois, et vous les sollicitez lorsque ça ne va pas fort. Leur différence, c’est que votre psy ne va pas venir sonner chez vous pour savoir si vous allez bien. Contrairement à Netflix.
En décembre dernier, un utilisateur, dont les propos n'engagent que lui, relatait une anecdote troublante. Alors qu’il était en vacances (et déprimé), son comportement a alerté les équipes de la plateforme : il aurait regardé tous les épisodes de The Office en une semaine. Un record, mais aussi une attitude pouvant cacher les signes d’un profond mal-être.
Question respect des données et de la vie privée, on repassera. Mais ce n’est, pour l’utilisateur, pas le sujet : il se serait déclaré touché que quelqu’un, « même s’il s’agit d’un étranger qui travaille au service client d’une agence », s’inquiète de sa santé mentale, justement fragile.
À l’heure où nos données n’ont plus de secret pour les services en ligne et autres applications, le rôle des marques prend une nouvelle dimension : les algorithmes qu’elles utilisent pourraient bien devenir de véritables outils de prévention, notamment contre la dépression.
Du côté de chez Facebook, on utilise l’intelligence artificielle pour prévenir le suicide. Annoncé en novembre 2017, le dispositif se base sur une I.A. capable d’analyser les posts, statuts et vidéos des internautes et de reconnaître les signes alarmants. L’I.A. sait également « hiérarchiser » les contenus et identifier les utilisateurs et utilisatrices à secourir en priorité (en alertant les autorités, par exemple).
On apprend ainsi qu'une vidéo dont un passage susciterait de nombreux commentaires, réactions ou signalements sera analysée rapidement, et qu'une aide automatique sera proposée dans un premier temps.
Quand on connaît les dérives de l'utilisation des données par les plateformes, il y a de quoi s'alarmer. Mais Alex Stamos, Directeur de la sécurité chez Facebook, tient à nous rassurer : " Une utilisation effrayante ou malintentionnée de l'I.A. sera toujours un risque, c'est pourquoi il est important d'établir des normes sur la collecte des données et leur utilité ", a-t-il tweeté.
The creepy/scary/malicious use of AI will be a risk forever, which is why it's important to set good norms today around weighing data use versus utility and be thoughtful about bias creeping in. Also, Guy Rosen and team are amazing, great opportunity for ML engs to have impact. https://t.co/N9trF5X9iM
— Alex Stamos (@alexstamos) 27 novembre 2017
À noter que ces outils ne sont pas déployés au sein de l'Union Européenne, RGPD oblige…
Du côté d’Instagram et Twitter, on est plus timides, et on préfère laisser le soin aux internautes de signaler tout comportement concernant… Instagram a mis en place un outil permettant de catégoriser le contenu alarmant, et Twitter propose aux aux internautes à contacter des comptes spécialisés dans les violences ou le harcèlement. Pourtant nul doute que les algorithmes de ces plateformes scrutent jusque dans les moindres virgules tweets et hashtags – et que certains mots ne trompent pas quant aux intentions des auteurs et autrices.
Participer à la conversation