Un robot dans la maison, pour le pire et pour le meilleur ?

Maison connectée, quel risque pour notre vie privée ?

Avec Allianz
© iStock / Getty Images Plus

Laurence Devillers est professeure en intelligence artificielle et spécialiste des interactions humain-robot. Pour 2025, elle a imaginé un scénario pas si dystopique de notre réalité dans une maison où tout est connecté.

On nous promet un foyer intelligent et robotisé, qui prendra soin de tout (consommation, ménage, alarme…) pour nous permettre de nous relaxer. Quelle pourrait être une journée type chez soi en 2030 ?

Laurence Devillers :  On peut envisager un futur où tout est connecté. J’ai imaginé un scénario qui se déroule en 2025. Un homme, appelons-le Igor, rentre du ski en voiture autonome. Comme il aime bien conduire, c’est lui qui conduit. C’est la nuit, un chat passe devant la voiture et celle-ci freine brusquement, faisant peur à Igor. Puis il reprend sa route et appelle chez lui pour savoir s’il reste à manger. Il interroge le frigo qui lui répond qu’il n’y a rien à part du champagne. Igor lui demande d’appeler sa femme. Elle n’est pas disponible, c’est le téléphone qui répond. Le téléphone connaît ses habitudes, il sait ce qu’elle aime et ce qu’elle a fait ces derniers jours, donc il dit à Igor que ce serait bien de commander des sushis. Igor dit « Très bien, faites ceci » et le téléphone commande les sushis. Ensuite, Igor arrive devant chez lui, gare sa voiture, entre, va au frigo et prend une coupe de champagne. Or, Igor est diabétique, il a une puce sous-cutanée. Celle-ci envoie son taux de glycémie à son frère, qui l’appelle aussitôt pour le sermonner. Igor l’envoie balader et prend une seconde coupe de champagne. Il se dit que désormais, sa voiture ne va pas répondre et effectivement, lorsqu’il essaie de l’ouvrir, elle ne répond pas, ce qui signifie que son assureur est au courant qu’il a bu. Il revient chez lui et le majordome, un robot, vient le prévenir que les sushis sont arrivés, et ajoute « quand on boit, il faut manger. » Donc lui aussi est au courant. Arrive alors sa femme, mécontente, car elle aussi est au courant. Le majordome revient vers Igor et ajoute : « Vous savez monsieur, cela fait trois fois que vous buvez seul cette semaine. J’ai pris rendez-vous avec votre médecin demain matin à 9h ». Qui a cafté ? Peut-être l’aspirateur, parce que lui aussi est connecté... Si on crée comme cela des cacophonies autour de nous, avec des objets connectés entre eux et avec tout notre environnement – médecin, assurance, sécurité… où va-t-on ?

Ce que vous décrivez, c’est purement et simplement la fin de la vie privée…

L. D. :  C’est bien cela. Et pour l’instant, je ne vois pas beaucoup de barrières mises en place, parce qu’on ne veut pas réguler trop ou bloquer la créativité. Or, on peut être très créatif même avec des limites. Je crois qu’on ne se rend pas compte des enjeux. Les géants du numérique ne les maîtrisent pas, ils ont tendance à penser profit avant d’imaginer toutes les conséquences. Nous aurons sûrement un foyer intelligent et robotisé mais nul ne sait jusqu'où !   Nous ne sommes pas « IA ready »  aujourd'hui et nos réflexions éthiques sur le sujet sont encore bien limitées.

C'est-à-dire ?

L. D. :  Sur le long terme, nous n'avons pas de vision. Or, si nous ne gouvernons pas les avancées de l'IA, nous irons vers plus d'inégalités dans la société. Ce sont des objets complexes que l’on met en oeuvre, des objets qui pourront avoir une acuité forte sur de nombreux sujets dont on ne se préoccupe pas. Il ne faut pas comparer cette IA avec l’humain, la super-intelligence qu’on lui attribue est une vaste fumisterie. Mais on fait des objets avec des capacités qui pourront avoir des effets secondaires qu’on n’a pas encore prévus. Donc pour moi, il faut les surveiller. Il ne faut pas laisser les GAFA jouer aux apprentis sorciers et regretter après coup qu’on a fait une erreur. Il faut commencer à faire des expérimentations sur ces différents sujets et alerter sur leurs effets secondaires.

En 2030, toutes nos interactions seront-elles parlées ?

L. D. :  Tout objet peut être muni de synthétiseur, donc on peut mettre des objets qui parlent pour tout. La voix va être un des moteurs de demain. Or, dès que je parle à une machine, je suis dans un mode très particulier. Davantage que lorsque je fais une recherche sur Google, qui a déjà une façon très particulière de nous proposer des choix, ordonnés en fonction de critères dont on ignore tout. Pour la voix, c’est pire car la machine ne va nous donner qu’un seul choix. Qui va choisir ? On va choisir pour vous, en fonction de ce que vous aimez… Mais ne va-t-on pas enfermer les gens ainsi ? Nos interactions avec les machines vont être de plus en plus parlées. Il faut prendre consciences des risques de manipulation qui existent car la machine choisira en fonction d'algorithmes ce qu'elle va vous répondre.

Avec le risque de biais...

L. D. :  Oui, on voit déjà les biais qui existent dans les systèmes actuels. Par exemple, pourquoi une femme reçoit-elle moins de publicités pour une école d’ingénieur ? Ce n’est pas parce que l’école ne veut pas envoyer son annonce à des femmes. C’est à cause du système d’enchères sur internet, qui permet à Google, Facebook, Amazon et autres de répondre mécaniquement aux plus offrants. Or, les femmes sont la cible de tous les annonceurs : luxe, maison, enfants… Alors que les hommes sont plus préservés. Résultat : il y a beaucoup moins de femmes qui verront la publicité de cette école d’ingénieurs parce qu’elle sera noyée dans la masse, ou reléguée derrière les annonces aux enchères plus hautes. Ce n’est pas une volonté de l’annonceur ou des GAFA, mais la mécanique des enchères produit cet effet. Il faut bien comprendre que nous sommes face à des systèmes qui ont une force de frappe que nous n’avons jamais vue. Le nombre de personnes connectées à Facebook et qui peuvent être sujettes à la manipulation est énorme, c’est l’objet des récents propos de Chris Hughes, l’ancien co-fondateur de Facebook, lorsqu’il alerte sur le pouvoir acquis par Mark Zuckerberg.

L’interaction avec un robot change-t-elle notre manière de penser, de parler, voire nos rapports sociaux ?  

L. D. :  Tout dépend du robot que l’on va mettre en face. C’est un couple, le robot et l’humain. Il faut regarder comment ce couple va interagir, mais pour l’instant, on n’a pas connaissance de ce qui va se passer. Donc il faut éduquer les gens sur ces machines et ce qu’on y met. Les personnes âgées notamment, pour lesquelles on développe des robots d’assistance, devraient avoir une espèce de formation ludique pour s’éduquer à cette interaction nouvelle.

Comment humaniser une interaction parlée avec un robot ?

L. D. :  Il ne faut pas faire des robots trop proches des humains. Il ne s'agit donc pas de les humaniser. La machine doit s’adapter à différentes façons de parler, adapter le rythme de la parole… il y a plein de choses sur lesquelles on doit travailler. En revanche, doter la machine d’une personnalité qui semblerait humaine est une erreur. Il faut que la machine ait des modèles informatiques assez complexes pour comprendre ce que veut l’humain. On y travaille, pour détecter les émotions et comprendre les intentions. Mais il ne faut pas jouer à cloner l’humain

Car plus on va se rapprocher de l’humain, plus on va se dire que la machine nous comprend, qu’on peut tout lui confier, et on va s’attacher à elle. Vous allez vous isoler des humains parce que la machine est beaucoup plus intéressante. Or, cela ne servirait qu’à faire parler les gens dans le vide, ils ne se parleraient plus qu’à eux-mêmes. Cela n'est pas souhaitable. Il faut absolument rester sur des objets qui parlent comme des objets.

À LIRE AUSSI :

Cette I.A. stupide étiquette votre visage

Intelligence artificielle : les vraies questions à se poser pour éviter l’ethical washing

« OK Google, tu peux éduquer mes enfants ? » : découvrez les nouveautés (flippantes) des géants du web

commentaires

Participer à la conversation

Laisser un commentaire