Fake news, robots tueurs, piratages ultra-ciblés, quand l’IA décide de nous faire mal, les chercheurs deviennent craintifs. Un rapport tire la sonnette d’alarme.
Pas moins de 26 experts du sujet (Oxford, Carnegie-Mellon mais également Google DeepMind et Microsoft) se sont penchés sur la question autour d’un rapport. Le document aborde sans détours les risques éventuels liés au développement des IA. Ce ne sont donc plus des nuages de sauterelles ou les eaux du Nil changées en sang qui risquent de survenir mais bien d’autres dangers.
Des robots chargés de tuer des humains, l’essor des fake news, l’arrivée de systèmes de piratage extrêmement développés ou bien encore la mise en déroute de systèmes d’authentification entiers figurent parmi les craintes de ces experts. Dans leurs scénarios les plus pessimistes, l’homme ne parviendra qu’à grand peine à juguler ces menaces.
Un gentil robot tueur « qui n'avait rien à se reprocher »
La première crainte est ainsi de voir ces machines être détournées de leur usage principal. Des robots autonomes pourraient remplacer une partie des militaires (assertion sévèrement critiquée par le secteur), être équipés d’armes (comme le sont les drones de combat) pour attenter à l’intégrité de personnes physiques.
Tromper la reconnaissance faciale/vocale
Tout le monde ne possède pas le talent d’imitateur de Laurent Gerra. La machine si. Et de loin. En matière de reconnaissance vocale, les systèmes dotés d’intelligence artificielle peuvent aisément créer de faux enregistrements audios à partir de fragments de voix d’une personne. Ils sont alors à même de se faire passer pour quelqu’un d’autre. En l’absence de réelles mesures permettant d’authentifier l’identité d’une voix, ce type de piratage serait largement plausible, voire inévitable selon ce même document.
Fake news et manipulation de l'information
Phishing : quelle différence entre un bon et un mauvais pêcheur ?
Les progrès de l’intelligence artificielle sont tels que des individus malveillants pourraient utiliser ses ressources pour se cacher plus facilement des autorités, et mener à bien leurs attaques. Seule une vigilance accrue des internautes représente un rempart pertinent contre ce type de menace.
Attaque sociale, tu perds ton sang froid
Mise en garde et debunking en règle
Une position sévèrement critiquée par de véritables spécialistes de l’intelligence artificielle. Dans une interview que nous avions consacré à ce sujet, Jean-Gabriel Ganascia, Professeur à l’UPMC Paris-Sorbonne, expliquait que la position de ces « têtes connues » de la tech doit être prise avec précaution. Il précisait : « Les tenants de « l’IApocalypse » sont des personnes connues et respectées pour leurs travaux respectifs. Leur argument est de mettre en avant certaines avancées fortes pour prétexter que l’humain sera bientôt dépassé. Ils omettent toutefois un point crucial, ces progrès ont des limites et sont loin de mettre en échec l’humain dans l’ensemble de ses capacités. Actuellement, de nombreux chercheurs ont publié leurs travaux à propos de réseaux neuronaux. Sur ce point, par exemple, nous sommes loin de reproduire le cerveau humain ».
La position visant à craindre l’intelligence artificielle n’est donc pas partagée par toute la communauté scientifique, loin s’en faut. Ce type de critique peut également être perçu comme un outil de soft power utile pour certains pays ou groupes industriels. Ce rapport ne déroge d’ailleurs pas à cette règle. En fin de document, il est précisé que ces travaux ont été en partie financés par le Future of Life Institute, une association américaine dont les membres fondateurs sont notamment… Stephen Hawking et Elon Musk. Il n’est donc pas surprenant d’y lire des conclusions pessimistes quant aux conséquences du développement de l’intelligence artificielle.
Participer à la conversation