bannière 2
bannière 2
premium1
Hal

26 experts confirment : l'IA peut être malveillante

Le 28 févr. 2018

Fake news, robots tueurs, piratages ultra-ciblés, quand l’IA décide de nous faire mal, les chercheurs deviennent craintifs. Un rapport tire la sonnette d’alarme.

Que pourrait donc faire une intelligence artificielle si elle décidait de s’en prendre à l’homme ?

Pas moins de 26 experts du sujet (Oxford, Carnegie-Mellon mais également Google DeepMind et Microsoft) se sont penchés sur la question autour d’un rapport. Le document aborde sans détours les risques éventuels liés au développement des IA. Ce ne sont donc plus des nuages de sauterelles ou les eaux du Nil changées en sang qui risquent de survenir mais bien d’autres dangers.

Des robots chargés de tuer des humains, l’essor des fake news, l’arrivée de systèmes de piratage extrêmement développés ou bien encore la mise en déroute de systèmes d’authentification entiers figurent parmi les craintes de ces experts. Dans leurs scénarios les plus pessimistes, l’homme ne parviendra qu’à grand peine à juguler ces menaces.

Un gentil robot tueur « qui n'avait rien à se reprocher »

« Les drones de livraison sont conçus uniquement pour des besoins commerciaux ou de divertissement. Les voitures autonomes sont censées nous accorder plus de temps libre. Mais ils peuvent être utilisés dans d’autres environnements », souligne le rapport.

La première crainte est ainsi de voir ces machines être détournées de leur usage principal. Des robots autonomes pourraient remplacer une partie des militaires (assertion sévèrement critiquée par le secteur), être équipés d’armes (comme le sont les drones de combat) pour attenter à l’intégrité de personnes physiques.

Ainsi, plus ces robots seront autonomes, plus ils possèderont toute la latitude pour éventuellement nuire à l’homme. Par ailleurs, de petits groupes terroristes ou des factions politiques extrémistes pourraient s’emparer de ces objets afin de lancer des attaques ciblées contre certaines populations.

Tromper la reconnaissance faciale/vocale

Les progrès en matière de reconnaissance faciale sont à présent tels qu’une intelligence artificielle sait faire correspondre avec une marge d’erreur faible une photographie d’identité avec le cliché d’un visage pris sur le vif. Cette capacité pourrait être détournée via la « production d’images synthétiques que même les photographes ne peuvent pas distinguer. Voilà quelques années, ces images étaient encore peu réalistes, mais cela n’est plus le cas », s’inquiète le rapport.

Tout le monde ne possède pas le talent d’imitateur de Laurent Gerra. La machine si. Et de loin. En matière de reconnaissance vocale, les systèmes dotés d’intelligence artificielle peuvent aisément créer de faux enregistrements audios à partir de fragments de voix d’une personne. Ils sont alors à même de se faire passer pour quelqu’un d’autre. En l’absence de réelles mesures permettant d’authentifier l’identité d’une voix, ce type de piratage serait largement plausible, voire inévitable selon ce même document.

Fake news et manipulation de l'information

Créer de fausses vidéos réalistes de dirigeants politiques ou de personnes en vue est devenu un risque à ne pas négliger. « A terme, ces campagnes de désinformation hyper-personnalisées pourraient affecter les comportements de vote de millions de citoyens. Des campagnes de mesure de l’influence pourraient même approcher des personnes référentes pour qu’elles diffusent rapidement ces mêmes fausses informations », expliquent les experts.
Poussant leur analyse, ils ajoutent que ces pratiques pourraient conduire à une manipulation de la disponibilité de l’information. Des plateformes de médias, via notamment leurs algorithmes de recommandation de contenus, seraient ainsi utilisées pour tenir à l’écart leurs lecteurs de certaines informations. Ou, au contraire, de les orienter vers des Fake news.

Phishing : quelle différence entre un bon et un mauvais pêcheur ?

Selon les experts, des tentatives de piratage comme le phishing devraient se développer dans les prochaines années. Là encore, la crainte est de voir se formuler des offensives très ciblées utilisant des messages hautement personnalisés. Les expéditeurs artificiels se feraient ainsi passer pour des amis, collègues ou connaissances pour obtenir des informations sensibles voire de l’argent auprès d’une personne visée.

Tom Cruise dans Minority Report

Les progrès de l’intelligence artificielle sont tels que des individus malveillants pourraient utiliser ses ressources pour se cacher plus facilement des autorités, et mener à bien leurs attaques. Seule une vigilance accrue des internautes représente un rempart pertinent contre ce type de menace.

Attaque sociale, tu perds ton sang froid

Enfin, le fait que les internautes livrent nombre d’informations personnelles sur les réseaux sociaux ou divers sites Web pourrait se retourner contre eux. A l’avenir, des attaques « sociales » (comprenez qui utilisent l’ingénierie sociale), risquent de devenir hyper-personnalisées. Finis les spams du type, « je suis prince d’Angola et j’ai besoin de rapatrier 10 000 euros ». Place aux attaques ciblées, utilisant vos propres caractéristiques.
Pire des chatbots malveillants pourraient être a même de converser avec vous dans l’unique dessein de vous soutirer davantage d’informations ou de leur accorder votre confiance. Ils pourraient alors vous pousser à utiliser votre webcam, télécharger des logiciels piratés ou puiser dans vore compte en banque…

Mise en garde et debunking en règle

Crier au loup sur les éventuels dangers en matière d’intelligence artificielle est un sport à la mode. Stephen Hawking (physicien spécialiste des trous noirs), Elon Musk (entrepreneur) pour ne citer qu’eux estiment que si l’on n’y prend pas garde, les intelligences artificielles pourraient, à terme, surpasser les humains voire causer notre perte.

Une position sévèrement critiquée par de véritables spécialistes de l’intelligence artificielle. Dans une interview que nous avions consacré à ce sujet, Jean-Gabriel Ganascia, Professeur à l’UPMC Paris-Sorbonne, expliquait que la position de ces « têtes connues » de la tech doit être prise avec précaution. Il précisait : « Les tenants de « l’IApocalypse » sont des personnes connues et respectées pour leurs travaux respectifs. Leur argument est de mettre en avant certaines avancées fortes pour prétexter que l’humain sera bientôt dépassé. Ils omettent toutefois un point crucial, ces progrès ont des limites et sont loin de mettre en échec l’humain dans l’ensemble de ses capacités. Actuellement, de nombreux chercheurs ont publié leurs travaux à propos de réseaux neuronaux. Sur ce point, par exemple, nous sommes loin de reproduire le cerveau humain ».

La position visant à craindre l’intelligence artificielle n’est donc pas partagée par toute la communauté scientifique, loin s’en faut. Ce type de critique peut également être perçu comme un outil de soft power utile pour certains pays ou groupes industriels. Ce rapport ne déroge d’ailleurs pas à cette règle. En fin de document, il est précisé que ces travaux ont été en partie financés par le Future of Life Institute, une association américaine dont les membres fondateurs sont notamment… Stephen Hawking et Elon Musk. Il n’est donc pas surprenant d’y lire des conclusions pessimistes quant aux conséquences du développement de l’intelligence artificielle.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

L'actualité du jour