sortie du metro pleine de miroirs

Piratée, l'IA confond un singe et un panda. Et c'est inquiétant

Avec KPMG

Capable de reconnaître des visages, des voix, des animaux ou même des émotions, l’IA paraîtrait presque infaillible. Mais des spécialistes rappellent un principe : tout est piratable.

Aujourd’hui, une intelligence artificielle peut retranscrire des phrases prononcées à voix haute par un humain, le tout avec un taux d’erreur minime. Elle est également capable de distinguer un chat d’un chien depuis une simple photographie, ou même de reconnaître votre visage.

Les assistants vocaux tels que Siri, l’assistant Google ou encore les enceintes connectées utilisent déjà ces technologies. Demain, elles intègreront les voitures autonomes. L’intelligence artificielle est aujourd’hui une sorte d’interface entre l’humain et le monde « réel ». Une fonction appelée à se développer.

Avec la généralisation de l'IA, les conséquences de ses échecs vont aller crescendo : si Siri se trompe de mot dans l’un de vos textos, rien de grave ; si une voiture autonome décide d’accélérer devant un dos d’âne en plein quartier résidentiel, les conséquences pourraient être dramatiques.

Tromper l’IA, c’est justement l’objectif des attaques dites « adversarial » (par antagonisme, contradiction). Les hackers utilisent ce qui serait, pour les humains, des illusions d’optique. Les attaques modifient (faiblement) les données soumises à l’intelligence artificielle pour la flouer et fausser le résultat qu'elle produit.

Des chercheurs de Google ont démontré l’impact que pourraient avoir ces modifications en les illustrant. Au départ, l’IA serait capable ici de reconnaitre un panda, après un léger remaniement, elle identifierait un singe gibon…

illustration dune attaque adversarial


Illustration issue de l’étude Robust Physical-World Attacks on Deep Learning Models

Du côté de l'Université de Californie à Berkeley, les chercheurs ont réussi à pirater les intelligences artificielles spécialisées dans la reconnaissance vocale et la transcription de la voix. Ils ont réussi à créer un son inaudible pour l’oreille humaine qui, s’il est diffusé en même temps que la phrase que l’IA tente d’analyser, fausse totalement l’algorithme. Cette superposition sonore entrainera un résultat ayant un sens complètement différent de la phrase originelle, un sens contrôlé par l’attaquant qui génère le bruit.
Pour en savoir plus, rendez-vous sur HOW.


HOW, c’est le média qui donne la parole aux experts et expertes de l’innovation.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
Podacast : En immersion
commentaires

Participer à la conversation

Laisser un commentaire