assistant vocal

Assistants vocaux : la menace du hacking à ultrasons

Le 7 sept. 2017

Des chercheurs chinois ont découvert une technique capable de traduire des commandes vocales types en fréquences ultrasoniques inaudibles pour l’homme, lesquelles peuvent prendre le contrôle de nos assistants personnels de façon instantanée. Flippant ?

Apple, Google, Amazon, Microsoft, Samsung, Huawei… Baptisée DolphinAttack, la technique peut aisément s’attaquer à tous types d’assistants vocaux, selon une équipe de chercheurs de l’Université de Zhejiang. Relativement simple, ce processus de traduction leur a permis de prendre le contrôle de différents gadgets grâce à quelques mots prononcés dans des fréquences que nul d'entre nous ne peut entendre.
« Les chercheurs n'ont pas simplement activé les commandes vocales de base comme "Hey Siri" ou "Ok Google". Ils ont aussi été capables de demander à un iPhone d’appeler le « 1234567890 » ou de faire en sorte qu'un iPad fasse un FaceTime avec le même numéro. Ils ont réussi à forcer un Macbook et un Nexus 7 à ouvrir un site Web malveillant. (…) Même une Audi Q3 aurait pu voir son système de navigation redirigé vers un nouvel emplacement. », relate le média Co.Design.
DolphinAttack : Inaudible Voice Command
Une technique de piratage toujours plus insidieuse puisqu’il est cette fois impossible de savoir qui donne l’ordre. Nos assistants, eux en revanche, sembleraient être bien plus réceptifs et réagiraient comme si la commande vocale avait été donnée par une véritable voix humaine.

Pour hacker ces périphériques, les chercheurs n’ont eu qu’à utiliser un smartphone, un haut-parleur et un ampli, ce qui signifie que n’importe quel technophile un peu débrouillard serait capable de reproduire l’opération avec un peu d’entrainement. De même, nul besoin d’être en possession de l’appareil pour y accéder. Un hackeur peut aisément vous approcher, entrer en contact avec votre smartphone pendant que vous jouez à Candy Crush et en prendre le contrôle sans même que vous vous en aperceviez... Facile.

Une menace toujours plus difficile à endiguer, puisque la conception actuelle de nos microphones ne leur permet pas de résister à ce genre d’attaque. « Si les composants des microphones ne sont pas tous similaires, la plupart utilisent des systèmes de pression d’air qui ne sont pas en mesure de bloquer les ultrasons. », explique Gadi Amit, designer du Fitbit.

Un embryon de solution existe néanmoins pour faire face à DolphinAttack : il est toujours possible de désactiver l’usage de Siri sur Apple ou de l’assistant Google sur Android. Sur Alexa d’Amazon et Google Home, des boutons « mute » existent également. Mais à quoi bon acheter un assistant personnel s'il est destiné à prendre la poussière sur une commode ? Un enjeu de taille pour les fabricants ?

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.