MENU
THEMES

Une fois de plus les assistants vocaux écoutent nos conversations

Publié le: 09/12/2019  |  Par: Guide Informatique  
Une fois de plus les assistants vocaux écoutent nos conversations

Les enceintes connectées sont souvent qualifiées de mouchard. Récemment, les développeurs d’assistants vocaux ont avoué un par un écouter les conversations des utilisateurs sans leur accord pour améliorer la qualité des services. Google, Amazon, Facebook, Apple et Microsoft, l’ensemble des GAFAM utilisaient cette pratique. Suite à cette découverte ils ont ajouté un moyen pour les utilisateurs de refuser que leurs conversations soient écoutées.

Mais cette affaire est à peine terminée qu’une nouvelle vient à nouveau ternir l’image des assistants vocaux. Cette fois-ci seul Google Home et Alexa d’Amazon sont concernés. Ces deux assistants vocaux proposent aux développeurs de programmer des skills, il s’agit de la version vocale d’une application. En l’installant un utilisateur peut interagir avec une application via son assistant vocal. Ainsi toutes les applications, même celles de développeurs tiers peuvent être intégrées à Google Home et Alexa. Malheureusement, tout comme il existe des logiciels dangereux sur ordinateur, des applications dangereuses sur smartphone, il existe des skills dangereux sur assistant vocal.

En théorie, cela ne devrait pas être possible car les équipes d’Amazon et de Google vérifient les skills avant de les publier. Mais les mises à jour des skills acceptés ne sont pas vérifiées, un développeur mal intentionné peut donc soumettre un skill régulier puis, une fois ce dernier accepté, le modifier pour écouter les conversations des utilisateurs. C’est ce qu’a démontré le collectif allemand Security Research Lab. Ce dernier est parvenu à faire approuver huit skills dangereux par Google et Amazon. Dans une vidéo du collectif, une chercheuse active un skill. Après l’échange l’enceinte a diffusé le signal sonore indiquant la fin de l’interaction, mais en réalité elle a continué d’écouter ce que disait l’utilisateur pendant une minute et l’a transmis au Security Research Lab.

Pour permettre au skill de rester actif après l’interaction le collectif demande à l’enceinte de prononcer une série de caractères imprononçables. Ne parvenant pas à les prononcer, l’enceinte reste muette, donnant ainsi l’impression d’être inactive. En réalité, un voyant reste allumé, indiquant qu’un skill est en cours d’exécution. Mais une personne ne faisant pas attention ne le remarquera pas, un assistant vocal s’utilisant avec la voix et non avec les yeux. Le Security Research Lab propose un autre exemple, quand le skill « Today’s lucky horoscope » est activé l’enceinte déclare qu’il n’est pas disponible dans cette région. Une minute plus tard l’enceinte dit qu’une mise à jour est prête à être installée et demande à l’utilisateur de dicter son mot de passe. Il s’agit là du premier cas de phishing par assistant vocal, une pratique habituellement réservée aux e-mails.

Suite à cette démonstration Google et Amazon ont tous les deux annoncé la mise en place de nouvelles mesures pour empêcher ce type de skill d’être à nouveau accepté. Google aurait par ailleurs décidé de revérifier tous les skills ayant déjà passé les contrôles. Cette démonstration vient ternir encore un peu plus l’image des assistants vocaux. Siri d’Apple n’est pas concerné car Apple n’autorise pas les développeurs à produire leurs propres skills.

Actualités dans la même thématique ...

L'intelligence artificielle (IA) bouleverse notre monde, et avec elle, les outils de création de contenu. Parmi les technologies les plus prometteuses, on trouve les outils de Gen Ai, capables de générer automatiquement du texte, des images, de la musique et même du code. Cet article explore les ...

Réagir à cet article