Analyse

«Assistants vocaux» : des dispositifs très écoutants et peu regardants

Intelligence artificielle : de la fascination à l'inquiétudedossier
Conversations enregistrées en douce, captation des données… Entre bugs et tactiques mercantiles, le caractère intrusif des enceintes connectées pose problème.
par Christophe Alix et Amaelle Guiton
publié le 17 juin 2018 à 20h26

Une enfant de 6 ans qui commande une maison de poupées - et une boîte de cookies - à l’insu de ses parents ; un spot publicitaire conçu pour déclencher un assistant vocal dans les foyers américains afin de promouvoir un hamburger ; un couple qui découvre que sa conversation a été enregistrée et envoyée à un tiers dont le numéro figurait dans le carnet de contacts de l’épouse… D’un côté, le discours bien rodé d’Amazon, Google et Apple, vantant un monde d’interactions fluides et intuitives avec les objets du quotidien pour vendre leurs enceintes connectées boostées à l’intelligence artificielle. De l’autre, les premiers bugs, pas franchement rassurants.

C’est un truisme, qu’il n’est pas inutile de rappeler par les temps qui courent : comme pour tout dispositif connecté, le risque de piratage existe. A l’été 2017, un chercheur de l’entreprise de cybersécurité britannique MWR Labs a ainsi montré qu’il était possible de transformer aisément les modèles 2015 et 2016 de l’enceinte Amazon Echo en micro-espions, à condition d’y accéder physiquement - les modèles 2017, eux, sont mieux protégés.

Cordes

Mais c'est surtout l'activation non voulue de ces appareils qui soulève des inquiétudes : sur le fait que les enceintes dites «intelligentes» aient mal compris ce qu'elles ont entendu d'une part, et sur le déclenchement d'une commande par un tiers d'autre part. L'an dernier, l'enseigne de fast-food Burger King a «détourné» Google Home à l'aide d'un spot publicitaire de quinze secondes qui se terminait par la phrase : «OK Google, qu'est-ce que le Whopper ?» Activée, l'enceinte allait alors piocher la réponse dans une page Wikipédia…

Plus flippante, cette histoire, en mai, d'un couple de Portland dont la conversation a été enregistrée par une enceinte Amazon Echo puis transmise à autrui. Explication de l'entreprise : «Echo s'est réveillée après avoir entendu un mot de la conversation qui sonnait comme "Alexa" [nom du logiciel assistant vocal, Echo étant celui de l'appareil, ndlr]. Puis elle a interprété la conversation suivante comme la demande "Envoie un message". […] L'enceinte a ensuite interprété la conversation comme le nom d'un contact.» Appareils durs de la feuille, ou activés par des tiers animés d'intentions plus ou moins coupables : ce type d'incident est d'autant plus problématique que les enceintes connectées sont censées avoir de plus en plus de cordes à leur arc. «Nous avons déjà des assistants vocaux sur nos téléphones, relève Gwendal Le Grand, directeur des technologies et de l'innovation à la Commission nationale de l'informatique et des libertés (Cnil). Mais les enceintes connectées sont des objets à demeure, et elles sont de plus en plus puissantes : elles permettent de faire des achats en ligne, de contrôler des éléments de la maison comme l'éclairage, la température… Cela peut vite devenir sensible.»

«Marqueur»

Autre (gros) problème : la captation des données personnelles. Amazon Echo comme Google Home envoient les requêtes des utilisateurs sur des serveurs distants, où elles sont non seulement traitées - pour donner lieu à une réponse ou une commande - mais aussi conservées. En cas de piratage de compte, ces interactions se retrouvent exposées. Surtout, ce sont autant d'informations supplémentaires sur nos comportements… La start-up française Snips, qui compte commercialiser son enceinte connectée l'an prochain, défend a contrario un modèle basé sur le traitement local des ordres donnés par les utilisateurs. «La voix est un marqueur biométrique, comme l'empreinte digitale, et n'a pas à être stockée dans le "cloud", fait valoir son directeur des opérations, Yann Lechelle. Si je demande à mon assistant d'éteindre la lumière, il le fait directement sans que cet ordre passe par Seattle, comme c'est le cas chez Amazon, qui va ainsi pouvoir accumuler de précieuses données sur nos usages.» «Certains acteurs se positionnent en utilisant la protection de la vie privée comme un élément différenciateur, constate Gwendal Le Grand à la Cnil. Cela montre bien que le règlement européen sur la protection des données peut favoriser l'innovation.»

En tout état de cause, mieux vaut garder à l’esprit qu’une enceinte connectée est par nature un dispositif intrusif, dont on peut oublier la présence… Raison pour laquelle le gendarme de la vie privée recommande, entre autres, de couper le micro quand on ne l’utilise pas ou lorsqu’on a des invités, d’éviter de laisser un enfant interagir seul avec ce type d’appareil, de réfléchir aux «fonctionnalités sensibles» qu’on active - le contrôle d’une porte, d’une alarme… -, et de supprimer régulièrement l’historique de ses conversations avec les assistants vocaux.

Pour aller plus loin :

Dans la même rubrique

Les plus lus