Les assistants vocaux peuvent être piratés à distance

mmmmCéline Dion

Mercredi, 6 novembre dernier, Sylvain Garneau nous a fait prendre plus ample connaissance avec l’univers tout récent des assistants vocaux (haut-parleurs connectés), tels Google Home, Alexa (Amazon) et Siri (Apple).

Dans l’énumération des avantages et des inconvénients, je cite le problème le plus médiatisé, soit la mise sous écoute des utilisateurs par les fournisseurs de service, afin de, soi-disant, améliorer l’expérience client.

Il faut admettre qu’effectivement, pour que ces assistants vocaux entendent nos commandements, il faut bien que quelqu’un les programme en conséquence. N’est réellement intelligent que celui qui est vraiment « assis sur la chaise », n’est-ce pas? On ne fait pas d’omelette sans casser des œufs quoi?

Donc, la meilleure façon d’assurer notre intimité au besoin, est de tout simplement mettre hors tension nos assistants vocaux en dehors des heures d’utilisation.

Le Security Research Labs est une entreprise basée en Allemagne, spécialisée dans la recherche au sujet du piratage informatique. Dernièrement, des chercheurs de ce laboratoire ont découvert qu’il était possible de pirater les assistants vocaux Amazon Echo et Google Home tout simplement en pointant un laser sur leur micro,  le laser étant interprété par l’assistant vocal comme un commandement vocal. Les pirates ont ainsi réussi à avoir accès à tous les services liés à l’assistant vocal, et ce, jusqu’à une distance de 100 mètres à l’extérieur du domicile.

Donc, plus on délègue notre cerveau à des appareils « intelligents » connectés (en ligne), plus nous risquons de donner le contrôle de notre vie privée aux programmeurs de ces appareils qui eux, sont réellement intelligents.

Céline Dion

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.