Les assistants vocaux peuvent être piratés à distance

mmmmCéline Dion

Mercredi, 6 novembre dernier, Sylvain Garneau nous a fait prendre plus ample connaissance avec l’univers tout récent des assistants vocaux (haut-parleurs connectés), tels Google Home, Alexa (Amazon) et Siri (Apple).

Dans l’énumération des avantages et des inconvénients, je cite le problème le plus médiatisé, soit la mise sous écoute des utilisateurs par les fournisseurs de service, afin de, soi-disant, améliorer l’expérience client.

Il faut admettre qu’effectivement, pour que ces assistants vocaux entendent nos commandements, il faut bien que quelqu’un les programme en conséquence. N’est réellement intelligent que celui qui est vraiment « assis sur la chaise », n’est-ce pas? On ne fait pas d’omelette sans casser des œufs quoi?

Donc, la meilleure façon d’assurer notre intimité au besoin, est de tout simplement mettre hors tension nos assistants vocaux en dehors des heures d’utilisation.

Le Security Research Labs est une entreprise basée en Allemagne, spécialisée dans la recherche au sujet du piratage informatique. Dernièrement, des chercheurs de ce laboratoire ont découvert qu’il était possible de pirater les assistants vocaux Amazon Echo et Google Home tout simplement en pointant un laser sur leur micro,  le laser étant interprété par l’assistant vocal comme un commandement vocal. Les pirates ont ainsi réussi à avoir accès à tous les services liés à l’assistant vocal, et ce, jusqu’à une distance de 100 mètres à l’extérieur du domicile.

Donc, plus on délègue notre cerveau à des appareils « intelligents » connectés (en ligne), plus nous risquons de donner le contrôle de notre vie privée aux programmeurs de ces appareils qui eux, sont réellement intelligents.

Céline Dion