Smart Home-Assistenten sind so allgegenwärtig, dass einige Unternehmen sogar damit begonnen haben, Hardware zu erstellen, an die Sie Geräte anschließen können. Hör auf zu hören zu Ihnen.
Jetzt gibt uns eine neue Bedrohung mehr Beweise dafür, dass diese Befürchtungen nicht im geringsten unbegründet sind.
Forscher von Security Research Lab haben gezeigt, dass sie bösartige Apps von Drittanbietern erstellen und von Amazon und Google hosten lassen konnten. Diese Apps würden es einem Hacker ermöglichen, Benutzer von intelligenten Assistenten auszuspionieren und ihre persönlichen Informationen zu stehlen.
VERBINDUNG: AMAZON BESTÄTIGT, DASS ALEXA-STIMMENAUFNAHMEN FÜR IMMER BEHALTEN WERDEN
Testen der Sicherheit von Smart Assistant
Die Research-Hacker des deutschen Sicherheitsforschungslabors haben kürzlich acht Apps entwickelt, vier für Alexa und vier für Google Home, die alle die Sicherheitstests der Unternehmen bestanden haben.
Oberflächlich betrachtet waren diese Apps einfache Horoskopanwendungen, mit Ausnahme einer, die sich als Zufallszahlengenerator ausgab. In Wirklichkeit handelte es sich um "intelligente Spione", die es den Forschern ermöglichten, Benutzer auszuspionieren und nach Phishing zu suchenihre Passwörter.
"Es war immer klar, dass diese Sprachassistenten Auswirkungen auf den Datenschutz haben - Google und Amazon erhalten Ihre Rede, und dies wird möglicherweise manchmal versehentlich ausgelöst", sagte Fabian Bräunlein, leitender Sicherheitsberater bei SRLabs. Ars Technica .
"Wir zeigen jetzt, dass nicht nur die Hersteller, sondern auch Hacker diese Sprachassistenten missbrauchen können, um in die Privatsphäre einer Person einzugreifen."
Gefälschte Fehler und Aktualisierungen
Die Forscher von SRL Labs verwendeten über die Apps verschiedene Methoden, um zu zeigen, dass es möglich ist, Apps von Drittanbietern zu entwickeln, mit denen ein Hacker Gespräche mithören kann.
Die Apps könnten ausgelöst werden, um gefälschte Fehlermeldungen zu senden, was den Eindruck erweckt, dass sie nicht mehr ausgeführt werden. In Wirklichkeit wurden sie lautlos im Hintergrund ausgeführt, sodass die App-Entwickler Mikrofonaufnahmen anhören konnten.
Die Forscher haben zwei Videos veröffentlicht, die zeigen, wie diese Apps auf jedem einzelnen intelligenten Assistenten funktionieren.
Bei Phishing-Angriffen verwendeten die Apps eine gefälschte Stimme, die der der intelligenten Assistenten sehr ähnlich ist. Die Stimme behauptet, dass ein Geräte-Update erforderlich ist, und fragt den Benutzer nach seinem Passwort.
SRL Labs veröffentlicht ein Dokument t genaue Angaben zu den genauen Fehlern, die sie manipuliert haben.
Die Forscher zeigten Google und Amazon die Ergebnisse ihrer Arbeit privat, bevor sie sie der Öffentlichkeit zugänglich machten.
Beide Unternehmen haben Erklärungen veröffentlicht, wonach sie ihren Sicherheitsüberprüfungsprozess verbessern.