Amazon Echo und Google Home: Laxe Skill-Kontrolle bot Missbrauchspotential

Smart Speaker haben es aktuell nicht leicht, denn immer wieder gibt es Berichte darüber, wie die Hersteller die damit erhobenen Daten auswerten und wie eventuell Missbrauch möglich sein könnte. Speziell bei deutschen Nutzern ist die Skepsis groß, denn die Furcht vor dem Kontrollverlust ist hoch. Das wird nun weiter dadurch befeuert, dass die Sicherheitsforscher von Security Research Labs gezeigt haben, wie einfach Entwickler von Skills / Actions tricksen könnten, um euch gegen euren Willen abzuhören.

Security Research Labs sitzt in Berlin und zeigt in erster Linie mit seinem Experiment, dass Amazon und Google die Skills bzw. Actions für ihre Smart Speaker besser im Blick haben sollten. So entwickelten die Forscher für beide Smart-Speaker-Familien harmlos erscheinende Anwendungen, die sich als Horoskop- / Zufallsgenerator-Features ausgegeben haben. Amazon und Google ließen die Apps jeweils ohne Beanstandungen durch.

Nach dem Durchwinken änderten die Forscher aber jeweils eine Funktion: Bei Alexa sorgt der Befehl „Stopp“ regulär dafür, dass regulär das Vorlesen des Horoskops beendet wird und der Skill sich nach einem „Goodbye“ verabschiedet. Doch die Sicherheitsexperten modifizierten dieses Verhalten nachträglich und es erklang zwar noch das versichernde „Goodbye“, der Skill blieb aber weiter scharf geschaltet und bereit zum Mithören. Aktiviert werden konnte das Abhören dann unbewusst durch Schlüsselwörter, welche die Forscher selbst festlegen konnte. Bis zu 2.500 Wörter sind da offenbar hinterlegbar.

Bei dem Google Assistant ging man etwas anders vor, konnte aber auch hier nach der Freigabe Änderungen an der Action, in diesem Fall ein vermeintlicher Zufallsgenerator für Zahlen, vornehmen und das Abschalten vortäuschen. Als Trick nutzte man hier, was eigentlich ziemlich simpel klingt, unaussprechliche Unicode-Zeichen. Jene kann der Google Assistant nicht vorlesen und bleibt stumm. Allerdings wartet er nach der nicht hörbaren Ausgabe der Unicode-Zeichen auf weitere Befehle. Kommt kein Befehl, wiederholt sich der Vorgang einfach weiter und dadurch wird der Assistant stets in Bereitschaft gehalten.

Sagt nun ein Nutzer etwas, zeichnet die App es auf und leitet es an die Urheber der App weiter – ohne spezifische Aktivierungswörter. Mehr dazu seht ihr ja auch in dem oben eingebundenen Video. Ein weiterer Trick erlaubt es außerdem den Nutzern Passwörter abzuluchsen. Auch hier behalf man sich, indem man bereits durch Amazon und Google freigegebene Apps nachträglich änderte. Es wurde dann bei Benutzeranfragen nur noch angesagt, dass die eigentlich gewünschte Funktion derzeit nicht verfügbar sei.

Abermals las die App anschließend quasi lautlos unaussprechliche Zeichen vor. Anschließend folgte nun aber nach einigen Minuten ein hörbarer Hinweis, der auf ein vermeintliches Sicherheits-Update aufmerksam machte. Der jeweilige Benutzer sollte, um es zu starten, nur noch „Start“, gefolgt vom Passwort ansagen. Das sollte also auf nachlässige Nutzer so wirken, als sei es ein offizieller Update-Hinweis von Amazon oder Google.

Da zeigt euch das obige Video, wie es abläuft. Natürlich haben die Tricks aber auch Nachteile, welche das Risiko verringern, betroffen zu sein: So müsste man sich ja erstmal die problematischen Skills / Actions ranholen bzw. sie im Dickicht der Auswahl entdecken. Außerdem bleibt es natürlich dabei, dass die LEDs der Smart Speaker weiterhin signalisieren, dass gerade mitgehört wird. Da könnte der Benutzer also stutzig werden und einschreiten. Außerdem funktionieren Mithören und auch der versuchte Passwort-Klau nur, wenn die Besitzer zufällig in Reichweite bleiben.

Amazon und Google wurden seitens Security Research Labs über die Problematik informiert und haben laut eigenen Aussagen weitere Schutzmaßnahmen ergriffen. Ins Detail gehen wollte man jedoch nicht. Letzten Endes zeigt das ganze Procedere wohl, dass man eben auch bei Skills / Actions immer mal auf den Anbieter schauen sollte und sich vielleicht nicht jeden Murks zum Ausprobieren ranschafft. Also im Grunde sollte man da genau so bedacht vorgehen, wie bei dem Herunterladen von Apps.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden. PayPal-Kaffeespende an den Autor.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.
Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.