Voice ID: Amazon arbeitet an Alexa-Nutzerunterscheidung anhand der Sprache
Amazon Alexa (hier unsere Übersichtsseite zum Thema) kann sehr praktisch sein. Auf Zuruf gibt es Informationen, man kann Smart Home-Gertäte steuern oder auch Bestellungen tätigen. Letzteres wurde bereits mehrfach zum Problem, nämlich dann, wenn Kinder plötzlich heimlich bestellen oder Alexa durch einen Nachrichtensprecher aktiviert wird. Voice ID könnte die Lösung für das Problem sein, Amazon arbeitet nach Informationen von Time bereits seit 2015 an der Erkennung. Die Funktion soll nun bereit für den Einsatz sein, unklar ist allerdings, wann oder ob Amazon sie auch verteilen wird.
Voice ID nimmt eine Art Fingerabdruck der Stimme des Nutzers. So kann Alexa erkennen, wer gerade eine Anfrage stellt und entsprechend reagieren. So wäre beispielsweise realisierbar, dass jeder im Haushalt andere News vorgelesen bekommt, wenn er danach fragt. Oder dass Musik besser angepasst werden kann. Oder dass eben Bestellungen durch Kinder oder Dritte verhindert werden.
Das ist zwar jetzt schon möglich, indem man die Accounts via Echo wechselt, aber richtig praktisch ist das eben nicht. Voice ID wäre da eine sehr elegante Lösung. Generell wäre es so natürlich auch möglich, Alexa nur auf bestimmte Personen reagieren zu lassen, man hat ja oft den Eindruck, dass Menschen tatsächlich Angst davor haben, jemand Fremdes würde mit Echo ständig Bestellungen auslösen.
Endlich! Sehr gut.
Das hat mich eigentlich schon gewundert dass es so eine Funktion nicht gibt, Apple hat das bei „Hey Siri“ ja auch ganz gut unter Kontrolle…
Amazon soll erst einmal die grundlegenden Funktionen ordentlich implementieren. Es ist erstaunlich, wie dumm Amazon Echo noch nach Jahren ist. Da verhindert der Satzbau die Ausführung von Befehlen, sodass man sich noch immer Standardbefehle wortgenau merken muss. Und gestern bin ich fast irre geworden, weil Alexa das neue Album von Sohn absolut nicht abspielen wollte. Selbst dann, als ich eine Playlist namens „Sohn“ angelegt hatte. Alexa meinte nur immer, „Sonos“ könne auf Spotify nicht gefunden werden. Naja, immer noch besser, als wenn Alexa etwas anderes versteht. Was ich da schon für nervige Songs gehört habe… alleine dieser vermaledeite Mark Forster mit seinem Song „Chöre“. Was oft alleine dieses Lied schon angespielt wurde, nur weil ich Chorgesagt hören wollte…
snowden hat sich umsonst geopfert drängt sich dabei als gedanken auf. wir überwachen uns jetzt selber, externe überwachung ist garnicht mehr notwendig.
Schnarch…
@x02a: Wo hat Apple das denn mit „Hey Siri“ unter Kontrolle? Zwei iPhones in einem Raum und es ist praktisch Glückssache, welches reagieren wird. Von der gleichen Person gesprochen, mit unterschiedlichen Account-Verknüpfungen.
@sascha: hier kein Problem, 2x iPhone 7… aber Moment, du sagst ja „von der gleichen Person gesprochen“ -> davon ist hier ja nicht die Rede oder, Echo soll ja verschiedene Personen auseinander halten – und mein iPhone reagiert auch nur auf meine Stimme… dann ist das doch genau die Funktion die Amazon hier liefern will?
Ach, das wäre prima. Und noch schöner wäre es, wenn dann zwei verschiedene Spotify Premium Konten verbunden werden könnten. Momentan haben wir extra ein Konto von Spotify angelegt, welches den Playlisten meiner Freundin und meiner Playlist folgt…
@xo2a: Nacj, wenn die zwei Iphones von Sascha (eins sein, eins dass der Frau) auf seine STimme reagieren ist es doch genau das, was du ansprichst: Beide Iphones aktivieren sich, ob nun von der Frau oder seins…
Siri wird beim iPhone 7 auf die Stimme trainiert, wie das im Artikel für Echo beschrieben wird. Dennoch kann ich auch nicht sagen, dass Apple das im Griff hat. Im Büro habe ich das mal mit Kollegen getestet. Von 10 Versuchen lag Siri in drei Fällen daneben. D.h. mein iPhone 7 hat reagiert, obwohl nicht ich „Hey Siri“ gerufen habe. Klar, das ist besser als nichts. Doch „im Griff haben“ ist etwas anderes. 😉
Also die Cortana auf Windows Mobile 10 kann das jetzt schon.
@Dirk: So ist es. Und die „Schnarch“-Nasen wachen in einer (Großkonzern-)Diktatur auf und merken es nicht mal. – „Resistance is futile“, aber aus ganz anderen Gründen…
@x02a: Hier ein iPhone der Frau und eins von mir. Beide auf die jeweiligen Besitzer „antrainiert“. Wenn ich nun „Hey Siri, blablabla“ sage, ist es reine Glückssache, welches der beiden Phones reagiert. Beide reagieren auf meine Stimme und umgekehrt ist es auch so. Da wird gar nichts unterschieden, wer da spricht.
Ist leider bei Android auch noch ein Problem. Wozu dieses Stimmentraining dann überhaupt gut sein soll?! Bei Google reicht es oft schon, wenn jemand im Raum „OK“ sagt und Google Now geht in den Horch-Modus um wenig später loszuplappern „wenn Du gerade etwas gesagt hattest, wurde es nicht verstanden“. Deshalb nutze ich die Funktion auch kaum noch.
Jo, ist bei mir genauso. Sowohl „Ok, Google“ als auch „Hey Siri“ reagieren auf belieblige Menschen. Von Unterscheidung ist da nichts zu merken.