Amazon Echo Show: Show-and-Tell-Feature erkennt per Befehl Gegenstände vor der Kamera
„Alexa, was halte ich in der Hand?“ – mit jenem Befehl könnten auch hierzulande zukünftig Menschen mit Sehbehinderungen von Alexa Hilfe dabei bekommen, zu erfahren, welchen Gegenstand sie da gerade vor die Kameralinse ihres Echo Show halten. Gemeinsam mit dem „Vista Center for the Blind and Visually Impaired“ in Kalifornien wurde das neue Feature „Show and Tell“ entwickelt, das ab sofort in den USA sowohl auf der ersten als auch der zweiten Generation des Echo Show verfügbar ist.
Wann die Funktion weltweit oder zumindest in anderen Teilen der Welt als den USA verteilt wird, ist bisher nicht bekannt. Show and Tell erkennt auf Befehl Gegenstände, aber auch kompliziertere Gebilde, wie Gewürze und dergleichen, angeblich recht zuverlässig dank fortschrittlicher Technologien – Stichwort Maschinelles Lernen und Computer Vision.
Wenn das genauso gut wie Google Lens funktioniert Mein Kater ist eine Kuh
Ich finde, dass sich Lens echt gemacht hat. Vor allem im Bereich Pflanzenerkennung. Zumindest findet man bei den Vorschlägen häufig das, was man sucht. Ist bestimmt nicht Fehlerfrei, aber die Erkennungsrate ist schon erheblich besser geworden.
… finde ich Super, da ich selbst betroffen bin nur noch ca. 2 % sehe kann dies sehr nützlich sein wenn es dann auch funktioniert. Amazon sollte dann bei z.B. den Echo Shows mit der Barrierefreiheit beim einrichten eines neuen Gerätes den Benutzer fragen ob die Schriftvergrößerung ,Hintergrundfarbe und Sprachausgabe aktiviert werden soll und nicht erst nachdem Jemand Dir das Gerät eingerichtet hat . Also nicht bei Schritt 5 anfangen sondern bei 1 oder hat Amazon dies bereits geändert ? (habe den Show 2 damals zurück gesendet )
Gibt es über die neue Funktion ein VIDEO ?
Gruss Keule