Google Lens: Zur Google I/O vorgestellte Neuerungen werden bereits verteilt
Neuerungen für Google Lens wurden dieses Jahr zur Google I/O vorgestellt. Während Googles Kamera-Auge auch schon vorher einige Tricks beherrscht hat, wird das mit den jetzigen Neuerungen noch einmal besser ausführbar. Bei ersten Nutzern tauchen die neuen Optionen nämlich bereits auf. Sowohl via Google Assistant als auch über Google Photos, das ja auch eine Lens-Integration hat.
Man kann Google Lens nun durch Auswahl mitteilen, was das Tool eigentlich erledigen soll. Fünf Punkte stehen zur Verfügung:
– Translate für die Übersetzung von Texten
– Text für eine Texterkennung, deren Inhalt sich kopieren lässt
– Auto für die Erkennung von Objekten
– Shoppingfür das Scannen von Barcodes oder Produkten
– Dining für das Erkennen von Speisekarten
Die Neuerungen tauchen bislang auf Pixel-Smartphones mit der aktuellen Beta der Google-App (9.91) auf, allerdings auch nicht bei jedem. Kann man also sein Glück probieren, unklar ist allerdings auch, ob die neuen Funktionen erst einmal in der USA bleiben. Die wollen ja international aktuell eh nicht so. Falls Ihr die Google-App Beta nutzt, lasst doch mal hören, ob Ihr die neuen Optionen für Google Lens bereits angezeigt bekommt. Zur Vorstellung war das seinerzeit gar nicht so abwegig, da auch Deutsch als Sprache für den Übersetzer genannt wurde.
Bei meinem auf deutsch eingestelltem Pixel 3 mit beta sind diese Optionen min. seit gestern verfügbar.
Ist das wirklich neu? Ich hatte früher immer schon eine Liste mit den Optionen und seit heute halt anstelle der Liste die Icons (Galaxy S8). Mir kommts so vor als wenn nur das Design neu ist, aber nicht die Funktion als solche.
Ich fände es ja schön wenn sie es mal für andere Apps öffnen würden. Bei Bixby Vision lässt sich inzwischen z.B. direkt AliExpress, Amazon & Co integrieren. Gerade AliExpress funktioniert da 1a. Mal kurz ein kleines Bauteil vor die Kamera halten und schwupps hat man es.
Mein Pixel 2 hat das auch seit dem Update vor drei Tagen.