Der Google Assistant lernt in den kommenden Monaten ein paar neue Funktionen
Google hat auf der Voice Global 2020 ein paar Neuigkeiten zum Google Assistant zum Besten gegeben, die sowohl Nutzer, vor allem aber auch die Entwickler von Geräten und Diensten, die mit dem Assistant zusammenarbeiten, betreffen. So will das Unternehmen allem voran dafür sorgen, dass das Entwickeln mit und für die Plattform deutlich einfacher von der Hand geht als bisher. Dafür hat Google nun die webbasierte integrierte Entwicklungsumgebung (IDE) Actions Builder vorgestellt, mit der sich dank grafischer Oberfläche und weiterer Komfortfunktionen wesentlich einfacher arbeiten lassen soll.
Dabei enthalte der Actions Builder verbesserte Debugging-Werkzeuge, erlaube zudem aber auch NLU-Trainingsdaten (Natural Language Understanding) zu verwalten. Die ganze Arbeit sei dabei von einer einzigen Plattform aus zu erledigen. Entwickler, die lieber mit ihren eigenen Werkzeugen arbeiten, dürfen sich dennoch über das überarbeitete Actions-SDK freuen.
For the first time, you’ll have a file based representation of your action and the ability to use a local IDE. The SDK not only enables local authoring of NLU and conversation schemas, but it also allows bulk import and export of training data to improve conversation quality.
Doch auch am Konversationsmodell des Google Assistant sei geschraubt worden, sodass wir Nutzer am Ende schnellere und passendere Antworten bekommen sollen als bisher. Dank einer neuen „Home Storage“-Funktion soll es zukünftig auch möglich sein, dass mehrere Home-Geräte untereinander Daten miteinander synchronisieren und wiedergeben, sprich: Ein Spiel, das auf dem einen Home begonnen wurde, kann auf einem anderen Home-Gerät problemlos weitergespielt werden, etc. Das gelte auch für andere Medien, so Google.
Mit dem neuen Continuous Match Mode ist ein Gerät mit Google-Assistant-Unterstützung in der Lage, einer Reihe von Befehlen zuzuhören, ohne dass der Benutzer jedes Mal aufs Neue „Ok Google“ sagen muss. Das macht die Spracheingabe angenehmer und eröffnet neue Möglichkeiten. Google nennt hier ein Spiel, das nach und nach eine Zeichnung anzeigt und der Nutzer kann dabei am laufenden Band Begriffe nennen, die er meint, im Bild zu erkennen.
Das Mikro erkenne dabei, dass die Eingabe noch nicht beendet sei und bleibe dabei dann aktiviert. Sicherlich wird sich diese Option auf Wunsch auch deaktivieren lassen. Als letzten Punkt nennt Google, dass das AMP-Framework ab diesem Sommer auch auf Smart Displays funktionieren soll, um dort die Darstellung und Anzeigegeschwindigkeit von Webseiten zu optimieren.
wenn die Home Geräte sich untereinander synchronisieren sollten, wäre es cool, wenn man endlich auch Timer oder Wecker oder Erinnerungen die man auf einem Gerät gestellt hat, auf einem anderen abfragen könnte.
Das wäre sicherlich sinnvoll mit dem Wecker. „Soll ich dein Wecker auf all deinen Geräten aktivieren?“ wäre echt sinvoll.
höre ich etwa Sarkasmus? 😀
ich fürchte, Du hörst eher gähnende Leere…
Ach Google… manchmal glaube ich, die Google Leute benutzen die Teile selber gar nicht. An der Benutzerfreundlichkeit ist noch so viel zu machen, aber da tut sich seit Jahren kaum etwas. Insbesondere die Verzahnung mit dem Handy ist noch sehr ausbaufähig. Warum wird mir ein Timer nicht auf dem Handy angezeigt? Um einen Timer mit dem Handy zu deaktivieren muss man in x Untermenüs, sowas könnte man doch Mal auf dem Dashboard anzeigen oder als Benachrichtigung. Warum kann ich meine Wecker nicht wie in der Uhr App verwalten? Menschen, die verschiedene Weckzeiten haben, verzweifeln bei der Spracheingabe.
Dazu kommt, dass Funktionen es ja wirklich erst sehr sehr spät nach Deutschland schaffen…
Auch mehr Produktvielfalt wäre wünschenswert, Amazon hat da die Nase meilenweit vorn.
Irgendwelcher AMP Kram auf dem smart Display ist wirklich ganz weit hinten auf meiner Wunschliste.
Jop, ist echt alles langsam. Ich verstehe auch nicht, wie so Features, wie „durchgängige Konversationen“ oder „OK Google Reaktionsfähigkeit“, so unfassbar lange für andere Länder nicht verfügbar sind ? Das dürfte doch nicht mal etwas mit der Sprache zu tun haben, da bei der Reaktionsfähigkeit, genau die gleichen Worte, wie bei jeder anderen Sprache angepeilt werden. Und mit der durchgängigen Konversation das Gleiche… Es müsste sich nur nochmal aktivieren, nachdem der Befehl durch ist, so wie wenn man was auf Englisch sagt. Ist doch unabhängig von Sprache, ob es sich nochmals aktiviert ? Und die Optionen sind alle da… Dann steht da, fast schon hämisch, dass es nur in der englischen Sprachausgabe verfügbar ist… Wieso aktivieren sie es einfach und falls es rumbugged und nicht richtig funktioniert, deaktiviert der Nutzer es einfach, bis es gefixt wird. Ich finde es auch mega unübersichtlich, wenn neue Features kommen. Google selbst informiert einen auch soft wie nie, in der Home App, das es neue Features gibt. Ich lese das dann zB. hier und muss dann ständig in die App gehen und gucken, ob es die neuen Funktionen schon gibt in DE… Ich habe absolut nichts gegen Alexa, aber ich hab kein Bock, alle meine Google Geräte zu ersetzen gehen Alexa Geräte… Denn ich habe eine Menge und außerdem ist Google ja völlig in Ordnung, wenn die sich nur nicht so doof anstellen würden und der internationale Kundenstamm sich mal zeitnah versorgt würde.