Google Actions: Neue Tools auf der I/O 2019 vorgestellt

Auf der Google I/O stellte das Unternehmen in seiner Keynote diverse Neuerungen vor, auf die sich Entwickler sowie Endnutzer zukünftig freuen sollen. Darunter zeigt man auch neue Tools und mehr, die sich auf die bereits bekannten Google Actions beziehen. Damit will Google das Web, aber auch Apps und das Smart Home zukünftig noch intelligenter und benutzerfreundlicher machen.

So beispielsweise auch mit dem neuen Feature „How-to markup“, mit dessen Hilfe sich Webseiten ab sofort noch besser in der Google Suche präsentieren können, insofern sie entsprechende How-to-Anleitungen anbieten möchten. Sollte sich ein Nutzer auf die Suche nach „How to attach a pin to my forehead“ begeben, so werden Seiten, die das Feature unterstützen, direkt in der mobilen Suche, beziehungsweise auf dem Smart Display, hervorgehoben dargestellt – wobei letztere erst in den kommenden Monaten unterstützt werden sollen.

Neues zu App Actions

Über die App Action philosophierte Google bereits im letzten Jahr ein wenig. Im Grunde geht es dabei darum, Funktionen des Google Assistants direkt in Apps integrieren zu können, um diese noch zugänglicher zu machen. Nun stellte Google vier neue Kategorien vor, die sich ab sofort in neue oder bestehende Apps einbauen lassen sollen: Gesundheit & Fitness, Finanzen und Bankwesen, Mitfahrgelegenheiten und Lebensmittelbestellung.

Google Pixel showing App Actions Nike Run Club

So soll es wie im Gif zu erkennen dann möglich sein, zum Google Assistant sagen zu können „Hey Google, starte meinen Lauf mit Nike Run Club“ und die App startet automatisch die Verfolgung des Laufs. Oder das Überweisen von Geldbeträgen an Freunde per PayPal. Hier müssen am Ende angeblich nur noch der Senden-Button betätigt werden, der Rest erfolge per Befehl.

Full screen of a Smart Display

Für Smart Displays und Android-Smartphones können sich Entwickler nun an der neuen Funktion „Interactive Canvas“ versuchen, mit deren Hilfe sich Vollbildschirm-Anwendungen erstellen lassen, die dann Sprache, Touch und Grafiken miteinander kombiniert nutzen lassen sollen. Dies wäre beispielsweise für interaktive Spiele nützlich, womit auch gleich die erste von Google zugänglich gemachte Kategorie genannt wäre. Weitere Kategorien sollen natürlich folgen.

Smart Home ohne Cloud?

Dank der ersten Preview des Local Home SDKs soll es Entwicklern nun möglich sein, für die Ausführung von Befehlen im Smart Home nicht mehr zwingend auf eine Cloud setzen zu müssen. Der Code werde direkt an die entsprechenden Geräte verschickt, so Google. Funktionieren soll dies aber vorerst ausschließlich in Verbindung mit Google Home-Geräten und Nest Displays, deren Antennen wohl für die Kommunikation genutzt würden. Erste Partner für das Ganze sind auch schon benannt: Philips, Wemo, TP-Link und LIFX, das SDK soll dann aber ab dem kommenden Monat für alle zur Verfügung stehen.

via

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Nordlicht, Ehemann und Vater. Technik-verliebt und lebt fürs Bloggen. Außerdem: Mail: benjamin@caschys.blog / Mastodon

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.
Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.