Google: Von Mobile First zu AI First – ein persönliches Google für alle
Google hat heute eingeladen, neben neuer Hardware gab es natürlich auch ein bisschen vom Drumherum zu erzählen. Laut Sundar Pichai befinden wir uns gerade in einer Wandlung, in der es nicht mehr Mobile First, sondern AI First heißt. Machine Learning, Deep Learning, künstliche Intelligenz, das Kind hat viele Namen. Und viele Gesichter. Eines davon ist der Google Assistant. Nutzer des Messengers Allo haben bereits einen ersten Einblick erhalten, wo die Reise hingeht. Der Google Assistant bezieht dabei persönliche Informationen des Nutzers mit ein, auch von verschiedenen Diensten gesammelt, um dem Anwender behilflich zu sein.
Das ganze soll so natürlich wie möglich gestaltet sein. Dazu gehört auch das Verständnis der Maschinen. Bilder müssen inhaltlich erkannt werden, Sprache muss erkannt werden – und das muss dann auch noch logisch verarbeitet werden, sodass der Anwender einen Nutzen daraus ziehen kann. Dazu gehört auch, dass der Assistent natürlich antwortet, Konversation betreibt.
Der Assistent lernt auch während der Nutzung, zusätzlich zur technischen Weiterentwicklung. Übersetzungen werden zum Beispiel immer besser, das kommt auch daher, dass die Übersetzungen nicht mehr auf Phrasen basieren, sondern über neuronale Netzwerke angefertigt werden.
Das kommt auch dem Assistant zu Gute, da dieser mit mehreren Sprachen umgehen können muss. Gleiches gilt für Text zu Sprache, denn auch Antworten des Google Assistant sollen so natürlich wie möglich klingen. Langfristig soll der Assistant nicht nur „Dialekte“ lernen (Unterschied Deutsch in Deutschland und Deutsch in der Schweiz), sondern auch Emotionen transportieren können.
Und schlussendlich soll der Assistant nicht nur auf dem Smartphone zu Hause sein, dazu dann aber gleich in einem anderen Beitrag mehr, wenn es um Hardware geht.
Rick hatte doch einen Rechtschreibfehler in seiner Message an seine Frau.
Er hat gesagt „Want to go to see … bla“ und Google hat geschrieben. „Went to go to see …“
Wenn das schon im Englischen so läuft, dann wird das im deutschen nicht zu gebrauchen sein.
AI-Assistent im Messenger erinnert mich ein bisschen an Douglas Adams‘ „Dirk Gently’s Holistic Detective Agency“. Der Videorekorder schaut sich für einen das öde Fernsehprogramm an, der elektrische Mönch „glaubt“ für einen und der Assistent im Messenger chattet mit – Tada! – einem anderen Messenger Assistenten. Schön, brauche ich mir den ganzen Quatsch nicht mehr selber durchzulesen ;-).
Brauche ich dann überhaupt noch einen Messenger?
Die Frage bleibt in wie weit der Assistent auch für/auf andere Phones kommt.
AI funktioniert doch nur halbwegs in den Demos. Mein Google Fotos liefert zu 70 Prozent einfach Bullshit bei der Suche.
Ich jedenfalls habe von dem Termin heute mehr erwartet. Ich dachte jetzt zeigt Google was bahnbrechendes, Neues, wie Steve Jobs 2006 mit dem ersten IPhone. Aber die Präsentation war doch total lahm.
Im Mai hat sich Sundai Pitchar doch auch gebrüstet, jede fünfte Suche ist eine Sprachsuche.
Klar, wenn ich am Autofahren bin habe ich eh die Zeit und kann auch jede Frage fünf mal stellen…
Wer die Präsentation lahm fand hat glaube ich nicht realisiert wie hoch komplex es ist so etwas zu bauen. In jedem der vorgestellen Dingen stecken hunderte wenn nicht tausende von Mannjahren drinnen.
@Johann Dirry
das interessiert niemand, ob wenig oder viele Input usw. drin steckt, den Endkunden interessiert nur funktioniert es ja/nein – was aber auch verständlich ist