Pixel 3: Google erklärt On-Device-AI


Künstliche Intelligenz ist auf dem Vormarsch. Sei es bei Smart Speakern mit Assistenten oder auch im Smartphone. Im Smartphone ist AI bei manchen Herstellern zum Beispiel für bessere Bilder verantwortlich, indem Szenen erkannt und die Bildeinstellungen entsprechend vorgenommen werden. Künstliche Intelligenz, das bedeutet auch Machine Learning. Systeme müssen mit Informationen gefüttert werden, um Zusammenhänge oder Ähnlichkeiten zu erkennen. Nur so lässt sich das System im Laufe der Zeit verbessern.

AI und Machine Learning benötigt aber jede Menge Rechenpower. Das widerspricht sich ein bisschen mit den Akkulaufzeiten mobiler Gadgets. Dennoch scheint es energiesparender zu sein, die Berechnungen direkt auf dem Smartphone auszuführen, anstatt die Daten erst in die Cloud zu jagen, wo sehr viel mehr Rechenpower zur Verfügung steht.

Google macht beim letzte Woche vorgestellten Pixel 3 (hier unser Ersteindruck) genau dies. Berechnungen direkt auf dem Gerät ausführen, sie nicht in die Cloud schicken. Das hat laut Google den Vorteil, dass eben weniger Energie benötigt wird, gleichzeitig aber auch alle Daten auf dem Smartphone bleiben, also nicht irgendwo auf Servern landen. Denn egal wie sicher solche Server sind, es besteht immer Gefahr, dass so Daten in die Hände von Leuten gelangen, denen man diese Daten lieber nicht anvertraut hätte. Ein System ist nur solange sicher, bis ein Fehler entdeckt wird.

Gleichzeitig hat die Verfügbarkeit von AI direkt auf dem Smartphone natürlich den Vorteil, dass man unabhängig von einer bestehenden Internetverbindung darauf zugreifen kann.

Ein Pixel 3-Feature, das davon Gebrauch macht, ist Call Screen (nur in den USA verfügbar). Call Screen nutzt die Spracherkennung direkt auf dem Smartphone, um gesprochene Texte anzuzeigen.

Auch die Verfügbarkeit von Google Lens direkt in der Kamera ist On-Device-AI geschuldet. So können Informationen direkt im Sucher angezeigt werden, ohne erst Bilder an Server schicken zu müssen.

Und auch bei Playground, Googles AR-Spielwiese, kommt On-Device-AI zum Einsatz, damit man auch ohne direkte Aufnahme oder Wartezeiten mit den Playmojis und anderen Inhalten herumspielen kann.

Schnell, effizient und privat, so sieht AI direkt auf den Smartphones aus. Das ist natürlich nur der Anfang, Google wird immer mehr AI-Funktionen direkt auf das Smartphone bringen, ohne die Cloud anzapfen zu müssen. Ist das etwas, über das Ihr Euch Gedanken macht oder ist es Euch egal, welche Daten von Euch für Berechnungen in der Cloud landen?

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Sascha Ostermaier

Technik-Freund und App-Fan. In den späten 70ern des letzten Jahrtausends geboren und somit viele technische Fortschritte live miterlebt. Vater der weltbesten Tochter (wie wohl jeder Vater) und Immer-Noch-Nicht-Ehemann der besten Frau der Welt. Außerdem zu finden bei Twitter (privater Account mit nicht immer sinnbehafteten Inhalten) und Instagram. PayPal-Kaffeespende an den Autor.

Das könnte dir auch gefallen…

Mit dem Absenden eines Kommentars willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten ein.

4 Kommentare

  1. „Ist das etwas, über das Ihr Euch Gedanken macht oder ist es Euch egal, welche Daten von Euch für Berechnungen in der Cloud landen?“
    … komische Frage unter einem Artikel, der beschreibt, dass WENIGER Daten in die Cloud gehen.
    Den größten Vorteil der lokalen Implementierung sehe ich in der Unabhängigkeit vom Internet. Früher konnte man viele Funktionen auch im Flugmodus nutzen. Mittlerweile merkt man erst auf Reisen, wie wenige der gewohnten Funktionalitäten ohne Netz laufen. (Es sei denn, man hat vorsorglich Offline Navi, Wörterbuch, Wikipedia, … parallel installiert.)

  2. Nur weil Faten, warum sich immer, erstmal Lokal berechnet werden, heißt diese ja nicht, dass sie nicht in die Cloud gehen. Bzw. die Ergebnisse daraus. Aufgrund dessen von mehr privat zu sprechen halte ich für falsch.

  3. Cool cool! Mich würde mal die technische Implementierung interessieren! Vermutlich werden sie auf der Adreno rumrechnen, aber die Hintergründe zu kennen wäre top!

    Ich finde es sehr gut, dass sowas lokal gemacht wird. Allerdings glaube ich ebenfalls, dass die Endprodukte ins Netz geladen werden. Mehr Trainingsdaten = besseres neuronales Netz. Würde mich also wundern, wenn Google dies nicht nutzen würde. Wer weiß 🙂

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren. Alternativ könnt ihr euch via E-Mail über alle neuen Beiträge hier im Blog informieren lassen. Einfach eure E-Mail-Adresse hier eingeben, dann bekommt ihr 1x täglich morgens eine Zusammenstellung. Mit dem Absenden willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.
Wir benutzen Cookies um die Nutzerfreundlichkeit der Webseite zu verbessern. Durch Deinen Besuch stimmst Du dem zu.