Apple Visual Intelligence ist das Pendant zu Google Lens
Apple hat gestern neue iPhones vorgestellt. Jedes der präsentierten Modelle verfügt über einen neuen kapazitiven Button, der auf den Namen Camera Control hört. Mit diesem wird man nicht nur bestimmte Kamera-Funktionen steuern können, er ist auch für Visual Intelligence notwendig.
Visual Intelligence ist, einfach gesagt, Apples Alternative zu Google Lens. Man nutzt die Kamera, um das Objekt, über das man mehr erfahren möchte in den Fokus zu nehmen, betätigt den Button und die KI zeigt mehr Informationen an. Apple zeigte hier Beispiele wie das Ermitteln einer Hunderasse oder die Infos zu einem bestimmten Restaurant und das Buchen in jenem.
Apple spricht davon, dass das meiste direkt auf dem Gerät passiert, die genutzten Services aber ohnehin nie Informationen wie Bilder oder Videos speichern. Das Theme Privatsphäre hob man in diesem Zusammenhang noch einmal hervor. Man nutzt Visual Intelligence aber auch als Gateway zu anderen Diensten, wie beispielsweise direkt zu Google. Bei uns wird man wahrscheinlich noch eine Weile auf derlei Funktionen warten müssen.
Off. Beschreibung:
Benutzer können auf die Kamera-Steuerung klicken und gedrückt halten, um die Öffnungszeiten oder Bewertungen für ein Restaurant, an dem sie vorbeigehen, anzuzeigen, ein Ereignis von einem Flyer zu ihrem Kalender hinzuzufügen, schnell eine Hunderasse zu identifizieren und mehr. Die Kamera-Steuerung wird auch als Eingangstor zu Tools von Drittanbietern mit spezifischer Fachkenntnis dienen, z. B. wenn Benutzer auf Google suchen möchten, um herauszufinden, wo sie einen Artikel kaufen können, oder um von den Problemlösungsfähigkeiten von ChatGPT zu profitieren. Benutzer haben die Kontrolle darüber, wann Tools von Drittanbietern verwendet werden und welche Informationen geteilt werden.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Zitat: „Jedes der präsentierten Modelle verfügt über einen neuen kapazitiven Button, der auf den Namen Camera Control hört. Mit diesem wird man nicht nur bestimmte Kamera-Funktionen steuern können, er ist auch für Visual Intelligence notwendig.“
Heißt es, dass diese Funktion exklusiv für die iPhone 16 Modelle kommen wird?
Ja.
Schade. Warum es (technisch) nicht möglich gewesen wäre, „Visual Intelligence“ z. B. auf den Action Button des iPhone 15 Pro (Max) legen zu können, erschließt sich mir spontan nicht.
Na, du sollst gefälligst ein neues IPhone kaufen. So möchte es Apple. Also los!!
Da wird Apple leider noch mindestens ein Jahr warten müssen; bin doch mit dem 15 Pro Max zufrieden und ohne die Apple Intelligence-Features in Deutschland gibt es doch für hiesige Käufer sehr wenig Gründe, über einen Wechsel nachzudenken.
Wäre ich mir nicht so sicher, denn es wird ja wohl nur eine CAM App geben
Nein Apple liefert dir einen Bausatz für dein iPhone 7 damit du nachträglich den Button selbständig einbauen kannst.
Wahnsinn. Die haben JETZT eine Google Lens Alternative eingeführt und das NUR auf der 16er Reihe? verstehe ich das richtig? Wow, Hut ab
Die führen ja auch jetzt den „magischen Radierer“ von Google aus dem Jahr 2021 ein. ☺️
Es muss ja nicht jeder Hersteller bei allem das Rad neu erfinden (alles selbst entwickeln).
Niemand verbietet dir Google-Lens seit Jahren auf dem iPhone zu benutzen.
Der Unterschied besteht darin, dass Visual Intelligence im Gegensatz zu Google Lens auf dem Gerät arbeitet. Das ist diese Sache mit der Privatsphäre.
Nein.
Teile sollen auf dem Gerät arbeiten. Andere Online.
Nur mal ganz kurz nachgedacht:
Du willst Restaurantbewertungen sehen -> die kommen wohl von online
Du willst Öffnungszeiten sehen -> die kommen wohl von online
Du willst die Hunderasse wissen -> Erkennung findet wohl online statt
Du willst buchen -> online
….
Das „Auf dem Gerät“ ist eher Marketing.
Doch. Es geht um das Foto.
Nicht nur, denn es werden wohl kaum alle Informationen über sämtliche Restaurants, Bauwerke oder Tierrassen auf dem iPhone gespeichert werden.
Apple formuliert es so: „iPhones use a combination of on-device intelligence and Apple services that never store your images to power Visual Intelligence and let you take a picture of a restaurant to get info about its hours.“
Ja genau. Also anders als Google Lens das macht. Sag ich doch.
Ach wie lustig dieses auf Krampf jedes Jahr ein neues Gerät auf den Markt werfen zu müssen:
– Erst gibt es viele Buttons, dann werden es weniger Buttons und dann wieder mehr Buttons
– Mal gibt es abgerundete Ecken, dann wieder eckige Ecken, dann wieder aberundete Ecken und zwischendurch auch mal weniger aberundete Ecken
– Mal mit Glasrückseite, dann wieder ohne Glasrückseite und dann doch wieder Glasrückseite
Wer möchte nochmal am Designglücksrad drehen?
Ich befürchte, das größte Problem wird sein, dass die Daten von Apple Maps kommen, zumindest in Teilen. Die Daten dort sind mEn deutlich schlechter als bei Google. Auch wenn ich Apple Maps inzwischen wirklich gelungen finde, ist es für POIs fast nicht zu gebrauchen, weil die Daten veraltet, schlicht falsch oder zumindest früher glaub von Yelp kamen. Da muss sich noch viel tun, dass sie in der Hinsicht mit Google mithalten können.