Apple bringt Visual Intelligence auf das iPhone 15 Pro
Wie John Gruber von Daring Fireball von Apple-Vertretern erfuhr, wird Visual Intelligence – Apples Antwort auf Google Lens – auch den Weg auf das iPhone 15 Pro finden. Die Funktion ermöglicht es, die Kamera auf Objekte zu richten und zusätzliche Informationen darüber zu erhalten.
Ursprünglich wurde Visual Intelligence mit der iPhone 16-Serie eingeführt und war dort über die Camera-Control-Taste zugänglich. Mit der jüngsten Ankündigung des iPhone 16e wurde bekannt, dass die Funktion dort über den Action Button nutzbar sein soll. Da das iPhone 15 Pro ebenfalls über einen Action Button verfügt, war eine Implementierung technisch möglich – und wird nun Realität.
Nutzer des iPhone 15 Pro werden Visual Intelligence auf zwei Wegen aktivieren können: über den Action Button oder das Control Center. Ein konkretes Datum für das Update nannte Apple wohl bislang nicht, aber es könnte mit iOS 18.4 kommen, dessen öffentliche Veröffentlichung auch nicht mehr so weit entfernt liegen dürfte.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich finde es halt etwas witzig wie sehr sich diese Formulierungen ähneln auf den ganzen Technik Blogs und vor allem Apple Seiten.
„ Da das iPhone 15 Pro ebenfalls über einen Action Button verfügt, war eine Implementierung technisch möglich – und wird nun Realität.“
Leute das ist ein Software Feature… finden wir es demnächst beeindruckend wenn ein Handy eine Taste zum Fotografieren hat, obwohl dafür kein Button verbaut ist?
Es ist nett das Apple das nun auch etwas verspätet für das iPhone 15 Pro bringt. Ansich gibt es hier doch ohnehin keinen wirklichen Grund das nicht auch für iPhone 14 usw zu bringen. Ist eben eine Software Limitierung für neuere Geräte, ist doch Standard.
phone 14 hat physisch die Taste nicht
Herzlichen Glückwunsch, dass du Inhalte nicht verarbeiten kannst.
„über den Action Button oder das Control Center“
Also brauchst du zwingend keine physische Taste.
Wozu auch? Als bräuchte man neuerdings dedizierte Knöpfe um eine App oder Funktion zu starten.
Volle Zustimmung! Einen Zusammenhang zwischen dem Vorhandensein eines Action-Button und der Implementierungsmöglichkeit von Visual Intelligence herzustellen macht keinen Sinn.
Damals beim Jailbreak konnte man Features einfach mittels Anpassungen an plist-dateien (False auf True) hinzufügen.
Was ich aber witzig finde, ist der Satz, nach deinem Zitat: „Nutzer des iPhone 15 Pro werden Visual Intelligence auf zwei Wegen aktivieren können: über den Action Button oder das Control Center.“. Welches den Button sogar vollständig Obsolet macht.
“ – Apples Antwort auf Google Lens –“
Niedlich formuliert. In 2 Jahren heisst es wieder, Apple hat es erfunden. Hähn.