iOS 15: Live Text nutzen und Text mit Spotlight in Fotos finden

Ihr habt es natürlich mitbekommen, iOS 15 ist erschienen und kann auf unterstützte iPhones geladen werden. Zahlreiche der neuen Funktionen haben wir hier schon für euch beschrieben, manches kann man sich aber auch noch einmal in Erinnerung rufen. Beispielsweise die Funktion Live Text und das Auffinden von Text in Fotos direkt über die Spotlight-Suche. Live Text begegnet euch, wenn ihr mit der Kamera-App auf etwas zeigt, das erkennbaren Text bietet. Live Text erkennt viele hilfreiche Informationen in Bildern. So können Nutzer bei erkannter Telefonnummer einen Anruf machen, eine E?Mail senden oder eine Weg­beschrei­bung aufrufen, einfach, indem man auf den hervor­gehobenen Text in einem Foto tippt. Auch das Kopieren und Weiterleiten ist ganz einfach möglich. Das Extrahieren des Textes funktioniert über das Textsymbol rechts oben (siehe unser Screenshot oben).

Das kann auch zu Übersetzungszwecken genutzt werden. Live Text versteht sieben verschiedene Sprachen: Englisch, Chinesisch, Französisch, Italienisch, Deutsch, Portugiesisch und Spanisch. Und durch die systemweite Übersetzung kann man einfach tippen und übersetzen (linker Teil des Screenshots über diesem Absatz. Zu guter Letzt findet die Spotlight-Suche auch Text in Bildern. Der Index scheint flott zu arbeiten – und bereits existente, lokale Bilder werden auch verarbeitet. Nützlich!

Apple iPhone 13 Pro (128 GB) - Sierrablau
Apple iPhone 13 Pro (128 GB) - Sierrablau
6,1" Super Retina XDR Display mit ProMotion, das alles schneller und flüssiger macht; 12 MP TrueDepth Frontkamera mit Nachtmodus, 4K HDR Aufnahme mit Dolby Vision
1.149,00 EUR
Apple iPhone 13 Pro Max (128 GB) - Silber
Apple iPhone 13 Pro Max (128 GB) - Silber
6,7" Super Retina XDR Display mit ProMotion, das alles schneller und flüssiger macht; 12 MP TrueDepth Frontkamera mit Nachtmodus, 4K HDR Aufnahme mit Dolby Vision
1.249,00 EUR
Apple iPhone 13 (128 GB) - Pink
Apple iPhone 13 (128 GB) - Pink
6,1" Super Retina XDR Display; 12 MP TrueDepth Frontkamera mit Nachtmodus, 4K HDR Aufnahme mit Dolby Vision
899,00 EUR
Apple iPhone 13 Mini (128 GB) - Blau
Apple iPhone 13 Mini (128 GB) - Blau
5,4" Super Retina XDR Display; 12 MP TrueDepth Frontkamera mit Nachtmodus, 4K HDR Aufnahme mit Dolby Vision
799,00 EUR

In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Seit 2008 ist es Beruf(ung). Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei Twitter, Facebook, Instagram und YouTube. PayPal-Kaffeespende. Mail: carsten@caschys.blog

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

12 Kommentare

  1. Ziemlich beeindruckend, als ich gestern Abend meine Fernbedienung fotografierte und dann den Markennamen kopieren konnte, als wäre es Text. Freue mich darüber vor allem, wenn ich an endlose Verwendungszwecke auf Papierrechnungen denke, die kein Mensch abtippen will, aber hin und wieder muss.

  2. Ab welchem iPhone funktioniert dies denn? Mein iPhone X kann es nicht, dass XR schon. Die Info wäre ganz gut.

  3. Eine wirklich tolle Funktion. Ein I-Tüpfelchen fehlt aber: In der globalen Spotlight-Suche findet Siri zwar Carstens Cola-Flasche, aber in der Fotos-App funktioniert das in der Suche noch nicht mit direkten Texten.

  4. Und was kann das jetzt mehr als das was Google Lens seit Jahren beherrscht?

    • War auch mein Gedanke. Vermutlich weil es von Apple kommt.

      • Es ist ziemlich identisch zu Google Lens, man musste als iPhone Nutzer aber bisher halt immer eine App dafür benutzen und es macht halt einen großen Unterschied für die Nutzung ob etwas nativ integriert ist.

    • Hat wer gesagt, dass Google es nicht besser oder ebenso gut macht? Wenn du im Apple Ökosystem bist, ist das aber neu und flasht uns jetzt so, wie dich damals bei deinem Google Handy.

    • Seit „Jahren“? Soweit ich das verfolgt habe, kam die on-device- / Offlinefunktionalität bei Lens aber auch erst im Februar 2021, also vor sieben Monaten.

      Und ob / wie Lens im Standardzustand arbeitet, weiß ich gerade nicht. Aber ich hätte meine Probleme damit, Google nicht nur Bilder / Fotos zu übermitteln UND dann auch noch deren Server sämtliche Textinhalte auslesen (und speichern) zu lassen.

      Schnell mal die Krankmeldung für die Krankenkassen-App fotografieren und schon weiß Google, dass du gerade den Befund X, Y oder Z hast, und zwei Tage später bekommste dann Werbung für Pilzcreme, Stimmungsaufheller oder Babyartikel…

  5. Weiß jemand warum das unter iPadOS nicht geht? Man kann dort nicht direkt aus der Kamera Text auswählen, aber ein Foto machen und dann direkt den Text auswählen

  6. Tolle Funktion und sehr intuitiv integriert. Muss öfter mal einen WLAN Code von einem Router abfotografieren und da ist das extrem nützlich.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.