iPhone XS & iOS 12.1: So sieht die Live-Vorschau der Blenden-Einstellungen im Porträt-Modus aus

Mit iOS 12.1 kommt nicht nur das Dual-SIM-Feature auf Apples neuestes Smartphone, sondern auch eine neue Live-Vorschau für den Porträt-Modus, mit dem ihr noch vor dem Knipsen seht, wie sich die jeweiligen simulierten Blenden-Einstellungen auswirken. Um ehrlich zu sein, ist mir der kleine Button in der rechten oberen Ecke des Porträt-Modus gar nicht aufgefallen, nachdem ich  die Beta von iOS 12.1 auf das iPhone XS installiert habe.

Dort findet sich nun nämlich ein kleiner Knopf mit dem „f“-Symbol, der die Blenden-Einstellungen am unteren Displayrand aktiviert. Damit könnt ihr jetzt direkt beim Knipsen die passende Blendenstufe einstellen und das Foto schon entsprechend anpassen. Wer das nicht will, kann aber nach wie vor auch alles noch nachher anpassen und sich für das gewünschte Bokeh entscheiden. Sieht im Bewegtbild dann so aus:

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei Twitter, Instagram, XING und Linkedin, oder via Mail. PayPal-Kaffeespende an den Autor

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

7 Kommentare

  1. Berichtet mal über die App Focos (https://itunes.apple.com/de/app/focos/id1274938524?mt=8)
    Die erzeugt bei „alten“ iPhones mit Doppellinse einen ähnlichen Effekt 😉

    -> ist also wieder mal nachweislich eine von Apple gewollte Zurückhaltung einer Funktion, die z. B. beim iPhone X ebenfalls softwareseitig umsetzbar wäre 😉

  2. Finde ich jetzt aber nicht so überragend toll. Die Tischkante verschwimmt so, als wäre es eine Spiegelung. Noch dazu ist beim Übergang an der Tischkante rechts ein „Knick“ zu erkennen. Übrigens hat meine Lieblings-Kamera App ProCamera ein Update erhalten und damit kann ich jetzt auch mit meinem iPhone X den Effekt nachträglich bearbeiten, aber auch da ist der Effekt in der höchsten Stufe ähnlich gut/schlecht.

  3. Gaussscher Weichzeichner in Echtzeit, toll =/

    Bokeh ist was anderes …

    • Ja, das ist halt nur eine Software-Vermatschung, die in einigen Fällen (z.B. Haarsträhnen) auch hässliche Fehler und Artefakte produziert. Das sollte man hier bei der ganzen Werbung auch nicht verschweigen.

      Ein echtes Bokeh bekommt man halt nur in Hardware mit einer variablen Blende, und so was hat Apple nicht.

      Eine echte variable Blende kenne ich bisher nur von Samsung (z.B. beim Galaxy S9/S9+). Oder gibt’s inzwischen noch andere Hersteller, die das können?

      • Die Samsung-Blende spielt keine Rolle. Die Schärfentiefe wird durch mehrere Faktoren bestimmt:

        – Sensorgrösse
        – Blende
        – Brennweite
        – Distanz zwischen Kamera – Motiv – Hintergrund

        Samsung hat eine variable Blende in einem ganz bescheidenen Rahmen, aber die ist völlig irrelevant, weil alle anderen Faktoren eines jeden Smartphones gegen eine “natürliche Unschärfe” sprechen.

        • Falsch. Wir wissen ja, dass Apple-Fanboys wie du in einem Realitätsverzerrungsfeld leben, aber gegen die Gesetze der Physik und Optik hilft auch kein Wunschdenken. 😉

          Du hast selber die Blende als einen der Faktoren aufgezählt, und gerade im Makrobereich machen die beiden Samsung-Blenden durchaus einen Unterschied.

          Wir wissen ja, dass Apple seine iPhone-Kameramodule (meistens von Sony) kauft, denn selber stellt Apple ja die Komponenten nicht her, sondern kauft sie nur von anderen Herstellern zusammen und lässt die iPhones dann in China zusammenkleben. Und irgendwann in ein paar Jahren wird auch Sony soweit sein, Apple ein Kameramodul mit variabler Blende liefern zu können.

          Und dann wird Apple das als sensationelle „Innovation“ verkaufen. Und Fanboys wie du werden wieder jubeln. Das war schon bei alles Features so, bei denen Apple hinterherhinkt.

          • Cool wäre es wenn du eine Erklärung liefern würdest warum seine Ausführungen falsch sind. In Smartphones ist vor allem die Brennweite viel zu gering um für variable Tiefenschärfe zu sorgen. Das gilt auch für’s S9. Dort sorgt die verstellbare Blende dafür, chromatische Abweichungen im Randbereich auszubügeln und um bei dunklen Szenen mehr Licht reinzulassen (was zu guten Resultaten führt aber um Beleuchtungen zu viel wegbrechen lässt: https://www.digitaltrends.com/mobile/samsung-galaxy-s9-plus-low-light-camera-test/).

            Auch im S9 sorgt die zweite Kamera und Software für Tiefenschärfe-Effekte. Aber nur im S9+, das S9 hat nur eine Kamera. Hat sich Samsung bestimmt für’s S10 Jubiläum aufgehoben.

            Apple entwickelt Kameramodule selbst. Lediglich der Sensor stammt von Sony. Alles weitere, Linsen, Software und neuerdings der Image Signal Processor stammt von Apple. Andere Hersteller machen das auch so.
            Auch Samsung verbaut in der Hälfte der ausgelieferten Geräte Sensoren von Sony. Kommt dann auf’s Glück beim Kauf an welcher am Ende verbaut ist.

            Eine variable Blende hatte übrigens das Nokia N86 vor 9 Jahren. Also ausser dem üblichen Bullshit nichts gewesen.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.