iOS 13 Funktion „FaceTime Attention Correction“: Video erklärt die neue Augenkorrektur in FaceTime

Apple hat am Dienstagabend die dritte Beta von iOS 13 veröffentlicht, die neuen Funktionen habe ich euch bereits in einem separaten Post zusammengefasst. Eines dieser Features ist eine neue Option in den FaceTime-Einstellungen, die sich „FaceTime Attention Correction“ nennt. Primär geht es bei der Funktion darum, die Augen künstlich so zu justieren, dass es aussieht, als ob ihr euer Gegenüber direkt anseht, obwohl ihr auf euren Bildschirm – also eigentlich leicht nach unten – schaut. Der Nutzen dieses Features mag sehr gering sei. Es ist jedoch so, dass sich Menschen besser angesprochen fühlen, wenn man sie ansieht. Macht den Video-Chat etwas persönlicher, ersetzt aber nie das direkte Gespräch.

Doch wie funktioniert das Ganze? iOS nutzt die Tiefendaten der True-Depth-Kamera des iPhone XS / XS Max und manipuliert die erkannten Augen, indem der Bereich leicht versetzt wird.  Die Kollegen von MacRumors erklären das ziemlich gut und demonstrieren diese Verschiebung mit einem Strohhalm (2:30). Schaut doch mal rein und lasst gern eine Meinung da, was ihr von dieser Funktion haltet.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei Twitter, Instagram, XING und Linkedin, oder via Mail. PayPal-Kaffeespende an den Autor

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

8 Kommentare

  1. Black Mac says:

    Super, dass es diese Funktion mit den aktuellen Geräten gibt. Hätte genauso gut sein können, dass sie der nächsten Generation der iPhones vorbehalten bleibt.

    Deshalb hoffe ich, dass sie es auch auf die aktuellen iPad-Pro-Modelle schafft.

  2. “ iOS nutzt die Tiefendaten der True-Depth-Kamera des iPhone XS / XS Max“
    XR & X bekommen das dann auch oder nicht?

    • tartaros84 says:

      Beim X bin ich mir nicht sicher, wegen der CPU.

      Das Xr ist technisch Identisch mit dem XS und bekommt damit dieses Feature normalerweise auch.

    • Black Mac says:

      Ich dachte, es sei andernorts schon mehrmals geschrieben worden, dass das XR ebenfalls damit beglückt wird; das X hingegen nicht.

  3. Interessant, aber stark verbesserungswürdig. Sieht zwar besser als unter iOS12 aus aber, vom direkten Blick in der Kamera noch meilenweit entfernt…

  4. Also für mich sieht das nicht nach „eye contact“ aus.
    Um genau zu sein, nach der Beschreibung im Text bin ich vom eigentlichen Video doch recht enttäuscht – ich finde es ist kaum ein Unterschied wahrnehmbar, selbst im direkten Vergleich.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.