
Das Display des iPhone 8 soll an der Oberkante eine Aussparung für Hörmuschel, Frontkamera und Sensoren haben. Unklar ist bislang, wie Apple das Ganze im System einbindet, wie also mit dieser Lücke umgegangen wird. Zwei Möglichkeiten gibt es hier generell, entweder wird der obere Displayabschnitt dunkel mit dem Hardware-Hintergrund verschmelzen oder Apple nutzt die gesamte Displayfläche, um einen beeindruckenderen visuellen Effekt zu erschaffen.
Max Rudberg hat sich einmal mit den UI-Möglichkeiten beschäftigt und die verschiedenen Optionen als Mockup erstellt. Drei Varianten sind dabei herausgekommen, die allesamt auch logisch aufgebaut sind. Dabei geht es nicht nur um die Leiste oben, sondern auch um den Funktionsbereich im unteren Teil des Displays.
Im ersten Mockup wird der Bereich neben den Sensoren für die Statusbar genutzt. Allerdings farblich mit dem restlichen Display-Inhalt abgestimmt, sodass die Aussparung deutlich zur Geltung kommt. Das kann verschieden empfunden werden, es gibt sicher Menschen, die sich an der Unterbrechung stören, andere wiederum finden diesen nicht ganz passenden Übergang vielleicht sogar hübsch.
Bei der zweiten Variante wird die Lücke quasi so vom Display eingefasst, dass der Eindruck eines unterbrechungsfreien Displays entsteht. Schwarzer Hintergrund für die Statusbar bedeutet dann eben, dass die Mitte sich nicht unbedingt vom Display unterscheidet. Unterstrichen wird dies durch abgerundete Ecken für den eigentlichen Displayinhalt.
Beim letzten Mockup geht es um den unteren Bereich des Displays, gerne als Funktion Area bezeichnet. Hier könnte Apple ebenfalls den Weg der Trennung oder der Verschmelzung gehen. Die Trennung vermittelt aber optisch meiner Meinung nach einen so miesen Eindruck, dass man gleich kein größeres Display hätte verbauen müssen.
Es kann natürlich auch sein, dass Apple einen ganz anderen Weg wählt. Angenommen Apple würde sich für eine der drei Varianten entscheiden, welche würdet Ihr als Nutzer denn bevorzugen?
Nicht die einzige Neuigkeit zum kommenden iPhone. Die Kamera soll nämlich intelligenter werden. Eine „SmartCam“ genannte Funktion soll dabei Szenen auf Bildern selbst erkennen und die Aufnahme entsprechend anpassen. Diese Bilderkennung nutzt Apple bereits für Erinnerungen oder die Suche, nun soll sie auch direkt in der Kamera verfügbar sein.
Genannte Szenen sind dabei beispielsweise Baby, Feuerwerk, Dokumente und andere. Ein eigener Neural Engine Prozessor soll dabei die Erkennungsarbeit leisten. Ein eigener Prozessor für diese Aufgabe klingt alles andere als abwegig, man muss sich nur mal an den „M“-Co-Prozessor erinnern, der vor Jahren für die Aufzeichnung von Bewegungsdaten eingeführt wurde.
Und auch Hinweise zu PearlID, der Codename für Apples Gesichtserkennung als Ersatz für TouchID findet wieder Erwähnung, erneut durch die HomePod-Firmware. Demnach kann PearlID für alle Aktionen verwendet werden, die bislang TouchID erforderten – auch Apple Pay.