Google Pixel 4: Google Kamera nimmt größeren Farbraum auf
Das Google Pixel 4 wird kommen – und wie es von hinten aussieht, wurde schon von Google bestätigt. Da natürlich ganz offensichtlich: Das neue Kamera-Setup. Auch Google kann nicht alles aus einem Sensor mit seiner Software holen. Offenbar könnten mit dem Erscheinen des Pixel 4 von Google auch ein paar neue Software-Funktionen Einzug halten. Wir erinnern uns: Auch mit dem Pixel 3 und dem Pixel 3a wurden Funktionen eingeführt, die erst später auf andere Pixel-Geräte kamen. Offensichtlich plant Google die Unterstützung von breiteren Farbräumen. Bislang ist es so, dass Android-Smartphones standardmäßig sRGB als Farbraum nutzen, der P3-Bereich bietet aber ein größeres Spektrum. Die Google-Kamera-App wird aber derzeit angepasst, sodass eine P3-Farberfassung erfolgt. Hier könnten Nutzer dann später von lebhafteren Farben profitieren, denn P3 kann mehr Farben darstellen und viele Smartphones haben bereits ein Display, die auch die Anzeige unterstützen – es fehlt halt an den Apps, die das unterstützen. Und da muss man klar festhalten: Android ist jetzt an dem Punkt, an dem der sRGB-Farbraum mit 8 Bit pro Farbkanal nicht ausreicht, um die Vorteile der Anzeige- und Kameratechnologie zu nutzen. Das wird das Google Pixel 4, viel wichtiger aber: Android Q, für die Nutzer ändern.
„Android ist jetzt an dem Punkt, an dem der sRGB-Farbraum mit 8 Bit pro Farbkanal nicht ausreicht“ – diese Aussage ist nicht korrekt.
Der Farbraum und die Bittiefe pro Farbkanal haben nichts miteinander zu tun, die Bittiefe gibt nur die Feinheit der Abstufungen in einem Farbraum an. Man kann eine P3-Farbraum ebenfalls mit 8Bit pro Kanal realisieren.
(siehe Begriff „Banding“) oder https://de.wikipedia.org/wiki/Farbtiefe_(Computergrafik)
Einer, der es verstanden hat…….danke, Vakrehus.
Und der nächste Fehler folgt auf dem Füße:
P3 ist nicht größer als sRGB oder Adobe RGB, er ist nur wieder ein bisschen anders als Adobe RGB.
Die Nummer ist ein reiner Marketing-Gag…..was nutzt der tolle Farbraum, wenn kaum ein Gerät ihn abbilden kann? Ach ja, richtig, wir sollen ja neue Geräte kaufen……
Doch, DCI P3 ist größer als sRGB und auch so deutlich das man es an den Kanten optisch sieht. Adobe RGB ist ählich groß, aber in der amerikanischen Multimedia-Industrie ist D3 wohl gerade der vorherrschende Standard als kann man den schritt nur begrüßen.
zum vorhergehenden Kommentar: stimmt, die bit-tiefe ist nicht der einschränkende Faktor bei sRGB, sondern die definierten Primärfarbwerte
Hier muss ich ergänzen, der DCI-P3 ist eher für den Filmbereich gedachte (als Zwischenschritt zum BT.2020), während der Adobe RGB für den Fotobereich/Print besser geeignet ist. Ein Marketing-Gag ist es nicht. Die meisten Nutzer haben zu Hause ein Gerät, welches gerade so den sRGB-Farbraum schafft und das reicht den Leuten auch. Solange Menschen mit Smartphones Bilder knipsen und diese Schnappschüsse dann auf ihren schlechten Displays oder dem Fernseher anschauen, bringt auch ein erweiterter Farbraum nichts.
Fotos nehme ich zum Beispiel mit einem 14Bit-Sensor und Adobe RGB auf, entwickelt werden sie an einem 10Bit (je Kanal) hardwarekalibrierten Bildschirm. Anschließend wieder in den sRGB Farbraum konvertiert, damit die Leute die Farben auch in etwa so sehen können, wie sie aussehen sollen.
Es ergibt also durchaus Sinn, in einem großen Farbraum aufzuzeichnen und dann für die Allgemeinheit zu konvertieren. Wenn ich mit sRGB aufzeichnen würde, verliert man schon Informationen im Bild bei der Aufnahme.
Jetzt bin ich schon wieder vom Thema abgekommen….