Netflix erweitert HDR-Streaming mit HDR10+ und AV1-Codec
Netflix hat einen Schritt in der Weiterentwicklung seiner Streaming-Technologie bekannt gegeben. Der Dienst bietet ab sofort HDR10+-Inhalte für Geräte an, die den AV1-Codec unterstützen. Diese Neuerung verbessert die Bildqualität auf zertifizierten HDR10+ Geräten. Die Implementierung von HDR10+ basiert auf dem AV1-Videocodec, der 2018 von der Alliance for Open Media standardisiert wurde. AV1 gilt als einer der effizientesten Codecs. Nach der erfolgreichen Einführung von AV1 für SDR-Inhalte zeigten sich laut der Entwickler deutliche Vorteile: bessere und konstantere Bildqualität, kürzere Ladezeiten und häufigeres Streaming in höchster Auflösung.
Der technische Unterschied zwischen HDR10 und HDR10+ liegt in der Metadatenverarbeitung. HDR10 verwendet statische Metadaten, die einmal für den gesamten Inhalt festgelegt werden. HDR10+ hingegen nutzt dynamische Metadaten, die sich von Bild zu Bild anpassen können. Dies ermöglicht eine präzisere Darstellung einzelner Szenen und bewahrt die künstlerische Vision der Filmemacher besser. Für den Zugriff auf HDR10+ Inhalte müssen Nutzer bestimmte Voraussetzungen erfüllen. Erforderlich sind ein Netflix Premium-Abonnement, ein HDR10+ kompatibles Gerät mit AV1-Unterstützung sowie die Verfügbarkeit des gewünschten Titels im HDR10+ Format. Bei Fernsehern und Streaming-Geräten muss zusätzlich die HDR-Funktion in den Netflix-Einstellungen aktiviert sein.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Gilt es nicht mittlerweile als gesichert, dass niemand einen Unterschied zwischen HDR 10 und HDR 10+ sieht? Bei Dolby Vision sieht man es.
Wieso sollte das keiner sehen? HDR 10+ ist am Ende des Tages das gleiche wie Dolby Vision, nur dass halt nicht Dolby drauf steht. Wenn du keinen Unterschied siehst, liegt das nicht am Format
Das stimmt nicht.
Dolby Vision und HDR10+ sind beide HDR-Standards (High Dynamic Range), die eine bessere Bildqualität mit höheren Helligkeiten, besserem Kontrast und einer breiteren Farbpalette bieten. Es gibt jedoch einige Unterschiede zwischen den beiden:
Dynamische Metadaten:
Dolby Vision verwendet dynamische Metadaten, was bedeutet, dass die Helligkeit und Farbdarstellung für jedes einzelne Bild (oder jedes Szenenwechsel) angepasst werden kann. Das sorgt für eine präzisere und optimierte Darstellung, da jede Szene individuell angepasst wird.
HDR10+ nutzt ebenfalls dynamische Metadaten, was ebenfalls eine verbesserte Darstellung von Helligkeit und Kontrast ermöglicht, jedoch wird die Szene in größeren Abschnitten angepasst (zum Beispiel in Kapiteln oder Szenenblöcken).
Helligkeit und Farbtiefe:
Dolby Vision unterstützt eine höhere Spitzenhelligkeit von bis zu 4000 Nits (je nach Display) und eine Farbtiefe von 12 Bit.
HDR10+ unterstützt ebenfalls eine Spitzenhelligkeit von bis zu 4000 Nits, aber die Farbtiefe beträgt nur 10 Bit.
Vor allem der Punkt 1, dynamische Metadaten, sorgt im Vergleich dafür das du bei HDR10+ nahezu keinen Unterschied zu HDR siehst, weil fast allen Fällen nur kapitelweise andere Layer genutzt werden. Wenn überhaupt. Deswegen ist HDR10+ auch kostenlos und Dolby Vision kostet Lizenzgebühren.
Das ist nun wirklich unsinnig und du widersprichst dir selbst. Effektiv entscheidet das Studio, wie groß sie die Abstände machen zwischen Anpassungen. Und HDR10+ kostet nichts, weil die Hersteller keinen Bock auf die Lizenzgebühren von Dolby hatte. Ist exakt die gleiche Diskussion wie H265 vs AV1. Gibt genügend, die behaupten, h265 wäre ja so viel besser, aber am Ende des Tages stimmt es nicht, und AV1 wurde wie auch HDR10+ nur entwickelt weil keiner Lust auf die absurden Lizenzkosten der Alternative hatte.
Nur meist werden die Möglichkeiten von DV aus Kostengründen nicht genutzt. Es gibt auch genug Blindtests von Profis die keinen Unterschied sehen.
DV sollte durch den lizenzfreie Standard HDR+ ersetzt werden. Gibt keinen Grund mehr für DV.
Apple, Amazon, Netflix und diverse Spiele setzen schon nach und nach darauf.
HDR10+ ist eben alles andere als tot, wie so oft behauptet wurde. Das Gegenteil ist der Fall, mittlerweile gibt es reichlich Unterstützung.
Das kommt bei raus, wenn die Patenthalter von h265 verzweifelt werden und Patenttroll spielen müssen. Sie sind halt nicht alternativlos.
ja und jetzt bitte noch mal die Preise anheben, immerhin gibts ja jett eine Neuerung.
Als AV1 in den fire TV Sticks ausgerollt wurde war lustigerweise smart tube die erste App welche das auch genutzt hat, ganz schön traurig dass bezahlanbieter hier Jahre brauchen um kleckerweise auch auf ein vernünftigen Codec umzustellen!
Dazu dann weitere running Gags bei den Abo Anbietern, zB unterstützt Spotify inzwischen eigentlich verlustfrei oder bleibt es ein Mythos? xD
also wer den Unterschied zwischen HDR+und Dolby Vision nicht erkennt sollte mal zum augenarzt gehen. also ich sehe da einen großen Unterschied auf meinen Geräten. ich meine wer irgendwelche einsteigergeräte benutzt dem wird der Unterschied nicht auffallen das kann ich mir gut vorstellen aber wer hochpreisige und auch high Endgeräte nutzt der wird einen ordentlichen Unterschied feststellen.
ich meine ich nutze Netflix nicht mehr denn wenn ich einen Film gucken will dein ordentlicher Qualität und jetzt bitte nicht schreien Netflix in 4K ist doch ordentlich da sage ich nein ist es nicht. der sollte mal die Qualität von Sony picture core sehen das ist wirklich ordentliche Qualität und eigentlich von 4k Scheiben nicht zu unterscheiden. früher hatte ich einen Nvidia shield für das streaming im heimkino aber das Ding ist einfach ich weiß gar nicht wie es ausdrücken soll ein Spielzeug vielleicht im Moment nutze ich einen Zidoo UHD8000 und da merkt man erstmal wie Filme aussehen können egal ob full HD oder reines 4k auch ist ein gewaltiger Unterschied in den hdr-formaten klar zu sehen.