Netflix verwendet den Codec AV1 ab sofort an ausgewählten Smart TVs
Netflix hat mitgeteilt, dass man nun Teile seiner Bibliothek mit dem effizienten Videocodec AV1 ausliefert. Wer sich nun erinnert: Netflix setzt AV1 eigentlich schon seit 2020 ein – allerdings nur an kompatiblen mobilen Endgeräten. Jetzt verwendet man den Videocodec aber auch an ausgewählten Smart TVs sowie in Verbindung mit der PlayStation 4 Pro.
Dabei beschreibt Netflix in diesem Beitrag auch die damit verbundenen Herausforderungen: So musste man da natürlich seine Titel neu codieren und es muss eben ja nach Gerät das richtige Format geliefert werden. Schließlich unterstützen noch nicht alle Smart TVs und Mediaplayer AV1. Etwa fehlt die Unterstützung für diesen Codec an verbreiteten Geräten wie den Amazon Fire TV, Apple TV 4K oder auch der Nvidia Shield TV.
Für Netflix ist die Verwendung von AV1 natürlich in erster Linie ein ökonomischer Vorteil: Da man mit dem neuen Codec entweder bei gleichbleibender Bitrate eine bessere Qualität erzielen kann oder für gleichbleibende Qualität die Bitrates senkt, spart man Kosten ein. Denn man kann die auszuliefernden Datenmengen reduzieren. Laut dem Streaming-Anbieter soll es aber auch weitere positive Nebeneffekte geben – etwa einen schnelleren Start der ausgewählten Streaming-Titel, da schneller gebuffert werden kann.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
„Etwa fehlt die Unterstützung für diesen Codec an verbreiteten Geräten wie den Amazon Fire TV, Apple TV 4K oder auch der Nvidia Shield TV.“
Das könnte evtl. daran liegen, daß viele dieser Geräte bei AV1 keine Hardware-Dekodierung beherrschen.
Bei den Fire TV-Geräten ist nur das neuste, der Fire TV Stick 4K Max, dazu in der Lage:
https://developer.amazon.com/de/docs/fire-tv/device-specifications-comparison-table.html
Selbst das aktuelle „Flagschiff“ bei den Cubes kann es nicht, aber ok – der ist ja schon recht alt (2019)…. leider „vernachlässigt“ Amazon die „Box“-Geräte in letzter Zeit etwas und setzt nur auf diese blöden Sticks…. 😉
Die fehlende AV1 Hardware-Dekodierung tritt auch bei in der CPU integrierter Grafik auf: meines Wissen kann das nur der Intel „Alder Lake“ … bei AMD komplette Fehlanzeige bei den APUs, oder?
Immerhin gab es die AV1 Spezifikation und eine erste Referenz-Implementierung ja schon Q1/Q2 2018 … da nehmen sich die Hardware-Hersteller ganz schön Zeit… 😉
Danke für die Hinweise!
Leider unterstützen auch die M1 Chips kein AV1 und anscheinend nichtmal der A15. Damit ist es beim Apple TV auch erstmal Essig bis wir einen A16 oder M2 sehen.
Gibt es wirklich keine Liste an unterstützten TV-Geräten? Auf YouTube sehe ich auf meinen Fire TV 4K Max einen deutschen Unterschied zwischen VP9 und AV1. Wäre schön diesen Vorteil auch bei Netflix zu haben.
Die Leute die auf dem TV schauen is es meist egal Hauptsache es läuft.. da kann Netflix natürlich am besten Bandbreite sparen.
Apple TV 4K oder Nvidia Shield TV sind dann die pro Nutzer wo dann auch immer maximal Qualität abgerufen wir.
Bin gespannt wenn das aufs ATV kommt und ob man es merken wird.
Wird sich am Ton auch mal was tun oder bleiben wir da beim DVD surround +2 Kanäle für atmos. Richtige Kracher muss man sich ja nach wie vor als BD4k holen um seine Anlage mal richtig auszunutzen.
„Da man mit dem neuen Codec entweder bei gleichbleibender Bitrate eine bessere Qualität erzielen kann oder für gleichbleibende Qualität die Bitrates senkt, spart man Kosten ein.“
Gibt das dazu schon Erkenntnisse?
Wird die Bildqualität durch AV1 verbessert oder verschlechtert?
Per se wird sie nicht verbessert oder verschlechtert, das hängt vom Grad der Komprimierung ab. Man kann aber eben mit AV1 im Vergleich mit etwa HEVC halt bei gleicher Qualität niedrigere Bitrates anlegen – ober bei konstanter Bitrate höhere Qualität.
Komprimiert man nun stärker / zu stark, wird die Qualität natürlich irgendwann auch nicht mehr so dolle.
Ja das ist mir so schon bewusst.
Aber wie handhabt das Netflix nun genau?
A: gleiche Bitrate mit höhere Qualität
B: niedrigere Bitrate aber mit gleicher Qualität
C: höhere Bitrate mit deutlich besser Qualität
Gibt es da schon Erfahrungen?
Netflix wird den den Codec mit A bewerben aber wohl lieber B verwenden. Spart Netflix Geld. Vermutlich hängt das aber auch vom Gerät und der Verbindung ab und das passiert dynamisch. Vielleicht gibts ja mal eine Bezahloption für C.
Scheint tatsächlich immer relevanter zu werden das Format. Auf YouTube trifft man das auch immer öfter an.
Am PC hab ich damit kein Problem, auf dem iPhone wird es leider nicht abgespielt.
Jetzt war lange mal ruhe mit h264, aktuell wird das alles irgendwie wieder komplizierter.
Ob neuer Codec oder HDR, alles problembehaftet im Alltag.
Das klingt immer so toll: Niedrigere Bitrates bei gleicher Qualität. Ist natürlich quatsch. Aber weil viele Menschen gerade an ihrem TV viele Bildverbesserer eingeschaltet haben, merkt es kaum einer. Macht man die AUS, wie es sich gehört, sieht das Bild mit dem neuen Codec nämlich ziemlich Scheiße aus.
Da spricht ein selbsternannter Experte!