AV2: Videocodec der nächsten Generation gibt noch 2025 seinen Einstand
Die Alliance for Open Media hat angekündigt, dass der neue Videocodec der nächsten Generation, AV2, noch in diesem Jahr starten soll. Alle technischen Details will man also noch 2025 enthüllen. Der Vorgänger, AV1, hat auch schon einige Jahre auf dem Buckel. Er ist 2018 als finale Ausfertigung vorgestellt worden und wird mittlerweile zum Beispiel von Videoplattformen wie Netflix und YouTube, aber auch dem Cloud-Gaming-Dienst Nvidia GeForce Now eingesetzt.
Bis AV1 sich wirklich in der Praxis etablieren konnte, sind nach 2018 aber durchaus einige Jahre vergangen. So hat es eine ganze Weile gedauert, bis kompatible Hardware verbreitet gewesen ist. Selbst anno 2025, da die meisten Streaming-Player und Smart-TVs sowie moderne GPUs zu dem Videocodec kompatibel sind, ist AV1 noch lange nicht omnipräsent. Ein Konkurrenzformat wäre z. B. das ältere und weniger effiziente, aber breiter unterstützte HEVC.
AV2 soll nicht nur eine noch effizientere Videokompression bieten, sondern auch Optimierungen für AR- und VR-Geräte mitbringen. Obendrein erklärt die Alliance for Open Media, dass AV2 die Splitscreen-Übertragung aus mehreren Quellen unterstützt. Eine Umfrage der Organisation hat zudem ergeben, dass 53 % der befragten Mitglieder innerhalb eines Jahres nach Finalisierung AV2 nutzen wollen. 88 % erwarten dies wiederum für die nächsten zwei Jahre.
Zur Alliance for Open Media zählen dabei große Unternehmen wie Amazon, Apple, Google, Microsoft, Netflix, Nvidia und Samsung. Mal sehen, ob der Plan wirklich aufgeht, AV2 schneller zu etablieren, als dies bei AV1 gelungen ist.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Solange es keine nvidia Shield 2 (mit AV1 Unterstützung) gibt, wird sich das bei mir im Hause leider auch nicht durchsetzen… Die Hoffnung stirbt zuletzt.
Aber sie stirbt bzw. ist bei mir so gut wie gestorben. Ich gehe davon aus, das das neue Apple TV, das vermutlich noch in diesem Jahr rauskommt, AV1 unterstützen wird, sofern dieses wirklich den A17 Pro enthält, wie die Gerüchteküche meint.
Warte auch schon seit Jahren auf die nächste Shield, aber die Hoffnung ist so gut wie nicht mehr vorhanden. Der Tegra X1 war damals super und hat sich echt lange den Vorsprung gehalten. Ob Nvidia es schaffen wird nochmals so etwas ähnlich zu bringen steht in den Sternen.
Letztes Jahr wurde noch gemunkelt, dass die Shield 2 nach der neuen Nintendo Switch in der Weihnachts-Saison kommen könnte, aber 2026 wäre für mich auch noch in Ordnung.
Andererseits kann ich verstehen, dass sich die Shield 1 immer noch verkauft und das auch noch ziemlich Wertstabil, deshalb Nvidia es gar nicht für nötig hälts eine neue Generation zu veröffentlichen. Props auf jeden Fall für die Leistung.
Dass sich die Shield noch verkauft hat Nvidia auch nicht abgehalten 2017 und 2019 neue Versionen zu veröffentlichen.
Und die Shield bekommt auch immer noch Updates. Für mich aber zu spät: der viel zu kleine Speicher in Kombination mit dem Log-Bug (der jahrelang bekannt war) haben die Schield für mich unbenutzbar gemacht.
Bei AV1 waren einige noch skeptisch. Was der Bauer nicht kennt, frisst er nicht. Mittlerweile hat sich AV1 behauptet.
Wo denn das?
Schon sehr lange, und quasi zuerst auf fire TV Stick in der App Smart Tube, andere kommerzielle Anbieter wie Netflix etc sollten inzwischen aber auch schon nachgezogen haben seit wenigen Jahren. 🙂
Ja, SmartTube kann AV1 abspielen, wenn es AV1 bekommt. Das ist aber meiner Erfahrung nach eher selten. Alles ist als VP9 verfügbar, alles ist als AVC verfügbar, aber AV1 ist nur vielleicht jedes zehnte Video.
Wenn ich AV1 in den Einstellungen bevorzuge, es das aber nicht gibt, fällt SmartTube auf AVC zurück, nicht auf VP9.
Leider sind Videos mit viel lokalem Kontrast, wie er typischerweise bei Shooter-Streams entsteht, in AVC deutlich schlechter als mit VP9.
Ich brauche bei YouTube eigentlich keinen 4k-Stream, da das so nebenher läuft, während ich eigentlich was anderes mache. Deshalb steht mein SmartTube bei mir standardmäßig auf 1080p, damit der Stream mit 2.5 MBit statt 17 MBit (bei 30 fps) kommt.
Bei Videos von LTT fällt mir zwischen VP9 und AVC kein großer Unterschied auf. Außer dass AVC mit 4.5 MBit mehr Bandbreite braucht als in VP9, wärs mir hier also egal.
Bei Expel (einem CoD-YouTuber) sieht man den Unterschied deutlich, sobald er über Gras läuft. Dann hat die AVC-Variante Kompressionsartefakte aus der Hölle. VP9 dagegen ist gut.
Aber: AV1 gibt es bei beiden nicht, sodass SmartTube eben auf AVC zurückfällt, nicht auf VP9.
Solange das marktüblich ist, mache ich mir mit AV2 erst mal keine großen Hoffnungen.
Meine Frage dazu, ist sich der „Bauer“ überhaupt bewusst welchen Codec er nutzt? Geschweige denn, dass es sowas gibt? Also für die meisten User die ich kenne zählt eine Sache „kommt das Bild“ oder eben nicht.
Die Durchsetzung eines solchen „nicht offensichtlichen“ Standards ergibt sich IMHO aus dem Willen der Industrie ihn zu nutzen.
Ich würde behaupten die allermeisten Besitzer eines modernen TVs wissen nicht einmal was HDR ist bzw. wie man es sinnvoll einstellt und nutzt. Da braucht man mit Codecs (wie du schon sagst) gar nicht erst anfangen.
Ich schätze Netflix und Co werden AV2 nicht nutzen um die Bildqualität bei gleicher Datenraten zu erhöhen, sondern die Datenrate senken bei aktueller Qualität.
Alles natürlich nur auf Wunsch der Kunden. Wie damals bei der Corona Drosselung und dem künstlichen Filmkorn.
Weiß ja nicht ob die Blogger und YouTuber da überhaupt eine Ahnung haben oder merken warum Netflix gegen den Filmkorn angeht.
Wenn man die Aufnahme von 500 Mbits auf 3-8 Mbits runter haut dann ist Filmkorn eher wie zusätzliches Pixelmatsch. Der Film Korn wird beim Codec dann eher Störend und sorgt für noch weniger Qualität. Daher wird er jetzt Digital entfernt und dann wieder hinzugefügt.
Man könnte auch einfach in 2025 30-50 Mbits Streamen aber wozu wenn keine Medien da Kritisch sind und man die Bitrate einer DVD unterbietet.
Netflix war bestimmt von RatDVDs
Da merkt man erst mal wie die technischen Aspekte Einfluss auf das Bild am Ende haben. Muss sagen beides gefällt mir. Ist durchaus schön mal ein gestochen scharfes Bild zu haben. Aber auch ein gewisses Korn hat seine Charme.
So gierig wie man sich zuletzt gab (Preise öfter mal hochgesetzt, dann noch zusätzlich Werbung), wird man doch eher weiter auf der Milkaschiene fahren:
Weniger geben, mehr verlangen und das noch als Innovation verkaufen.