Variable Refresh Rate (VRR) einfach erklärt

Mit VRR sehen viele Spiele flüssiger aus.

Mit VRR sehen viele Spiele flüssiger aus. | Bild: BenQ

Wer sich mit dem Kauf eines Gaming-Monitors oder auch -Fernsehers, einer Grafikkarte oder auch einer Spielekonsole beschäftigt, stößt früher oder später auf den Begriff „Variable Refresh Rate“ (VRR). Diese Technik agiert bei Spielen im Hintergrund, kann aber immense Auswirkungen aus das Gaming-Erlebnis haben. Was genau VRR ist und wie die Technik funktioniert, erkläre ich in diesem Beitrag möglichst einfach.

An Spielekonsolen ist VRR durch die aktuelle Konsolengeneration in den Fokus gerückt. So unterstützt die Xbox Series X|S die Technik seit dem Launch. Für die PS5 wurde Variable Refresh Rate erst 2022 via Update nachgereicht. Sogar die Xbox One X konnte im Übrigen schon mit VRR aufwarten, allerdings maximal bei 1440p als Auflösung. Für PC-Gamer hingegen ist die ganze Sache fast schon ein alter Hut. Denn am Rechner gibt es VRR-Techniken wie AMD FreeSync und Nvidia G-Sync schon seit vielen Jahren.

So spricht man zwar allgemein von VRR, es gibt aber verschiedene Umsetzungen der Technologie: AMD FreeSync und Nvidia G-Sync habe ich ja gerade genannt. Die PS5 und Xbox Series X|S setzen auf die Standard-Implementierung via HDMI 2.1. Und dann wäre da auch noch Adaptive-Sync der VESA, was vereinfacht gesagt die VRR-Implementierung in DisplayPort bezeichnet. Die einzelnen Techniken möchte ich hier nicht im Detail aufgreifen, da sie alle auf dem identischen Prinzip basieren – eben VRR. Sollte Interesse bestehen, kann ich aber gerne in einem separaten Beitrag die Vor- und Nachteile der einzelnen VRR-Techniken noch einmal beleuchten. Lasst mir dann gerne einen Kommentar da.

Darum stottert das Bild manchmal

Was ist denn eigentlich das Problem, welches VRR für euch lösen soll? Lasst mich das an einem konkreten Beispiel verdeutlichen: Ihr zockt an PC oder Konsole „Assassin’s Creed Mirage“ mit 30 fps, um die höchste Grafikqualität zu erhalten. Euer Bildschirm erwartet entsprechend, dass alle 33 Millisekunden ein neues Bild bei ihm eintrudelt (1s / 30 = 33 ms). Bei 60 fps wäre es im Übrigen so, dass alle 16 Millisekunden ein neues Bild von PC oder Konsole an euren Screen gehen müsste (1s / 60 = 16 ms). Eure GPU muss dabei konstant und in gleichen Zeitabständen die neuen Bilder berechnen und an den Bildschirm reichen, damit sie immer gleich lang angezeigt werden können und das Spiel ergo auch flüssig wirkt.

Solange das klappt, hat VRR gar keine Aufgabe. Doch wir alle wissen, dass dies eben nicht immer der Fall ist. Mal fehlt euch im Gaming-PC die notwendige Leistung, mal haben die Entwickler vielleicht schlampig optimiert. Was passiert also, wenn die Grafiklösung in eurem System überfordert ist? Na ja, sie berechnet trotzdem Bilder, aber langsamer als euer Display das erwartet. Und da das Display in der Zwischenzeit nicht schwarz werden kann bzw. soll, zeigt es folglich bereits „gelieferte“ Einzelbilder oder auch Frames länger an. Somit seht ihr einige Bilder länger und andere kürzer.

Visuell drücken sich solche inkonstanten Framerates in einem ständigen Ruckeln oder auch Stottern aus. Es kann auch dazu kommen, dass Bilder sogar ganz übersprungen werden. Im Ergebnis kommt es zu einem Spielerlebnis, das relativ wenig Spaß macht.

VRR: Ruckelfreies Bild bei schwankenden Framerates

Die wichtigste Funktion von VRR ist deswegen: für ein ruckelfreies Bild sorgen, auch wenn die native Framerate schwankt. So sorgt diese Technik im Wesentlichen dafür, dass die Bildrate, welche eure Grafiklösung berechnet, egal ob in einer Konsole oder einem PC, mit der eures Bildschirms dynamisch synchronisiert wird. Dies ist eben genau dann relevant, wenn es zu Schwankungen / unsteter Performance kommt.

So spielt VRR keine Rolle, wenn euer TV beispielsweise mit 60 Hz arbeitet und euer Gaming-PC keine Probleme hat, das jeweiliges Spiel konstant mit 60 Bildern pro Sekunde auf den Bildschirm zu schießen. VRR hätte hier keinen Mehrwert, da sozusagen sowieso alles flutscht. Allerdings: Wenn der Rechenknecht mit Ach und Krach auf 60 fps kommt und sich ab und an „verhebt“, also z. B. nur 50 oder 55 fps liefert, dann beginnen die oben beschriebenen Probleme. Aufgrund der ungleichmäßigen Framerate beginnt das Bild zu stottern und es tauchen möglicherweise Störungen wie sogenanntes Screen-Tearing auf. Das sieht optisch tatsächlich so aus, als wäre das Bild quasi an einer Stelle verschoben / eingerissen.

Ein Vergleichsbild zu VRR bzw. AMD FreeSync: Oben mit Tearing, unten ohne.

Ein Vergleichsbild zu VRR bzw. AMD FreeSync: Oben mit Tearing, unten ohne.

Screen-Tearing und Stottern des Bildes treten also auf, wenn die Framerate, welche PC oder Konsole liefert, nicht mit der Bildwiederholrate des Displays übereinstimmen. Die ganze Sache bezeichnet man auch als inkonstantes Framepacing, weil eben die Abstände zwischen den Bildern nicht mehr gleichmäßig sind.

Genau da setzt VRR an. Denn statt einer statischen Bildwiederholrate wie 60 oder auch 120 Hz kann der TV (oder auch Monitor) in Abstimmung mit dem Zuspieler die Bildrate variabel anpassen – daher kommt auch der Begriff Variable Refresh Rate. Durch diese Synchronisation schwankt die Framerate zwar weiterhin, visuell fällt das aber in üblichen Szenarien deutlich weniger auf – und es kommt eben nicht zu Stottern oder Screen-Tearing.

Variable Refresh Rate: Es gibt Grenzen

Im Grunde läuft es also so: Der Bildschirm erwartet nicht mehr quasi stoisch konstante 60 Bilder pro Sekunde, sondern „spricht sich kontinuierlich mit der Grafiklösung ab“. Dadurch wird vermieden, dass einige Bilder länger zu sehen sind als andere und das Gameplay wirkt trotz Schwankungen immer noch flüssig und sauber. Dabei kann VRR natürlich vor allem in rasanten Action- oder z. B. Rennspielen ein echter Segen sein. Wenn euer PC oder eure Konsole an die Grenzen kommt, ihr aber z. B. ungern die Grafikeinstellungen herunterschrauben wollt, kann VRR aushelfen und eine flüssige Darstellung erhalten.

Wichtig ist aber, dass auch VRR seine Grenzen hat. Die hängen sowohl von dem Zuspieler als auch dem Darstellungsgerät ab. Etwa decken viele aktuelle TV-Geräte einen VRR-Bereich von 40 bis 120 oder auch 144 Hz ab. Das heißt, die „gelieferte“ Framerate muss sich dann immer noch zwischen z. B. 40 bis 120 Hz bewegen. Fällt sie also unter 40 fps oder steigt über 120 fps, dann kann auch VRR nicht mehr helfen. Es gibt also gewisse Extreme, die nicht überschritten werden dürfen. In der Praxis dürften solche erheblichen Schwankungen in Konsolenspielen nicht auftreten. Am PC dürfte euch das auch eher nur dann passieren, wenn ihr irgendwo einen sehr spezifischen Flaschenhals habt, der die Performance an bestimmten Punkten komplett einbrechen lässt.

Aktuelle OLED-TVs beherrschen VRR sogar mit bis zu 144 Hz.

Aktuelle OLED-TVs beherrschen VRR sogar mit bis zu 144 Hz.

In der Praxis ist noch wichtig, dass identische VRR-Techniken eben an beiden Geräten der Kette unterstützt werden. Dummes Beispiel: Es bringt euch wenig, wenn euer Gaming-Rechner mit einer protzigen Nvidia-Grafikkarte bestückt ist und ihr G-Sync verwenden wollt, euer Monitor aber ratlos bleibt, weil er nur für FreeSync bereit ist. Klingt allerdings schwerwiegender als es ist: Die meisten aktuellen Bildschirme sind zu mehreren VRR-Techniken kompatibel. Selbst im TV-Bereich, in dem um HDMI 2.1 und VRR-Support lange ein regelrechtes Kuddelmuddel herrschte, ist es bei aktuellen Modellen regelrecht übersichtlich geworden.

Das Fazit zu VRR

Ich hoffe, ich konnte euch vermitteln, warum und wann VRR alias Variable Refresh Rate in Spielen eine Rolle spielt. Die Technik kann Performance-Schwankungen in Games sozusagen kompensieren, damit die visuelle Darstellung möglichst wenig beeinträchtigt wird. Klar, es ist aber natürlich eine konstante, native Performance dennoch zu bevorzugen. Denn wilde Schwankungen können dennoch auffallen.

Wenn ihr gerne mal etwas zockt, würde ich jedoch beim Kauf eines TVs oder Monitors genauer hinsehen, ob und welche VRR-Techniken unterstützt werden. Am Ende können sie dann eben das Zünglein an der Waage sein, damit ihr ein flüssiges Erlebnis genießen könnt.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

9 Kommentare

  1. Es gibt bei VRR meiner Meinung nach einen großen Stolperstein, den viele nicht kalkulieren. Man muss eben (leider) doch zwischen FreeSync, G-Sync und HDMI 2.1 VRR unterscheiden. Praktisch bieten alle Techniken im Ergebnis das Gleiche und ähneln sich auch technisch sehr. Jedoch kann nicht jedes Display bzw. Gerät in der Kette zwangsläufig alles.

    Wer an einem TV zockt, an dem noch ein AVR hängt, begibt sich schnell auf ganz dünnes Eis. Grund ist, dass selbst die aktuelle Generation von AVRs zwar (fast) alle angeben, VRR zu können, aber damit ist HDMI 2.1 VRR gemeint. Als PC-Gamer, der FreeSync oder G-Sync nutzt, hat man da schlechte Karten.

    Nur mit den allerneusten Grafikkarten geht auch HDMI 2.1 VRR. Erst dann kann man davon ausgehen, dass alle Geräte in einer Gerätekette (insb. mit TV und AVR) funktionieren.

    Ich bin selbst Couch-PC-Gamer mit einem aktuellen OLED-TV (der HDMI 2.1 VRR, G-Sync und FreeSync kann) und einem aktuellen AVR. Leider ist meine Grafikkarte aber 2 Jahre alt und hat nur FreeSync, sodass ich den PC nicht am AVR anschließen kann, sondern direkt am TV (was diverse Nachteile hat). Sehr schade.

    Man muss also schon genau hinschauen, welche VRR-Technologie genau man verwendet bzw. verwenden möchte.

  2. Mega André, 1000 Dank für die sehr interessante und ausführliche Beschreibung. Grandioser Artikel

  3. Noice! Danke für den Artikel, ich hatte mich mit VRR noch nie beschäftigt, weil ich nicht zocke, war trotzdem interessant :-).

  4. Sehr interessant, gerne öfter solche Artikel!
    Hab was gelernt, danke dafür

  5. Vielen Dank für die Erklärung.
    Einen kleinen Knoten im Kopf hab ich allerdings noch:
    Du hast geschrieben, dass sich Monitor und Grafiklösung absprechen: „Dadurch wird vermieden, dass einige Bilder länger zu sehen sind als andere und das Gameplay wirkt trotz Schwankungen immer noch flüssig und sauber.“

    Aber was zeigt der Monitor denn dann in der Zwischenzeit?
    Es ist ja wahrscheinlich nicht so, dass die Graka sagen kann: in 100 Frames komm ich nicht klar und liefer zu langsam, zeige bis dahin alle Frames mal 1 ms länger damit wir das Gap überbrücken?
    Ich stell mir das eher so vor, dass die Graka das nur anmeldet: jetzt dauerts mal etwas länger, keine Panik aber dann bleibt dem Monitor ja auch nichts anderes über als den Frame länger zu zeigen, oder?

    • André Westphal says:

      Es gibt hier ja quasi keine „Zwischenzeit“, eben anders als ohne VRR: Der Bildschirm zeigt die Bilder schneller oder langsamer, je nachdem wann die Grafikkarte sie liefert, um die Schwankungen auszugleichen. Die Zeitabstände der Bildaktualisierung werden also „gemeinsam“ angepasst.

      • Die Formulierung „Dadurch wird vermieden, dass einige Bilder länger zu sehen sind als andere“ ist glaube ich etwas verwirrend. Tatsächlich wird jedes Bild für eine etwas längere Zeit angezeigt. Was gemeint ist, ist dass bei einem Monitor ohne VRR mit 60 Hz und 59 FPS im Spiel eines der Bilder doppelt angezeigt werden muss.

        Noch eine kleine Ergänzung: Im Artikel wird von unteren Grenzen gesprochen. Die gibt es zwar, aber wenn die obere Grenze mindestens das Doppelte der unteren ist, wird für gewöhnlich auf die doppelte Bildfrequenz gewechselt. Soll heißen: Unterstützt ein Monitor 40-60 Hz, wird er bei 39 FPS ruckeln. Unterstützt er aber 40-120, wird die Grafikkarte bei 39 FPS einfach ein 78-Hz-Signal ausgeben, in dem jedes Bild doppelt dargestellt wird.

  6. Danke für die Aufklärung!

    Meine Kinder halten VRR (in diesem Fall Freesync) für wichtig.

    Gerade bei nicht so potenter Hardware also bei den oben angesprochenen 40 bis 60 FPS merke ich auch einen Unterschied, denn dann sind die Unterschiede zwischen den Frequenzen am größten und das Tearing am stärksten sichtbar.

    Schade, dass sich nicht direkt ein Standard entwickelt hat. Wenn man (wieder wie meine Kinder) aufs Geld achten muss, ergibt sich teilweise aus der Grafikkarte die Monitoroption oder umgekehrt. Gerade günstigere Monitore können oft nur eins von beiden.

    Spannend auch, dass es unterschiedliche Frequenzbereiche gibt in denen VRR arbeitet. Hier der Link zu einer Liste mit Freesync-Monitoren, in der ich die meiner Kinder schon mal nicht gefunden habe. In den technischen Daten der Hersteller steht das in der Regel nicht.

    https://www.amd.com/en/products/graphics/technologies/freesync/monitors.html

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.