Nvidia GeForce RTX 5080 / 5090 angeblich mit höherem Stromverbrauch
Die nächsten Grafikkarten auf Basis der Architektur „Blackwell“ wird Nvidia voraussichtlich auf der CES 2025 im Januar des nächsten Jahres vorstellen. Die Flaggschiffe werden die GeForce RTX 5080 und RTX 5090 sein, die natürlich die GeForce RTX 4080 und 4090 ablösen. Inzwischen sind neue Angaben zum maximalen Stromverbrauch durchgesickert.
Demnach soll eine GeForce RTX 5090 bis zu 600 Watt unter Volllast ziehen. Im Falle der GeForce RTX 5080 sind es angeblich bis zu 400 Watt. Als Vergleich: Die direkten Vorgängermodelle stehen bei jeweils 450 (4090) bzw. 320 Watt (4080). Das wären also erhebliche Steigerungen, besonders beim Flaggschiff. Auch die Leistung soll sich natürlich erhöhen.
Etwa liefere die GeForce RTX 5080 bereits die 1,1-fache Leistung einer GeForce RTX 4090, heißt es. Allerdings wird hier nicht klar, ob damit die allgemeine Performance oder z. B. speziell Ray-Tracing gemeint sein könnte.
Ich selbst nutze aktuell eine GeForce RTX 4080, mit der ich sehr zufrieden bin. Sollte ich ein Upgrade machen, müsste ich allerdings meinen kompletten Rechner auswechseln, um etwaige Bottlenecks zu vermeiden – und die Stromversorgung abzusichern.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Welch Überraschung…
Wo sind die guten alten Performance-per-Watt-Claims, wie sie zu Pascal-Zeiten noch üblich waren?
Performance per Watt (Frame per Watt) kannst du ganz gut vergleichen und dabei schneiden die neuen, stromhungrigeren GPU wie die 40er Reihe deutlich besser ab als beispielsweise eine 30er Reihe. Die neuen GPU ziehen zwar mehr Strom, liefern aber im Multiplikator deutlich mehr Leistung.
Du bist ja nicht gezwungen, die GPU ständig unter Volllast laufen zu lassen.
Du hast doch als Anwender nur eingeschränkte Möglichkeiten, deinen Gaming-PC auf ein vorgegebenes TDP zu optimieren. Klar, die Spiele bieten dir die Option Grafikeinstellungen vorzunehmen, aber im Grunde musst du dann ständig ein Watt-Meter angeschlossen lassen, aber dann bekommst du ja auch nur den Gesamtverbrauch angezeigt. Soweit ich weiß, hast du keine Möglichkeit einen PC auf das TDP-Niveau einer PS5 (180W) zu konfigurieren.
Ich lasse mich aber gerne korrigieren 🙂
Nun, den ganzen PC nicht, aber wenn es um den Stromhunger der GraKa geht, kann man mit Undervolting schon eine Menge erreichen. Mit etwas rumprobieren findet man einen Sweetspot, der geringfügig höhere Leistung bei eklatant weniger Stromverbrauch bringt. Hängt aber auch von deinen Games ab.
Ich habe das ganze noch etwas weiter getrieben und zugunsten des Verbrauchs auf minimal Grafikleistung verzichtet. Meine 4070 Super läuft auf nur noch 935 Millivolt, macht in meinen Games bei höchsten Grafikeinstellungen einen Stomverbrauch von maximal 140 – 150 Watt. Aber da habe ich wohl nur Glück gehabt, dass meine GraKa so weit mit der Spannung runter kann. Das ist jedoch von Karte zu Karte unterschiedlich und hängt von der Serienstreuung der Komponenten ab.
Im BIOS kann man z.B. die ganzen Turbo Modi ausstellen, das limitiert den Prozessor auf seine Base Power (35, 65 oder 125W). Und dann gibts noch die Möglichkeit, zumindest auf meinem 60€ Board, dass man das Power Limit noch weiter reduziert, bzw. einfach den gewünschten Watt Wert eintippt. Bei der Grafikkarte geht das, indem ich das Power Limit in Afterburner einstelle.
CPU fix auf 65W, Grafikkarte fix auf 95W, + RAM/SSD/Board wären dann ca. 180W. Das entspricht meinem Setup mit i5 11400F + RTX 4060 + 16GB RAM. Damit ist man mit mehr Power als die PS5 hat fast geräuschlos unterwegs.
Du kannst doch ohne Probleme ein Powerlimit für GPU und CPU festlegen,
da lobe ich mir erstmal weiterhin meine 4070 mit 205 watt
Mein neuer PC hat zwar keine Grafikkarte mehr. Darauf habe ich erstmal verzichtet. Aber solche Watt-Monster würden sicher auch mein 1000 Watt Netzteil noch in die Knie zwingen.
1000W – 600W = 400W , 400W muss man mit der restlichen Hardware erstmal verbraten?! Also nein, wohl eher weniger.
Zumal heutige Netzteile (im Vergleich zu früher) sehr effektiv sind, heute brauchste keiner super überdimensionierten Netzeile mehr.
Nein, würden sie nicht.
Völlig absurd! Aber war ja vorher klar. Ich kenn auch schon Headline zur RTX 6090.
Prima Werbung für Cloud-Gaming. 😉
Spätestens die RTX 9090 gibt es im Bundle mit einem Minikernkraftwerk.
Aber nur wenn die Grünen nicht mehr im Bundestag vertreten sind 🙂
Ansonsten ist das neue Alphacool Pumpspeicherkraftwerk 365 mit Schwarzstartfähigkeit zu verbauen, welches für schlappe 300 Mio. Euro den Weg in den eigenen Garten findet 😉
Die Kosten sind beim nächsten Blackout wieder drin, da man die Netzbetreiber bei der Schwarzstartphase mit seinem Equipment unter die Arme greifen kann. Zusätzlich kann man in Schwachlastphasen beim Zocken noch über das europäische Verbundnetz den Nachbar aushelfen…
…in Relation gesehen, ist dies ein echter Schnapper!
So ein Kraftwerk hat dann wenigstens schon eine Wasserkühlung. 😀
Herrlich, wie sich hier die Boomer-Bernds und Nörgel-Norberts die Bälle zuspielen! Der Seitenhieb auf die Grünen darf natürlich auch nicht fehlen, jawoll! damit habt ihr es „denen da Oben“ mal wieder so richtig gezeigt! Famos gemacht, meine Herren!
Und dabei natürlich wieder übersehen, dass die RTX-Karten von Generation zu Generation gemessen an Performance-per-Watt immer effizienter wurden 😉
Aber das wären ja Fakten und die sind bei der wöchentlichen Stammtisch-Runde nun mal nicht gerne gesehen. Der gute alte „Und in 5 Jahren braucht man ein AKW für die Graka hüähüähüä“-Spruch ist ja schließlich auch beim 500. Mal noch genauso witzig wie beim ersten. So sind euch die Lacher im Wirtshaus auf jeden Fall gewiss!
Ein abschließender Tipp noch: Die exakt selben 600-Watt-Behauptungen gab es bereits bei der 4090 – und haben sich dort schon als kompletter Unsinn herausgestellt 😉 Aber auch hier: Vorsicht vor zu viel Common Sense, am Ende muss man sich dagegen noch impfen lassen, HAHAHAHA!
Das was man an Kosten durch die Graka zahlen muss, kann man von den Heizkosten dann aber wieder abziehen. Loose/Win.
Sollen 2000W brauchen und 5000€ kosten. Was ist denn los bei nVidia?
Innovation ist für mich, energiesparender und performanter zu werden, ohne groß die Kosten explodieren zu lassen!
Alles andere ist nur Geldgier. Wo sind denn die guten Ingenieure?
Früher lag das Flaggschiff bei ca. 800€. Nun sind wir bei knapp 2000€! Dies hat nichts mit Inflation zu tun, dies ist die Erkenntnis, dass es immer noch zu viele Leute gibt, mit denen man dies tun kann! Leider traurig, denn es steht doch überhaupt nicht im Verhältnis was man dafür bekommt, wenn es früher auch anders ging!
Die ganzen KI-Bullshit-Bingo Tensor-Cores sind nicht billig.
Wenn man’s braucht…
Einfach ne Nummer kleiner kaufen, zum Beispiel 5070 statt 5080 dann.
Genau, die faulen Ingenieure bei Nvidia sollen mal was tun für ihr Geld!
Kann ja nicht sein, dass ich für eine Karte, die pro Sekunde mehr als 100 4K-Bilder mit Echtzeit-Beleuchtung, dynamischen Reflexionen und beinahe photorealistischer Detailqualität berechnen soll, mehr als ein paar hundert Euro zahlen muss!
Da sind halt wiedermal die Grünen dran Schuld, nech?
Das Ziel dieser High-End-Karten ist höchste Leistung, nicht höchste Effizienz – weder im Hinblick auf €/FPS, noch auf Stromverbrauch / FPS. Wenn Ihr die höchste Effizienz wollt, kauft halt ne etwas kleinere Karte. Auswertungen dazu gibt’s reichlich im Netz.
Das stimmt aber so nicht, in 4K gezockt sind die 4080 und 4090 sogar sehr effizient. Nur der Fakt weniger zu verbrauchen heißt nicht automatisch effizienter.
1,1-fache Leistung? Also gerade mal eine Steigerung von 10% der Leistung??? Ich glaube das wurde falsch überliefert.
Das stimmt schon so – die RTX 5080 hätte also mehr Leistung als die aktuelle RTX 4090. Die beerbt sie aber ja gar nicht direkt, sondern die RTX 4080. Wie gesagt, ist aber noch unklar, worauf sich diese Angabe genau bezieht – also ob das die Gesamtleistung sein soll, oder z. B. speziell die Performance bei Ray-Tracing.
Da lob‘ ich mir die Nintendo Switch mit 7-18 Watt.
Kann man leistungstechnisch ja auch absolut vergleichen.
Bei der 4090 gab es exakt dieselben Leaks hinsichtlich Leistungsaufnahme, die sich dann als BS rausgestellt haben. Das hätte man zur besseren Einordnung im Artikel ruhig erwähnen können.