Artificial Intelligence Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 5090 Founders Edition Review – The 600-Watt Powerhouse in Gaming and Lab Tests

Today’s article offers a comprehensive review of the GeForce RTX 5090 and the underlying NVIDIA Blackwell architecture. As it is a completely new architecture, it is divided into a theoretical analysis of the new technical developments and a practical review that focuses on benchmarks, real applications and user experiences. In the first part, the focus today is on both the performance increases and the new functions that this GPU generation brings with it. Particular attention is paid to DLSS4, which is explained in detail in the theory section and analyzed in a separate section later on using suitable games. This section highlights the advances in image quality, the improvements in frame generation and the effects on system latency. But I don’t want to get ahead of myself or spoil anything.

 

As always, it was a feat of strength and I have also completely adapted the game selection and expanded it to a total of 11 games, each in five different settings. There is also a brand new test system and updated metrics. The GeForce RTX 5080, which will follow shortly, will then be added in the same way. I would also like to point out in advance that I have not disassembled the GeForce RTX 5090 FE as usual this time and the teardown is (still) missing. This is because I still need the card in its original state for further tests and the process of teardown and subsequent reconstruction is so complex that it cannot be guaranteed that the card will be able to operate in the same state afterwards (liquid metal that can only be removed mechanically).

In addition, a special article will be published soon, which will deal intensively with DLSS4, its image quality and the aspects of latency. Unfortunately, one of the cards was defective, so we had to rework it after a delay and the replacement only arrived yesterday. But the scope of the content will definitely be worth it, even if it comes a little later. You will certainly still have to look for it in this depth next week. So stay tuned, it’s worth it.

Another follow-up to the review will focus on workstation performance and professional applications. This part has been split off as a separate article, because due to driver problems and other technical details that needed to be clarified, some tests were postponed by me in order to ensure a fair and comprehensive evaluation. After all, if there is a changed driver after all, I won’t save myself the trouble of retesting, but I will save myself the superfluous export of extensive chart graphics. And so I can include the GeForce RTX 5080 that will follow and save on redundant content.

But that shouldn’t stop me from comparing the new card today with the GeForce RTX 4090 in particular and the entire Ada lineup of suitable super cards in general. I’m also leaving out Ampere due to time constraints, but since there are enough comparisons between Ada and Ampere on my site, this is certainly easy to get over. This time we’ll go into a bit more detail, including the theory, because it’s worth it. I also have to explain at the beginning why I could not escape a certain euphoria for one or the other feature in the conclusion and of course, as always, find something to complain about.

The GB202 GPU in detail

The GB202 GPU from the new NVIDIA Blackwell architecture represents a milestone in GPU technology and is the heart of the GeForce RTX 5090. The architecture of the GB202 GPU is based on a total of 92.2 billion transistors, which are integrated into a chip with an area of 750 mm² and manufactured in the optimized TSMC 4N process. With a boost clock frequency of 2407 MHz, the GPU offers a peak performance of 104.8 TFLOPS for FP32 computations, 209.5 TFLOPS for FP16 computations and an impressive 1676 TFLOPS for FP4 computations. This performance is driven by 24,576 CUDA cores, 192 fourth-generation RT cores and 768 fifth-generation Tensor cores. Compared to the Ada architecture, which was limited to 16.38 MB L1 cache and 72 MB L2 cache, the GB202 offers a significant increase with 21.76 MB L1 cache and 96 MB L2 cache, which significantly improves data access times.

According to NVIDIA, another highlight is the energy efficiency of the GB202 GPU. With a maximum power consumption of 575 watts, the architecture relies on advanced power-saving mechanisms such as separate voltage rails for GPU cores and memory as well as accelerated clock frequency switching. These innovations minimize energy consumption during idle phases and maximize responsiveness under load. I will go into this in more detail in a separate section, including my own measurements.

Streaming multiprocessor (SM) architecture

The streaming multiprocessors (SMs) of the GB202 GPU form the core of its computing power. Each of the 192 SMs comprises 128 CUDA cores, one fourth-generation RT core and four fifth-generation tensor cores. While the Ada architecture already offered similar CUDA core counts, the Blackwell RT cores and Tensor cores have made significant advances in terms of efficiency and functionality. The fifth-generation Blackwell Tensor Cores also offer new features such as support for FP4 data formats, which can dramatically reduce memory requirements while doubling performance in AI inference applications. This is a significant improvement over the Ada architecture, whose fourth-generation Tensor Cores did not support FP4. These advances enable more efficient use of resources in neural networks, especially for large models that are increasingly used in real-time applications such as image and speech processing.

The number of texture units has been increased to 768, enabling a texel fill rate of 1636.76 gigatexels per second, a significant increase over the 1290.2 gigatexels per second of the RTX 4090. This greatly improves the processing of complex textures and neural texture compression. The L1 cache has also been expanded compared to the Ada architecture, further optimizing efficiency and speed for memory-intensive tasks.

The fourth-generation RT cores in the GB202 GPU have also been significantly enhanced. They offer double the performance in ray triangle intersection calculation compared to the previous generation and support new features such as Linear Swept Spheres (LSS) for more efficient rendering of complex geometries such as hair or grass. While the Ada architecture had already introduced significant advances in ray tracing, the new RT cores in Blackwell allow for even more realistic rendering through improved hardware implementations for Bounding Volume Hierarchies (BVH) and Opacity Micromaps. These innovations not only improve image quality, but also significantly improve performance in demanding ray tracing scenarios.

GDDR7 memory system

The GDDR7 memory system of the GB202 GPU sets new standards in memory technology. With a memory capacity of 32 GB and a bandwidth of 1.792 TB/s via a 512-bit interface, the Blackwell generation offers a significant improvement over the Ada architecture, which used GDDR6X with a bandwidth of 1.008 TB/s. The use of PAM3 signaling instead of PAM4 technology in GDDR6X enables a better signal-to-noise ratio and higher energy efficiency.

The GB202 GPU’s memory architecture includes 96MB of L2 cache, compared to the 72MB of the RTX 4090, significantly accelerating memory-intensive applications such as ray tracing. In addition, the Blackwell architecture offers advanced CRC features that improve memory system reliability and stability. These advances make the GDDR7 memory system an indispensable part of the GB202 GPU and contribute significantly to handling high-resolution graphics and AI workloads.

After so much theory and text, I’ll briefly summarize it all in a clear table and compare it with Ampere and Ada:

 

267 Antworten

Kommentar

Lade neue Kommentare

P
Pu244

Mitglied

37 Kommentare 35 Likes

Das ist eine gigantische Heuchelei!

Ich erinnere mich noch an den absolut bösartigen Verriss, des 12V HPWR, bei dem Igor vor dem Bild eines Kohlekraftwerks posiert hat. Da wurde dann irgendwas vom Weltklima geredet, wie schlimm 600W doch wäre, was denen doch einfällt. Dass das die völlig falsche Richtung ist und so weiter und sofort. Nun kommt sie, die erste Karte, die das (fast braucht), das übel, das pure Böse, jedenfalls aus umweltsicht.

Eigentlich dürfte man da ja einen noch viel bösartigeren Verriss erwarten. Ein seitenlanges Gepolter über diesen realitätgewordenenen Albtraum, der, außer mehr Leistungsaufnahme, effizienzmäßig nichts zu bieten hat.

Aber was ist stattdessen zu lesen?

Ja, knapp 600W durchzuheizen ist wirklich sehr beeindruckend, das muß man schon sagen.

Wo ist der große Zorn geblieben? Könnte es daran liegen, dass man über ein paar Ingenieure bei Intel deutlich leichter herziehen kann, als über den CEO von Nvidia, der einen mit Liebesentzug bestrafen kann? Die Leute haben den Stromanschluss entwickelt, der für die Karte benötigt wird oder wird die etwas ökologischer, wenn man sie mit vier 8 Pin PCIe Anschlüssen betreibt?

Ich bin echt sehr enttäuscht und finde, Igor sollte sich bei den Intelingenieuren entschuldigen.

Antwort 17 Likes

Klicke zum Ausklappem
HerrRossi

Urgestein

7,065 Kommentare 2,400 Likes

Danke für den ausführlichen Test. Für mich ist die Rohleistung enttäuschend, der Zugewinn wird durch höheren Stromverbrauch erkauft. Weder die technischen Neuerungen noch das Plus an Shadern, RAM, Bandbreite oder AI-Tops schlägt wirklich zu Buche. Das ist Stillstand auf hohem Niveau. Wir brauchen Wettbewerb!

Antwort 17 Likes

RazielNoir

Urgestein

791 Kommentare 384 Likes

Beim Durchlesen des Artikels kamen mir folgende Fragen in den Sinn:

Haben die Partnerkarten das gleiche Platinendesignkonzept mit der mittig liegenden Platine? Oder Klassisch? Dann wäre das Signalproblem nicht gar so stark ausgeprägt.
Eine RTX Profikarte auf dieser Chipbasis wird wohl sicher auch wieder einen DHE-Blowerkühler haben, damit auch das PCB klassisch, von der niedrigeren Wattage abgesehen. Damit wäre sie aber mehr vergleichbar zum Vorgänger RTX 6000 Ada und die Technologieunterschiede würden auch mehr (oder eben Weniger) zu sehen sein.
Durch die neue Platzierung des PWR-Anschlusses: Würde der hintere Gehäuseteil etwas höher gestaltet, könnte man damit die Anschlusskabelbiegung vorgeben (Kabelclip), dann wäre die Problematik zu geringer Biegeradien per Design vorgebeugt.
- Edit- > Und mit einem kleinen Kabelkanal an der Oberseite dann auch Stealth verbaubar...
2-Slot breit und in der Kühlung effizienter als die 4090? Das ist eine begrüssenswerte Entwicklung. Aber teuer erkauft. 600W Peak? Never ever mit mir! Ich glaube eher die 5070ti oder deren "RTX 4500 Blackwell" Pendant ist viel interessanter. In ein paar Jahren.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Nur die FE hat das Signalproblem. Schrieb ich aber :)

Antwort 3 Likes

Rudi69

Mitglied

54 Kommentare 44 Likes

"Mehrleistung" duch "MehrStromverbauch". Von der "Rohleistung" in Verbindung mit dem "Stromverbrauch per FPS" bin ich insgesamt nicht so beeindruckt. Für den Preis erst recht nicht. Danke für den Test.👩‍🚀

Antwort 12 Likes

RazielNoir

Urgestein

791 Kommentare 384 Likes

Dann hab ich zu schnell gelesen und es dabei überlesen. Sorry

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Rechne mal die Watt pro FPS hoch, dann muss man sich nicht entschuldigen. Unterm Strich ist die 5090 in Ultra-HD ohne DLSS effizienter als die 4090. Dass die Karte so viel kostet und frisst, ist das typische Leuchtturmproblem. NVIDIA wird sich an der 5080 messen lassen müssen. Wenn Fritz seinen Artikel fertig hat, wird man auch sehen, dass die Qualität extrem zugelegt hat.

Privat würde ich die aber nicht ohne Grund nutzen. Zu hungrig.

Antwort 4 Likes

Ginmarr

Mitglied

70 Kommentare 39 Likes

Musste dir halt schon gefallen lassen wenn du son Polarisierendes Video zur 4090 machst und dann die 5090 in den Himmellobst, die sage und schreibe 6% besser in FPS pro Watt da steht. Bei 25% könnte man sagen okay aber so halt nicht.

Antwort 12 Likes

RazielNoir

Urgestein

791 Kommentare 384 Likes

Zum Thema Bildqualität bin ich gespannt. Wobei mit aufkommen der ganzen KI/AI - Techniken es mittlerweile sehr (beängstigend) beeindruckende Beispiele dieser Techniken bei YT zu bewundern gibt. die Videos von Guild of Wanderers z.Bsp. Da muss man schon genau hinschaun, um zu merken das es keine realen Personen zu sehen gibt, von der dezent übertriebenen Erotik abgesehen. Diese Qualität in Echtzeitrendering scheint nicht mehr allzuweit entfernt.

Antwort Gefällt mir

R
RX Vega_1975

Urgestein

642 Kommentare 108 Likes

Wieviel schneller ist die Karte im Raster dann im Gegensatz zur 4090 in Ultra HD im Schnitt
ohne lange lesen zu müssen,- (As auf Arbeit) --- > Dank Euch

OK - Sehe ca. 26 bis 29% bei den Perzenilen
Nicht der Rede Wert, oder zumindest kaum

Da ist AMD den 5070 bis 5080-er Karten sehr nahe/ bis nicht allzuweit entfernt an den Fersen!

Antwort Gefällt mir

P
Pu244

Mitglied

37 Kommentare 35 Likes

Erinnert mich an die Energieeffizienzberechnung die die Autoindustrie vorgeschlagen hatte. Da sollte das Gewicht die dominierende Rolle spielen. Womit dann ein SUV deutlich besser für die Umwelt wäre, als ein 3L Lupo. Logisch, 8L Verbrauch, bei 2,3t Gewicht sind einfach besser, als die 3L bei etwas über 800Kg.

Der Leuchtturm frisst aber saumäßig viel Energie. Zum Vergleich: die RTX 2080Ti, auch ein Leuchtturm, hat das noch mit 260W und damit weniger als die Hälfte hinbekommen. Die Karten der letzten 3 Generationen brauchen jeweils etwa ein Drittel mehr Strom, pro Generation. Auf diese Entwicklung hätte man sehr wohl kritisch hinweisen können.

Die Karte soll ja auch ein Achtel mehr brauchen, als der Vorgänger. Zum Vergleich: die RTX 2080 ist noch mit 225W ausgekommen und das war schon extrem, viel, da deren Vorgängerkarte sich "nur" mit 180W zufrieden gegeben hat. Nvidia heizt den Strom zum Fenster raus, darauf hätte man kritisch hinweisen können, wenn einem die Umwelt wirklich am Herzen liegt.

Antwort 4 Likes

S
Stolperstein

Mitglied

14 Kommentare 4 Likes

(Fast) überall sonst wird sie in den Tests 4090ti genannt aufgrund der (relativen) Enttäuschung und hier gibts im Fazit hauptsächlich Technologie-Enthusiasmus. Was ja schön und gut ist, aber in Summe kommt sie mir doch eher wie eine hochskalierte 4090 vor, der irgendwie fehlt was ich von einer neuen Karte erwarte: einen tatsächlichen Sprung in entweder Kosten- oder Leistungs-Effizienz.

edit: bei Gamernexus haben sie eine sehr hohe Leistungsaufnahme im Idle angesprochen. Gabs die hier auch - oder hab ich nur den passenden Chart übersehen?

Antwort 1 Like

w
wolik

Mitglied

58 Kommentare 14 Likes

Als 8K-Gamer bin ich überrascht, dass niemand 8K-Tests durchgeführt hat. Huang auch nicht.
Ich kann mich noch erinnern, dass 8K-Gaming bei 1080 Ti Präsentation gezeigt wurde.
Ok. In eine Woche, mache ich selbst.

Antwort Gefällt mir

8j0ern

Urgestein

4,239 Kommentare 1,375 Likes

Ich auch,

Da gibt es wirklich sehr viele Videos Inzwischen:

Ich denke mir halt, wenn es zu Perfekt aussieht ist es nicht Echt.
Es gibt leider immer mehr Spiele die den Komik Style übernehmen, ist auch klar ist viel weniger zu Rendern als das Echte Leben. ;)

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Dazu gibt s nicht nur einen ganzen Absatz, sondern auch Charts. Bitte erst lesen, dann meckern.

View image at the forums

Antwort 4 Likes

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Wenn ich Lüfterdrehzahlen von 1600-1800 sehe denke ich jedenfalls wieder "Wakü ist Pflicht".

Was den Mehrwert der ganzen tollen innovativen und bahnbrechenden neuen Technologien angeht, bin ich hingegen eher skeptisch. Muss alles erstmal von den Spielen unterstützt werden und ob mir das Ergebnis dann konkret wirklich gefällt, wenn ich so vor meinem eigenen Monitor sitze, wird sich auch erst zeigen müssen.

Antwort 2 Likes

h
heinzkarl61

Neuling

7 Kommentare 2 Likes

@Igor Wallossek
darfst du denn aber spoilern ab wann man die Karte ungefähr vorbestellen kann? Tatsächlich erst ab dem 30.01. oder schon eventuell heute im laufe des Tages?

Antwort Gefällt mir

FfFCMAD

Urgestein

1,158 Kommentare 486 Likes

Ich betrachte die Frame Generation eher als Cheat/ Gimmick als realen Faktor bei der Leistungsmessung. Das kann man sich geben wenn das Spiel an sich schon genug FPS hat und man es noch mal extra flutschig haben will. Wenn das Spiel nur 25FPS erreicht und man mit DLSS 100FPS draus macht fühlt es sich trotzdem an wie 25FPS, fühlt sich sich aber nicht stotternd sondern nachziehend an.

Was ich für mich sehe ist, das die Karte bei DSR punkten wird, was der Speicheranbindung zu verdanken ist. Da sind wohl augenscheinlich im Schnitt 20 - 25% mehr Performance drin, was ich gut finde, aber nicht herausragend zum Vorgänger. DSR ist meine Lieblingsoption geworden.

Beim Rest hört es sich so an, als ob man ruhig warten sollte, da mir ein Teil der Features nur sagt: Wird wohl erst per Treiberupdate bei uns reifen wo man dann wirklich den realen Leistungsunterschied zwischen der 4090 und der 5090 klar sehen wird.

Antwort 3 Likes

P
PCIE Express 6.9

Mitglied

51 Kommentare 17 Likes

Und die 600 Watt Wärme werden dann schön zu allem oberhalb der GPU befördert...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung