Artificial Intelligence Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 5080 Founders Edition Review – GeForce RTX 4080 Ti Super with Blackwell genes

Power supply and circuit board

Even though I’m not doing a teardown today, I’d like to take this opportunity to briefly refer you to the article tomorrow, where I’ll be doing a complete teardown of a board partner card, which will at least take a closer look at the type of power supply as a parallel to the FE card. Please be patient a little longer.

Problems measuring power consumption with riser cards

Nothing at first, because PCIe 5.0 poses considerable challenges to signal integrity due to its high data transfer rates, especially in conjunction with additional components such as riser cables or internal connections within the graphics card. While previous generations of PCIe were more tolerant of signal interference, PCIe 5.0 requires much more precise signal transmission due to the doubling of the data rate to 32 GT/s. Any additional connection – be it a riser cable or an internal connection cable between the graphics card’s motherboard and its PCIe connector – can cause potential signal loss, reflections or distortions that affect stability.

A common problem is that such connections change the impedance of the signal system. These changes lead to reduced signal quality, especially with longer or poorly shielded cables. Another problem arises from the potential introduction of crosstalk between parallel lines if they are not sufficiently insulated. In practice, such interference manifests itself in instabilities such as boot problems, unexpected crashes or the inability of the system to initialize the graphics card correctly.

The discussion about riser cables and adapters shows that not only users but also development teams such as NVIDIA are struggling with the complexity of this issue. The experience with boot problems with the RTX 5090 in conjunction with riser cables or even NVIDIA’s first generation PCAT adapter (the new one did it so far) illustrates how critical signal integrity is for this hardware to function correctly. The problem is exacerbated by the fact that the Founders Edition internally utilizes a cable connection between the card’s motherboard and its PCIe connector, introducing additional resistance and potential signal loss. While this design decision may be made for aesthetic reasons, it leads to increased susceptibility to interference.

This leads to a fundamental debate about prioritizing design over function. While appealing looks and innovative form factors are important, “form follows function” should be the top priority. Technically, this means that hardware must be designed to perform optimally under real-world operating conditions before aesthetic considerations are taken into account. A design that compromises on signal integrity in favor of optical or mechanical stunts is not sustainable and can significantly impact the user experience. I ended up having to solder together a new solution, but what does the average user do who might want to install their card vertically in the case and use an additional riser cable?

Workaround: Set the PCIe version in the BIOS to Gen3 or Gen 4 and use either the iGPU or an older card for the boot process. The performance losses are around 10 to 15 percent for Gen 3 (out of the question) and between 0 and 4 percent for Gen 4. Or you can clock the bus down by 1 to 2 MHz.

Total power consumption and compliance with standards in practice

The idle power consumption of around 13 to 14 watts shows that NVIDIA has further optimized its drivers. The reduction in the RTX 5090 is particularly noteworthy, with idle consumption reduced from the previous 34 watts to just over 20 watts. Under load, the measured values are within the expected range. In some demanding games, the maximum power consumption reaches up to 330 watts, but remains below the TDP limit.

It is interesting to note that the power consumption is even more economical in lower resolutions such as Full HD and QHD. This could indicate improved efficiency in the use of resources in these modes, as the GPU requires less computing power to process the lower number of pixels. In addition, the use of DLSS, especially in combination with multi-frame generation (MFG), helps to further reduce energy consumption. The targeted reduction of the render load using AI-supported technologies noticeably reduces the load on the GPU without significantly affecting the image quality.

The significance of load peaks, which in some scenarios can exceed the values mentioned, requires detailed analysis. Such short-term performance peaks could provide valuable insights into the energy requirements for specific graphical requirements and help to identify optimization potential for future driver versions and hardware designs. A more precise consideration of these peak loads and their impact on overall efficiency will be discussed in more detail later on.

The mainboard slot, also known as the PCIe slot (PEG: PCI Express Graphics), is designed for a maximum current of 5.5 amps at a voltage of 12 volts in accordance with the PCI-SIG standard. This corresponds to a maximum power consumption of 66 watts, which can be supplied directly via the slot. The PCI-SIG standard serves as the basis for ensuring a uniform and reliable power supply via the mainboard slot while maintaining system stability. The specified limit value of 5.5 amps also takes into account short-term peak loads that can occur during abrupt load changes. However, these load peaks must not overload the system or affect other components due to voltage fluctuations.

A key advantage of this standard is that it ensures interoperability and compatibility between mainboards and graphics cards from different manufacturers. Clear specifications on the maximum load prevent potential damage to the mainboard’s conductors and connectors, which could be caused by excessive currents. The moderate load on the slot not only ensures system stability, but also increases the longevity of the hardware components concerned.

Another advantage of this limitation is the ability to provide additional power supply via external connections to meet the requirements of high-performance graphics cards. The graphics card in question, which does not push the limits of the power supply even when using the modern 12V2X6 power connector design, demonstrates particularly efficient load distribution. The PEG slot is only loaded with a maximum of 0.8 amps, which corresponds to less than 10 watts. This minimal load on the mainboard slot underlines the efficiency of the card and significantly reduces potential thermal loads or damage to the mainboard. The card therefore not only contributes to system stability, but also demonstrates well thought-out energy management that optimally distributes the load between different power sources.

 

 

181 Antworten

Kommentar

Lade neue Kommentare

M
Maxminator

Mitglied

79 Kommentare 52 Likes

Sehr solide aber dennoch etwas enttäuschend :( Leider!

View image at the forums

Antwort 4 Likes

Case39

Urgestein

2,730 Kommentare 1,086 Likes

Da ist ja das Review wieder😂
Ja, nette Karte....

Antwort 1 Like

H
HerrFornit

Veteran

126 Kommentare 76 Likes

Oder:
Technologischer Fortschritt ohne Kaufanreiz ;)

Antwort 4 Likes

R
RX Vega_1975

Urgestein

642 Kommentare 108 Likes

AMD scheint alles richtig gemacht zu haben
Termin verschoben stinkt mir gewaltig zwar von AMD´ Marketing und ansonsten TOP CEO Lisa Su
aber Nvidia Schachzug zuerst die RTX 5090 zu Releasen um vom Shit-Storm der 5080 abzulenken!

Diese Generation hätte sich NV fast schenken können,- OK Features hin oder her und RT dies stimmt schon noch halbwegs.
Zudem so gut wie nicht Lieferbar die Karten!

Antwort 5 Likes

Lagavulin

Veteran

360 Kommentare 302 Likes

Vielen Dank für den Test.

Beim einleitenden Satz unter Netzteilempfehlung "Ein Netzteil mit einer Nennleistung von 1000 Watt, das die Anforderungen der ATX 3.1-Norm erfüllt, stellt eine geeignete Wahl dar" habe ich erst mal gestutzt - aber weiter unten im Text wird dann ja 850 W empfohlen.

Antwort Gefällt mir

Metamorph83

Mitglied

23 Kommentare 29 Likes

View image at the forums

Hat jemand schon die 5070 parallel getestet? :D

Antwort Gefällt mir

MGFirewater

Veteran

269 Kommentare 106 Likes

@Igor Wallossek Seite 12 kleiner zahlendreher
danke für den test, wenn man von rx6800 kommt und zurück zu team green will, finde ich die 5080fe durchaus interessant.
ich mag das kühlkonzept der FE was mit 360 watt ja auch gut funktioniert. die Leistungsreserven (OC) ohne TDP Brechstange, die Effektivität ist gut und deutlich besser als bei AMD. ich brauche cuda auch beruflich (da würde ich mir noch Nachtests wünschen, u.a. adobe premiere, photoshop neuronale filter usw.) klar wäre sie mir für 500€ weniger lieber, aber damit muss man sich leider abfinden.

Erstaunlich fand ich die zuwachse der 5090 bei stable diffuison, und auch hier wird de 5080 die 4080s abhängen, auch wenn ich dazu noch keine tests geslesen habe quelle

Antwort Gefällt mir

olligo

Veteran

401 Kommentare 154 Likes

Erst einmal danke für den tollen Artikel Igor!
Von der Karte hätte ich mir ein klein wenig mehr rasterizing performance erhofft, ansonsten liefert sie mit MFG ja genug Power für alle kommenden AAA Titel mit dem eingebauten Feature.
Ich konnte mir schon denken, dass die 5080 mit MFG mehr als genug Frames liefert, auch wenn wir durch Fritz Hunters Test letztens erfahren haben, dass die Latenz deutlich höher ist und die angezeigte FPS Anzeige sich schon anders anfühlt, als es die Zahl der FPS einem suggerieren möchte.

Wo geht die Reise der Grafikkarten in Zukunft hin? Wird SLI(NVlink) in Zukunft folgen oder doch irgendwann wieder ein PCB mit 2 Grafikchips gebaut?
Wir sind gespannt!

Antwort Gefällt mir

SchmoWu

Veteran

115 Kommentare 40 Likes

Wieder vielen Dank für den Test @Igor Wallossek

Antwort Gefällt mir

Feen-Schubser

Veteran

234 Kommentare 122 Likes

@Igor Wallossek
Seite 10 steht 5090 FE beim Bild vom Stromverbrauch. :unsure:
Damit sprichst du mir aus dem Herzen, machen wir das beste daraus.

Dankeschön für den Test.
Mal sehen wie sich das entwickelt.
Verfügbarkeit, Preis, Custom Designs...

Mal sehen was von der Steuer zurück kommt 🫣 :LOL:

Antwort Gefällt mir

Dragon of Luck

Veteran

304 Kommentare 242 Likes

Unter 10% Mehrleistung im Rasterizing. Geil. Da kannste auch einfach ne 4080 übertakten :ROFLMAO:

Antwort 3 Likes

HerrRossi

Urgestein

7,065 Kommentare 2,400 Likes

Der Flop ist sogar noch größer als der der 5090.
Schade, dass AMD nicht kontern kann.

Antwort 4 Likes

Rudi69

Mitglied

54 Kommentare 44 Likes

Super Test(y)🤖
Auch hier bin ich mit der 5080 insgesamt enttäuscht. Nur wenige vereinzelte FPS vor der 4080 (Super):cry: Die 7900 XTX gab es letztes Jahr mehrfach für um die 800€.

🔥💥Wer mal einen (scheinbar) von Nvidia finanzierten Test einer RTX 5080 Grafikkarte sehen will, schaut einfach bei Computerbase vorbei. Der Fortschirtt der 5080 gegenüber der 4080Super ist real so winzig und gering, das Computerbase (scheinbar im Auftrag von Nvidia?) ausschließlich und überall %Prozent-Angaben macht.
Denn diese immer und immer wieder mantra-artig wiederholten Prozent-Angaben, sind im Vergleich zu den einzig für den Gamer hilfreichen Angaben/Zahlen, nämlich FPS, immer im schönen ansehbaren zweistelligen Bereich, 10%, 13% 16%. :poop: Diese schön aussehenden hohen Angaben in Prozent, werden umgewandelt in FPS dann pötzlich nur noch einstellig,, 3 FPS, 5 FPS, 7 FPS etc.:ROFLMAO:
Mit diesen für den Gamer nutzlosen hohen % Angaben, manipuliert und täuscht Computerbase im vollen Bewusstsein den User über den reallen extrem geringen Leistungszuwachs einer NVIDIA Grafikkarte. Bei dem aktuellen Computerbase Test der RTX 5080 ist das so deutlich sichbar wie nie zuvor.

Antwort 4 Likes

F
Falcon

Veteran

165 Kommentare 179 Likes

Das die 5080 ohne MFG und Co. an die 4090 herankommen würde war klar.
Aber das der Kühler keine ähnlich aufwändig konstruierte Kühllösung ist wie die 5090 finde ich echt schwach.
Keine Vapor Chamber, kein Flüssigmetal und mMn viel zu laut für popelige 360W.

Antwort Gefällt mir

Dragon of Luck

Veteran

304 Kommentare 242 Likes

Das AMD sich aus dem High-End zurückgezogen hat, wird der Grund für die wenige Mehrleistung sein.
Ohne Konkurrenz gibts keinen Grund für NV Gas zu geben.

Antwort Gefällt mir

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Ich bin ja jetzt echt mal gespannt, was AMD als nächstes raus haut. Eine 5080 würde ich mich vorher wohl eher weniger kaufen. Das ist für die 5090 insofern etwas anders, weil AMD da wohl eher nicht hinkommen wird - zu einer 5080 sind sie aber m.E. durchaus noch in Schlagdistanz.

Antwort Gefällt mir

Case39

Urgestein

2,730 Kommentare 1,086 Likes

Aber MFG ? Ah😃☝️ Mit freundlichen Grüßen Jensen Huang 😂

Antwort Gefällt mir

T
TheSmart

Urgestein

565 Kommentare 310 Likes

Ziemlich viele Euros für eine Art Sidegrade zur alten 4080 Super.
Die zusätzlichen "KI"-Ptogramme scheinen mir vor allem die Mehrleistung zu bringen.
Die Hardware selbst ist fast identisch geblieben.. vlt hier und da ein bisschen effizienter.. aber damit hat sich das auch schon wieder.
Da kann man echt nur noch auf AMD hoffen, das da was gutes bei rumkommt.
Oder es ist wieder so Stillstand angesagt, wie bei der letzten Generation, aber vlt gehts dann immerhin wieder über den Preis.

Antwort Gefällt mir

Ifalna

Urgestein

748 Kommentare 676 Likes

Sehr enttäuschende Karte aber von den Rohdaten her kommt das jetzt nicht unerwartet.

Finde den Gedanken von ca 60% Mehrleistung über meine 3080 für ~1500€ (optimistische Schätzung von AIB Modell + Wasserblock) extrem unattraktiv. Dazu noch gegimpt mit 16GB VRAM.

Wenns das Teil für 750€ gäbe wärs nen Knaller aber so frage ich mich ob der einzige Zweck der 80er Karte nur noch der ist, die 90er verlockender aussehen zu lassen.
Was bringen mir 100 angezeigte FPS wenn sich das game dann doch anfühlt als würde ich es mit den 30 nativen FPS zocken?

Antwort 6 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung