Artificial Intelligence Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 5070 Founders Edition Review – When AI has to help out on the finish line

Test setup

I already wrote on the first page that the test system still had to be changed. An overclocked and slightly undervolted AMD Ryzen 9800X3D is used on an MSI MAG X870E Carbon WiFi with 2x 16 GB T-Force Delta RGB DDR5 6000 (32 GB kit) @CL30 as well as a TB MSI Spatium M480 Pro and an M580 4TB. The whole thing is powered by a Be Quiet! Dark Power Pro 13 1600 Watt. A semi-custom water cooler from Alphacool in the form of the Eiswolf Extreme ensures a cool CPU.

I have been using an Optris Pi640 for the heat flow analyses and infrared images / radiometric videos for the non-contact measurements for years and because I had to change the system, I am using the “old” T70 benchtable from Lian Li with special foil and cover), which I can also close like a PC case. The Pi640 is an industrial camera with interchangeable lenses, various additional parts and functional software. With a whopping 640 x 480 measuring pixels, the bolometer for capturing thermal radiation is already as large as a normal VGA camera, which is interpolated into the image for optical enhancement in many cheaper devices. Not much more is currently possible. The videos are recorded at up to 30 FPS (Hz), which is also in a class of its own.

The Keyence VHX-7000 system with coupled AE-300 from my own laboratory is a versatile 3D profilometer and the powerful microscope (max. x2000) with HDR function, automated lighting scenarios and huge depth of field can also be used perfectly for such examinations. It can also be used for material analysis, for which I don’t have to use an expensive SEM EDX. Vacuum? I no longer need it and it saves a lot of time. As long as you know what you’re getting into and what the limits of the method you’re using are, it works really well. That’s exactly what we need today.

However, the measurement of detailed power consumption and other, more in-depth things is carried out in the lab using two methods: high-resolution oscilloscope technology and the self-created, MCU-based measurement setup for motherboards and graphics cards (pictures below) or NVIDIA’s PCAT. Of course, I use a redundant system with the same components because such measurements are rather difficult in the case.

The audio measurements are carried out outside in my chamber (room within a room).

I have also summarized the individual components of the test system in a table:

Test System and Equipment
Hardware:
Ryzen 7 9800X3D
MSI MAG X870E Carbon WiFi
2x 16 GB T-Force Delta RGB DDR5 6000 (32 GB Kit) @CL30
1x 2 TB MSI Spatium M480 Pro, 1x M580 4TB
Be Quiet! Dark Power Pro 13 1600 Watt
Cooling:
Semi-Custom Water Cooler Alphacool Eiswolf Extreme
DOWSIL TC-5550
Case:
Raijintek Paean
Monitor: LG OLED55 G19LA, TCL 42″ UltraHD
Power Consumption:
MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)
NVIDIA PCAT and FrameView
Microscope / Laser:
Laser-induced breakdown spectroscopy (LIBS)
Keyence VHX-7000 and AE-300
Thermal Imager:
Optris PI640
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxDxH)
Axial measurements, perpendicular to the center of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS/UEFI: Windows 11 Pro 24H2 (all updates/patches, current certified drivers), “Best performance”

Kommentar

Lade neue Kommentare

ro///M3o

Veteran

434 Kommentare 309 Likes

Joa, funktioniert schon was sich da nVidia gedacht hat. Ich habe sie durchschaut! Eine schlechte Basis schaffen, um die weitere Preiserhöhung bei der Gen6 zu rechtfertigen. Bei 90% Marktanteil wird das sicher klappen. Schlimme Finger!!!

Im Ernst, 649€ für das? Instabil (PCI-E5.0), heiß, laut, Speicherkrüppel, zu teuer. Hab ich was vergessen? EDIT: ja hab ich, keine Physx und CUDA32 kommt auch dazu. Laut CB in Raytracing auch ineffizienter als die 4070(s).
Man merkt halt, dass Blackwell nicht für die Gamer entwickelt wurde. Ist nur die Resterampe aus der AI / KI Geschichte. Bei release wird sie trotzdem ausverkauft sein und denke die Preise werden nicht unter 800 bis 900€ anfangen. niVidia ist nämlich grün. "Go" for it, just buy it 🙃

Igor, danke für den wieder super Test. Bitte gerne mehr von deinen eigenen Gedanken :)

Antwort 6 Likes

feris

Mitglied

78 Kommentare 60 Likes

Danke für den ausführlichen Test, gute Arbeit wie immer.
Leider stellt sich bei mir, wenn auch erwartet, kein "haben wollen" ein.
Ist bei mir aber bei der kompletten 5000er Serie der Fall.
12 GB machen die Karte in meinen Augen zu einer Todgeburt. Auch für meine UWQHD Umgebung.
Der Preis ist dafür auch frech. Ich hätte es gern auch leiser, was die Karte über den UVP hinaus teurer machen wird.

Antwort 7 Likes

ipat66

Urgestein

1,791 Kommentare 1,993 Likes

Sidestep mit Stolperfallen :)
Diese Generation ist eine verlorene und einfach viel zu teuer für das Gebotene.

@ Igor : Vielleicht ist die Generation noch interessant für den Produktiv - Bereich ?
Aber für's Gaming ist es schon happig :(
Da freue ich mich auf den Test der 7090XT … :)

Ohne Konkurrenz fehlt uns was.
Danke Igor.

Antwort 4 Likes

SchmoWu

Veteran

115 Kommentare 40 Likes
F
Falcon

Veteran

165 Kommentare 179 Likes

War kein Geld mehr im Entwicklungsbudget für nen vernünftigen Kühler mehr übrig nachdem man den für die 5090 fertig hatte?:ROFLMAO:

Über 40dB und fast 3000U/min sind ein schlechter Scherz für das Geld bei nur 250W. (n)

Antwort 7 Likes

konkretor

Veteran

448 Kommentare 494 Likes

Keine Angst wird trotzdem gekauft, trotz all der Probleme mit den Karten, werden die Leute aus Gewohnheit weiter grün kaufen

Antwort 6 Likes

Dragon of Luck

Veteran

304 Kommentare 242 Likes

AHAAHAAAHAAAHAA :ROFLMAO: - Nope.

Danke für den Test - die 5070Ti ist ja wenigstens noch irgendwo Interessant, wenn auch maßlos überteuert.
Aber die 5070..? 12GB? In 2025?

Antwort 7 Likes

f
fwiener

Veteran

108 Kommentare 69 Likes

Naja. Hab ich mir schon fast gedacht, daß hier nicht allzu viel zu erwarten ist. Außer dem DLSS4 sehe ich hier keinen Grund, so eine Karte zu kaufen, und das sage ich als RTX 3060-Nutzer, der schon länger aufrüsten möchte. Zumal meine Karte auch schon 12 GB hat. Klar, ich spiele ausschließlich in 1080p (2560x1080), was sie in meinem Fall schon (außer der Speichermenge) zu einem deutlichen Upgrade machen würde, aber da gibt es einfach viel zu viele Haken.

- 12 GB Grafikspeicher, keine Verbesserung (abgesehen von schnellerem Speicher)
- ziemlich laut
- keine Physx Unterstützung mehr bei älteren Titeln ist schon sehr dreist, eine neue Karte sollte mit allem besser klarkommen was älter ist
- und natürlich der hohe Preis.

Nein, also diese Karte hatte ich sowieso nicht im Blick mit ihren 12 GB VRAM. Dann schon eher die 5070 TI. Allerdings ist das alles hier so offenkundig die Verkaufsstrategie von nVidia. KI-Funktionen pushen und hypen, als eine Art der Zukunftssicherheit. Aber dann gleichzeitig den VRAM schön niedrig halten damit man schon fast dazu gedrängt wird, das nächsthöhere Modell zu kaufen, was dann aber auch nicht mehr allzu weit entfernt ist vom noch höheren (welches dann wiederum "nur" 16GB bietet und nur halb so schnell ist wie das Spitzenmodell). DIe Stückzahlen extrem niedrig halten, damit die Karten ein absolutes Luxusgut und damit teuer gehandelt werden. Verfügbarkeit runter, Angebot und Nachfrage regeln dann schon den Preis (obwohl man ja im Vergleich so "soziale" UVP deklariert).

Für Unerfahrere sieht das nach extrem begehrten Karten aus die immer nur ganz kurz vorrätig sind, und Ungeduldige und Leute mit genug (angespartem) Geld kaufen sich einfach eine, Scalper können schnellen Reibach machen, so spielt man Poker im Spielcasino Grafikkartenmarkt. Komme mir hier echt verarscht vor. Die 50er-Generation sehe ich nur als temporäre Lösung an, ohne echten Mehrwert. Da fehlt einfach zu viel und der Preis geht überhaupt nicht. Aber ist schon clever durchdacht, das muß man denen lassen. Ziemlich abgebrüht und dreist. Und ein klares Zeichen dafür, daß KI klar im Vordergrund steht, besonders in der Produktion, was die Verfügbarkeit der Einheiten erklärt. Gaming ist nur noch eine Randnotiz ohne jede Priorität. Naja, so hat das auch was Positives - dann kommen ja vielleicht die Roboter, die uns morgens den Kaffee ans Bett bringen und dann für uns zur Arbeit fahren, etwas früher als gedacht.

Umso mehr richte ich den Blick auf die 9070XT.

Antwort 3 Likes

Klicke zum Ausklappem
Widukind

Urgestein

653 Kommentare 312 Likes

Ich glaube eher die ganz unwissenden kaufen einfach Nvidia. Bei unserem Sohn in der Klasse haben die meisten einen PC mit RTX 3050, 3060 oder 4060. 🥳🥳:unsure::LOL:

Alle, die sich auch nur ein wenig informieren, werden in Ruhe abwägen. Gerade in Internetforen wird eher zu AMD geraten. Erst über 1000€ Budget gibt es ja ausschließlich Nvidia.

Verstehe aber die allgemeine Aufregung nicht. Im Motor-Talk-Forum beschweren sich die Honda-Fahrer ja auch nicht über das Kaufverhalten der Skoda-Fahrer.

Die 3060 ist in einer Liga mit der RX6600. Da kann man keine Wunder erwarten. Die 12GB bringen außer in Bildbearbeitungsprogrammen auch leider nichts, da der GPU-Chip zu lahm ist. Trotzdem sollte man damit in 1920x1080 in hohen (wenn auch nicht ultra oder epischen) Einstellungen spielen können.
2560x1080 verlangt schon wieder etwas mehr Leistung. 33% mehr Pixel.

Du bräuchtest für ein Ultra-Setting in 1080p schon eine RX6800 oder RTX3070. Für 2560x1080 bei dem einen oder anderen Top-Titel fast noch höher.

Der Preis der 3060 ist genau so wie jener der RX6600. Um die 200€ damals. Werden die noch verkauft aktuell?

Die Lautstärke hat ja nichts mit AMD oder Nvidia zu tun, sondern hängt vom Design des Grafikkartenhersteller ab. Meine Erfahrung mit diversen AMD- und Nvidia-Karten sagt, dass man alle Karten irgendwo erträglich leise bekommt mit ein wenig rumprobieren an den Settings.

Antwort 1 Like

Klicke zum Ausklappem
T
Troduss

Neuling

5 Kommentare 1 Likes

Ich muss ehrlich sagen, ich bin ganz schön hin und her gerissen. Einerseits bin ich noch zufrieden mit meiner 2080ti, andererseits will ich mir jedoch schon seit Jahren eine neue zulegen, was aber eher mit dem HDMI Standard der betagten Karte zu tun hat.
Ich habe meinen PC schon seit fast 20 Jahren nicht mehr am Monitor, sondern am TV angeschlossen und spiele selbst jetzt noch fast alles in 4k Auflösung. Allmählig muss ich aber langsam einschneidendere Kompromisse eingehen, was die Bildqualität betrifft.
Aufgrund der Tatsache, dass die 2080ti kein 4k in mehr als 60 Hz an den TV liefern kann, war das mit der Framerate Jagt niemals ein Thema für mich. Die 5070 hat mich sehr interessiert und das mit den Temperaturen wäre für mich nicht weiter von Belang, da hier so oder so eine Wakü drauf montiert werden würde.
Die anderen Karten kommen für mich aufgrund des Preises eigentlich nicht mehr in Frage, die 2080ti war damals schon (zu) teuer.

Antwort Gefällt mir

Dragon of Luck

Veteran

304 Kommentare 242 Likes

Ab und zu erwischt man eine 4070Ti Super für etwas über 900 Euro zurzeit.
Bei Alternate oder Computeruniverse gibts immer wieder welche.

Oder halt ne 7900XTX 😁

Antwort 2 Likes

Widukind

Urgestein

653 Kommentare 312 Likes

Bei 4K würde ich auch auf RT verzichten und die 7900XTX (850-950€) nehmen. Mehr Leistung geht kaum.

Mit RT bei 4K wäre es aktuell 5070TI 16GB (ab 1099€). Die 4080(S) ist nicht mehr zu bekommen für einen normalen Preis.

Antwort 2 Likes

T
TheSmart

Urgestein

565 Kommentare 310 Likes

Den Preis würde ich eher bei der TI-Variante sehen.. aber nicht bei der aktuell getesteten Variante.
Denn die Karte ist so wie ise jetzt ist..eine Enttäuschung.. okay man muss sagen bisher war Blackwell alles andere als ein Gamechanger. Vor allem wenn man sich die Preise dafür anschaucht und was man geliefert bekommt.
Ich persönlich würde schon eher eine Radeon karte alleine wegen des größeren VRams-Ausbaus nutzen. Oder mir eine gebrauchte günstige 3080 oder auch 3090 holen.. da hätte ich definitiv mehr von und müsste dennoch weniger bezahlen..deutlich weniger. Vlt auch noch eine 4080, wenn man sie zu tauglichen Preisen bekommt.
Also falls man im grünen Lager bleiben möchte.. ansonsten eher eine gebrauchte Radeon.. da gibts dann wohl noch ein paar Euro mehr zu sparen.

Antwort 2 Likes

grimm

Urgestein

3,639 Kommentare 2,708 Likes

Würde vor der vorgestellten Karte immer zu ner 7800 XT für um die 500€ greifen.
Bei Indiana Jones bist du in WQHD und halbwegs chic schon bei >12GB Speicher-Auslastung.
Die 50er sind ein riesiger Quatsch und ergeben wirklich nur Sinn, wenn man ne 30er oder 20er Karte ersetzen will.

Antwort 2 Likes

T
TheSmart

Urgestein

565 Kommentare 310 Likes

Ja aber auch nur wenn man die Karten 1:1 ersetzen will.
Also 3070 durch eine 5070.
Wenn man schon eine Klasse darüber geht..macht auch eine 5ß70TI wenig Sinn..außer vlt man erwischt ein gutes Smaple und will es durch OC-Parcour jagen.. wo man dann am Ende eine 5080 raus hätte^^
Aber andererseits.. für die TI-Variante sind ja auch nochmal 600 Euro Aufpreis fällig.
Für das Geld kriege ich eine gebrauchte 3090..hmm schwierig.. Gerade geschaut..eine gebrauchte Gigabyte 3090 gibts im Preisvergleich für knapp 1000 Euro mit 24GB Vram^^
Man merkt einfach..das der Gamingbereich für Nvidia ein totes Pferd ist.. da werden nur noch die Gamer gemolken.. Fortschrtitt.. unwichtig^^

Antwort Gefällt mir

Gurdi

Urgestein

2,276 Kommentare 1,938 Likes

Ich machs kurz. An die 5070 verschwendet ab morgen niemand mehr einen Gedanken.

Antwort 6 Likes

T
TheSmart

Urgestein

565 Kommentare 310 Likes

Ach das meintest du mit Donnerstag..
Da kommen dann wohl die Test zu den AMD Grakas raus vermute ich mal.. es könnte also noch ein bisschen spannend werden^^

Antwort 1 Like

Widukind

Urgestein

653 Kommentare 312 Likes

Ne 5070 TI für um die 1000€ wäre schon ok für mich. Der VRAM muss zur GPU passen.

Mehr VRAM bringt ja nicht mehr Performance. Für KI-Anwendungen natürlich klasse, aber ich weiß nicht wozu die 3090 damals 24GB spendiert bekommen hat.

Die 5070 wird es schwierig haben, wenn die 9070 XT im gleichen Preisbereich mehr Leistung abliefert.

Antwort Gefällt mir

Ifalna

Urgestein

748 Kommentare 676 Likes

Erm... du hast ne WaKü (für die man mal eben 1000€+ hinblättert) aber schreckst wegen ein paar Hundert Euro mehr vor zB einer 5070Ti zurück?!

Das ergibt keinen Sinn.

Als ebenfalls 4K TV user: IMHO ist alles unter der 5080 für moderne AAA Titel auf 4K nicht wirklich zu gebrauchen, wenn man da die Qualität hochknüppeln (zB Path Traching) will. Karten mit < 16GB VRAM brauchste da sowieso nicht mehr anschauen.

Wart mal bis zum Sommer, dann sehen wir was der Markt macht. Jetzt sollte man nur kaufen wenn es nicht vermeidbar ist, weil zB etwas abgeraucht ist.

Antwort 6 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung