Editor's Desk GPUs Latest news

Standing still or marching forward? A few of our own thoughts on graphics card development, prices and lemmings | Editorial

I’m almost afraid that some people will hate me for this article. Not because I deliberately want to provoke, but because it expresses a truth that many people don’t want to hear. The realization that the development of classic screening performance has been stagnating for years is perhaps uncomfortable for some. But these thoughts have not just been with me since today. They have grown over the years, and I still remember the exact moment when I first realized where the journey would take me.

It was with Battlefield V, when ray tracing was advertised for the first time. Suddenly, entire worlds were reflected in the floors, as if someone had beaten good old Master Proper through the scenery. It was an effect that was technically impressive, but at the same time felt strangely artificial – as if reality itself had been given a graphic filter. At the time, I described ray tracing as a beautiful die, but a very slow one, because while it raised the image quality to a new level, it also pushed the performance into a range that made playing the game more of a test of patience. But at the same time, I realized that this was the future: no longer higher FPS through raw processing power, but new rendering techniques that rely on tricks and optical illusions to make the image look more realistic.

Since then, I have become increasingly aware that classic GPU development is heading for a dead end. The belief that each new generation would automatically bring a huge leap in performance was justified in the early 2000s, but today this mechanism simply no longer works. Instead of real progress in rasterization, technologies such as ray tracing, AI upscaling and temporal reconstruction dominate, giving the impression of higher performance without improving actual raster performance to the same extent.

So this development was quite foreseeable, and yet I’m surprised at how long the myth of constant leaps in performance has persisted. If I now address this so openly, some will dismiss it as pessimism or accuse me of trying to denigrate technical progress or defend NVIDIA’s new 5000 series. But that is not my intention at all. Rather, I see it as a sober analysis of what has become apparent over the years – and perhaps this is precisely the point at which it will be decided whether the GPU architecture as we know it will still play a central role at all in the future.

For years, the development of graphics card performance has shown a pattern that at first glance suggests progress, but in reality conceals stagnation. Particularly in the area of rasterization – i.e. the classic rendering method without the use of ray tracing – it is clear that the increase in performance is far less dynamic than the manufacturers’ marketing statements suggest. Here, NVIDIA and AMD would have been more honest and more transparent in admitting the realities for the end customer.

Above all, the switch to smaller production processes is the reason why performance is still increasing (at a manageable rate). More efficient nodes enable higher clock rates and more transistors per chip area, which is reflected in increased computing power. However, it is often overlooked that the architectural advances that were once responsible for significant leaps in performance have increasingly failed to materialize in recent years. At the turn of the millennium and well into the 2010s, new GPU generations often led to impressive performance increases, often in the region of 30 or 50 percent and sometimes even more per generation. This was due to fundamental improvements in the architecture, such as more efficient shader units, wider memory connections or new algorithms for rasterization and compression. Today, the situation is different: Pure raster performance is still growing in small steps at best, as architectures are reaching their physical limits and there is only limited potential for optimization.

Another indication of stagnation is the lengthening of product cycles. Whereas there used to be real leaps every two years, nowadays generation changes are barely noticeable and there is only a maximum of one-upmanship in between. The advances in miniaturization, made possible by new manufacturing processes such as 5 nm or soon 3 nm, maintain the appearance of further development, but do not change the fundamental problem: screen performance is no longer growing at a rate that could keep pace with the expectations of technological evolution.

This development raises the legitimate question of whether the classic GPU architecture has already reached its zenith. If performance increases can only be achieved through external factors such as more efficient production or alternative rendering techniques, this could indicate that a fundamental paradigm shift is imminent. Whether this will take the form of new hardware approaches, an increased focus on specialized AI-supported rendering processes or a further shift to cloud gaming remains to be seen. What is clear, however, is that the major leap in performance in the field of rasterization that many expect will probably not happen in the near future.

It is clear that the increases in quality and performance are increasingly linked to other technologies, such as ray tracing or upscaling methods like DLSS and FSR. Although these technologies represent progress in their respective areas, they conceal the fact that classic screening performance is stagnating. This is particularly noticeable in a direct comparison of older and newer GPUs in games that do not use modern rendering techniques. This shows that even the latest generation of high-end graphics cards often only offer a moderate increase in FPS, which is disproportionate to the increasing power consumption and rising prices.

Back then, when I first became aware of ray tracing in Battlefield V, I smiled at it and dismissed it with a rather flippant remark. It was a saying that seemed appropriate to me at the time, because the visuals were more impressive, but the performance dropped so much that you had to seriously ask yourself whether it was worth it. Today, years later, ray tracing is no longer quite so ruinous for the frame rate, but the fundamental problem remains: Raw performance is stagnating, and instead new technologies are constantly being introduced to polish up the image without increasing actual processing power. Upscaling, frame generation and ever more aggressive temporal algorithms are saving the optical illusion, while hardware development has long since ceased to make the progress it actually promises.

So you could say: more images per second through fewer real images per second. Because that is exactly what many modern technologies boil down to. Smoother animations and higher resolutions are no longer achieved through raw performance, but through calculations designed to compensate for the lack of rendering. But even if these methods undoubtedly have their justification, the feeling remains that they increasingly serve to conceal the actual stagnation. And perhaps this is the real paradigm shift: in the past, a leap in performance was achieved through pure hardware power, today it is suggested through software-side tricks. What used to be seen as a stopgap solution for weak hardware is now sold as innovation.

Another point that makes this development particularly bitter is the price. Whereas in the past each new generation of graphics cards was not only faster, but often also similar in price or sometimes even cheaper than its predecessor, today even mid-range models have reached price regions that were previously reserved for high-end cards. It’s easy to complain about an RTX 5080 or 5090, but the real problem starts much further down – where the real price-performance battle used to take place and where 600 or 700 euros for a mid-range GPU is now considered normal. Crude comparisons have to be made to show that a GeForce RTX 5070 with AI frames achieves the performance of an RTX 4090 at an extremely attractive price. Applause and whoever believes it…

It’s almost ironic that NVIDIA, the biggest profiteer of the current hardware era, no longer earns its money with gaming graphics cards. The huge billions in profits come from the AI sector, where data centers are willing to pay sums that cannot be compared with the gaming market. For NVIDIA, classic GPUs for gamers are now more of a side business that is taken along but is no longer the focus. And you can see that. Prices are rising, while the actual performance apart from ray tracing is hardly increasing in large steps.

Nevertheless, many find it difficult to accept these price increases – while at the same time we watch other products become almost resignedly more expensive. Food and energy have risen in price much faster and more sharply than graphics cards in recent years, and yet the resistance to more expensive GPUs is particularly loud. The reason is probably that technology has long been an area where progress and price stability have been taken for granted. Nobody expects a loaf of bread to get better every year while costing the same, you’re happy if it doesn’t get worse – but that’s exactly what was considered normal in the IT world for decades.

However, this expectation is now being disappointed. If you spend 1,000 euros on a new graphics card today, you no longer get the leap in performance that you would have received for the same amount ten or twenty years ago. Instead, a lot is sold via software optimizations or upscaling technologies such as DLSS, which may make sense in certain scenarios, but do not hide the fact that raw performance is hardly increasing at all.

The result is a market that is moving further and further away from what many gamers were used to. While hardware used to convince with performance, the argument today is about algorithms. While an upgrade used to be a clear improvement, today you have to ask yourself whether it is really necessary or whether an older card with a few tricks won’t last a few more years. And while many have long trusted that things will get better with each generation, the realization is slowly dawning that this progress is no longer happening at the pace we once took for granted.

In the end, the question remains as to how customers should deal with this development. On the one hand, it is frustrating to see graphics cards becoming more and more expensive, while raw performance is barely increasing. On the other hand, it is up to everyone to decide whether they want to play this game or not. Nobody is forcing you to buy a new GPU every two years if the old one is still doing its job without any problems.

Perhaps it’s time to question your own buying reflex. Do I really need a new graphics card just because a new generation is being released? Or will my old card last for years with a few software tricks? The truth is that many upgrades are now made out of habit rather than genuine necessity. Marketing does its bit to trigger this reflex, but in the end it’s the customer’s wallet that decides. Those who buy into it pay ever higher prices for ever smaller advances. On the other hand, those who approach the matter with more sense and less compulsion to buy not only save money, but also disappointment.

The dilemma, however, is that this conscious consumption also has its price – not for the buyer, but for the development itself. If fewer people buy new graphics cards, manufacturers lack the incentive to drive real innovation. The standstill that we are already experiencing today could then only get worse. But maybe that’s not such a bad thing. Perhaps we should simply accept that we don’t have to go through every cycle while others continue to plunge into the financial abyss.

And that’s exactly why the best strategy is: let the lemmings run. Instead of spending thousands on minimal leaps in performance, buy yourself a big bucket of popcorn, sit back and watch in amusement as the market reduces itself to absurdity. Because if one thing is certain, it’s that the spectacle is far from over.

Just buy it!

When Avram Pilch (does anyone still know him today?) published his legendary “Just buy it” appeal on Tom’s Hardware back then (and secretly edited it a few times afterwards), you could almost get the impression that he had either already recognized the holy truth at the time or had simply had a particularly thorough sojourn in the green marketing car wash. The message was clear: don’t question anything, don’t think too much – just buy. An attitude that has fueled exactly what we see today: constantly rising prices, stagnating performance and a customer base that all too often convinces itself that it’s all right.

The question you have to ask yourself is: what did he get for it? Was it just an inner enlightenment after years of hardware consumption, a kind of Stockholm syndrome towards the GPU industry? Or was it something more tangible? Maybe it was just the reassuring feeling of being part of an industry that has long since stopped caring about the price-performance ratio of its products? But perhaps it was nothing more than a thorough brainwashing. After all, the belief that every new GPU is not only better, but also worth every penny, has to come from somewhere. Perhaps from a deep trust in the manufacturers, perhaps from the fear of missing out – or perhaps simply from the simple refusal to admit that the great leap forward has long since failed to materialize.

Either way, we remember “Just buy it” as the motto of an era in which buyers blindly assumed that progress was a matter of course and that the customer was a dumb herd animal. Today, when reality has long since caught up with this, perhaps a new motto would be appropriate: “Just think first.” But that’s exactly what manufacturers and certain influencers would rather avoid. And even if I find certain technologies interesting and challenging for the very reasons I’ve just talked about, that doesn’t mean I fully endorse them. That’s exactly what I had to get off my chest today, because you should also read between the lines in my reviews. I like to be infected and inspired by new technology, but it won’t influence my purchasing behavior. That’s where I tend to be conservative. I stopped smoking many years ago and I haven’t drunk alcohol for a long time, so the pixel deprivation should still work.

Vote tomorrow and vote wisely. The term ballot box does not imply that you have to bury your vote there. Everyone will have to sort out the rest for themselves on Monday at the latest. But if you want to preserve democracy, then you have to give it a voice – your own. To whomever, because that is also part of it. However, anger and indifference are not good advisors.

 

115 Antworten

Kommentar

Lade neue Kommentare

R
Robofighter

Veteran

152 Kommentare 88 Likes

Schöne neue Welt. Die Mehrleistung wird direkt auf den Kaufpreis hochgerechnet. Für diese Generation bin ich raus. Ähnliche Entwicklung gabs es bei Schachcomputern. Am Anfang alles Brute Force. Dann kam bessere Hardware bis man gemerkt hat das es nicht mehr reicht. Man stieg um auf selektive Berechnungein. Ab einem bestimmten Punkt waren sie so stark und teuer das ein Normalo diese nicht mehr besiegen konnte geschweige denn kaufen.So rationalisiert man sich weg. Irgendwann kommt der Punkt das Hardware zu teuer wird und man sich fragen muß ob nicht eine Konsole die bessere Wahl ist Auch damit machen Spiele Spaß aber vielleicht ohne Hypergrafik. Jeder bekommt was er bezahlt. Ich tendiere eher zu Mini Pc und Konsole da mein Verdienst nicht so schnell ansteigt wie Grafikkartenpreise. Schade das die Gier bein den Herstellern so groß ist. Ist aber auch ein allgemeines Problem.

Antwort 4 Likes

konkretor

Veteran

446 Kommentare 492 Likes

Angefangen hat es mit der 7970 von AMD die hatte 2011/2012 soviel Leistung, das die erst 2015 gegen eine Fury getauscht wurde. Nicht weil die Spiele nicht liefen sondern nur weil 4 Jahre lang nichts gekauft wurde. Ich daddel bewußt in FHD.

Schneller höher breiter, eingestellt.
In vielen Foren liest man immer 4k 144 hz drunter ist es nicht möglich zu spielen. Da frag ich mich manchmal schon wo soll das hinführen. Was da für eine Ideologie transportiert werden soll.

Ich kaufe mittlerweile bewusst den Performance Bodensatz also Intel A750.
Meine Spiele sind oft einige Jahre alt und laufen in FHD ab 60 FPS und aufwärts.
Ich habe mich abgefunden damit nicht Highend zu kaufen und trotzdem Spaß zu haben. Ohne die ganzen Probleme was Highend mitbringt

Antwort 2 Likes

b
bitracer

Urgestein

960 Kommentare 437 Likes

Die eigentliche Misere ist doch, daß die Spiele mit großer Werbe-Reichweite (und auch moderne, weit verbreitete "engines") eben gerne die neuen Techniken implementieren und oftmals ausschließlich darauf optimiert werden, während Nutzer (wesentlich) älterer Hardware dann halt eine entweder entschieden weniger hübsche Bewegtbildfolge anschauen oder eben eine hübsche Dia-Show begrüßen dürfen.
Wenn Deine These also auch in Zukunft bestätigt wird, dann muß/wird sich hier wohl auch bald ein Umdenken ergeben. Ich denke aber dies wird frühestens in 1..2 GraKa-Generationen der Fall sein, wenn auch Monster-APUs sich zwei bis drei Jahre etabliert haben. Die große Frage ist dann: enthält dann der kleinste gemeinsame Leistungs-Teiler RT und PT-Techniken weil die (moderat-bepreisten) APUs dies dann auch ordentlich mitmachen, oder kommt das eher und alles ab 12..16 Gibyte framebuffer kann dann "auf ewig" zumindest mitspielen?

Antwort 1 Like

big-maec

Urgestein

1,122 Kommentare 647 Likes

Sehe es ähnlich von daher hasse ich das geschriebene nicht. :D Hätte ich zu RTX 2080 Zeiten keinen neuen UWQHD Monitor gekauft wäre die ausreichend gewesen. Als letzte Karte sollte eigentlich die RTX 3090 in den Rechner da die mich von den Temperaturen aber enttäuscht hatte und die mit einem Plus verkaufen konnte wurde es letztendlich eine RTX 4090. Da die jetzt mit der Monitorauflösung bei 100Hz Super harmoniert ist bei mir erstmal Schluss mit aufrüsten.

Zu den Wahlen kann ich nur schreiben man sollte sich von versprechen nicht blenden lassen sondern die letzten 3 Jahre mal Revue passieren lassen und überlegen was es für einen selber gebracht hat.

Antwort Gefällt mir

ipat66

Urgestein

1,789 Kommentare 1,982 Likes

Unglaublich aber wahr …
Obwohl in meiner Kiste noch eine 2070 ( Kartoffelchip ) mit einem AMD 3600 werkeln,
geht sie immer noch an, wenn ich auf den Power Schalter tippe :D
Ich spiele zu 90% MS Flightsimulator 2020 oder X-Plane 11 und ab und an ein Rennspiel.
Zugegeben hat es mich einige Male in den Fingern gejuckt und mehrere Male hatte ich schon eine neue GPU
mitsamt einer AMD 3D CPU im Einkaufswagen …
Ich konnte dann doch immer wieder der Versuchung widerstehen, da ich diese Kunderverar$che nicht unterstützen will.

Klar: ich hätte einige FPS dazugewonnen und die Details hoch schrauben können …
Im Endeffekt hat aber gerade dieses anfangs gehasste DLLS dazu geführt,dass ich mit ausreichender Qualität durch die Lüfte fliegen kann;
und das in 4Kauf 50 Zoll.

Wichtiger ist mir heutzutage, mit einem Freund und Co-Pilot einen angenehmen Spiele-Nachmittag zu erleben....

Ich habe mir dann lieber einen 10 Watt Mini gegönnt, der jetzt den großen Bruder ersetzt, wenn es um
Multimedia ( Streaming und Musik ) oder Office geht.
Fand ich konsequent und schlüssig.

Solange das für mich noch so klappt, hoffe ich weiterhin dieser schwachsinnigen Entwicklung widerstehen zu können.
Es gibt wichtigeres :)

Und zu Morgen:
Geht wählen und vergesst nicht, dass unsere Demokratie etwas besonderes ist.
Durch Hass oder extremistische Einstellungen wird es nicht besser :)
Am Besten ist es sowieso bei sich selber anzufangen um sein Umfeld zu verbessern.

Antwort 12 Likes

Klicke zum Ausklappem
b
bitracer

Urgestein

960 Kommentare 437 Likes

Was den Aufruf zur Urne angeht: der ist fester Bestandteil meines Sonntags alle 4 Jahre (oder halt 3, wenn die Lindner-FDP das so will).
Mich bewegen dorthin:
Der Wunsch zu (etwas) mehr Einheit und weniger Zwietracht in Europa -auf keinen Fall weniger Europa!
Der Wunsch, den demokratischen Rechtsstaat zu erhalten und auszubauen, sowie die Macht der hohen Vermögen nicht davonlaufen zu lassen (so wie in Rußland bspw.)

Wenn wir uns wenigstens darauf einigen könnten, wäre schon viel gewonnen!

Antwort 6 Likes

c
cunhell

Urgestein

798 Kommentare 856 Likes

Ist sicher vieles richtig, was Du geschrieben hast, Igor. Einen Aspekt hast Du aber aus meiner Sicht ein wenig ausgeklammert.
Viele der der Hardwareseiten singen das Lied der Hersteller und loben oftmals die neuen Generationen über den grünen Klee obwohl die Entwicklung stagniert und die Karten eingentlich, wenn überhaupt messbar, nur noch durch Software irgendwie zulegen.
Außerdem kommt aus meiner Sicht oftmals die immer mehr umsichgreifende Tatsache, dass durch die Softwareorientierung der Support für die Spiele immer mehr fragmentiert. DLSS, XeSS, FSR ja nein vielleicht mit welcher Kombination und welchen zusätzlichen Features.

Damit lässt sich dann auch gleich noch die Marktmacht mit ausnutzen, in dem man mit den Spieleschmieden entsprechende Absprachen trifft. Man erinnere sich nur an den kollektiven aufschrei als Starfield erst nur, aus welchen Gründen auch immer, FSR anbot. Bei Spielen bei denen es andersrum ist, bleibt der meisst aus und es wird nur darauf verwiesen, man hätte halt die falsche Karte gekauft. Hier schliesst sich dann mMn. der Kreis zu Stockholm.

Cunhell

Antwort 8 Likes

B
Besterino

Urgestein

7,624 Kommentare 4,140 Likes

Kann die Motivation für den Artikel verstehen, sehe das Thema aber nicht so düster bzw. dramatisch.

Bei den CPUs zeichnet sich schon viel länger ein ähnliches Bild und dort wird auch nicht das Ende des Abendlandes besungen. Die Performance pro Takt und Kern geht von Generation zu Generation auch nur noch minimal hoch. Stattdessen klebt man halt mehr Kerne zusammen bzw. unterschiedliche Kerne für unterschiedliche Anwendungsgebiete (ob jetzt P oder E oder mit 3D-Cache oder ohne…). Ist aber anscheinend nicht so herzzerreißend wie bei GPUs. Warum? Vermutlich weil die Leistung für Consumer reicht…

Bei Grafikkarten ist es z.B. mir auch völlig egal, wo hoch eine nominale Rechenleistung ist. Das Ding hat (für mich!) eigentlich nur eine Aufgabe: möglichst schnell möglichst hübsche Bilder zu erzeugen, die mein Hirn idealerweise a) für Realität hält und b) mit denen ich interagieren kann und zwar so dass die Interaktion ebenfalls möglichst realistisch wirkt. Gut, letzteres hängt nicht allein an der Graka, aber wenn die bei der Bildgeneration zu übel „halluziniert“ oder sonst abweicht (Stichwort Latenz & Co.), passt es halt irgendwann nicht mehr zur Mechanik hinter der Interaktion.

Aber WIE das passiert, ist mir schietegal. Wir sind ja noch lange nicht da, dass GPUs photorealistische Bilder in Echtzeit berechnen können. Wie kommt aber denn da hin? Mit reiner Raster-Technik schlicht nie - fast egal mit welcher Roh-Performance. RT ist hingegen (nur) ein Schritt weiter in die Richtung und eben auch noch nicht perfekt. Und die Hardware für RT ist auch noch lange nicht da, wo die Hardware für „berechne Dreiecke und leg Texturen drüber“ ist. DLSS ist auch so ein Ding: wenn das Bild damit besser ist (ob nun flüssiger oder photorealistischer oder woran auch immer es gerade fehlt) ohne Abstriche bei den anderen Faktoren, die für die Immersion wichtig sind - her damit! FG und MFG setzen halt nicht bei einem besseren Bild an, dafür bei einem flüssigeren (für die Augen) zu Lasten leider der anderen spannenden Faktoren wie Latenz o.ä. Aber immerhin hab ich als Anwender eine zusätzliche Option, einen für mich akzeptablen Mix zu finden.

Zu guter letzt gehe ich nicht mit, dass sich die Rohleistung „über Generationen“ nicht mehr maßgeblich gesteigert hätte. Zwischen einer 2080Ti und einer 3090(Ti) war der Sprung deutlich. Und von einer 3090Ti zu einer 4090 auch gut erspielbar. Jetzt ist es halt mal von einer 4090 zu einer 5090 eher mau, aber sowas gab es auch früher schon mal (erinnert sich z.B. noch einer an die 700er von NVIDIA?).

Ja, NVIDIA verdient nun woanders mehr Geld. Pech für uns Gamer. Thats life und wenn ein Markt da ist, nutzt meist irgendwann ein anderer die Lücke. Nur wenn kein Markt da ist, der groß oder attraktiv genug ist, ists halt blöd für die „zu wenigen“, die aber trotzdem gerne…

Die aktuelle Situation ist außerdem auch nur eine Momentaufnahme: wer weiß ob langfristig so hochgezüchtete Hardware für den gerade heißen Scheiß gebraucht wird. Oder ob nicht eben z.B. ein Chinese oder anderes cleveres Köpfchen das Rad neu erfindet oderoderoder. Schließlich war es auch niemand bei NVIDIA, der zuerst Grakas auf KI (hieß damals noch ML) losgelassen hat, NVIDIA hat nur die Zeichen der Zeit und das Potenziall erkannt. Und wenn sollte sich da wieder was ändern, wird man sich bestimmt auch bei NVIDIA schnell an den gerade noch „zweitbesten Kunden“ erinnern.

Lamentieren hat jedenfalls noch nie geholfen. Und weil der Gaming-Markt insgesamt auch gigantisch ist, glaube ich auch fest daran, dass die Entwicklung hin zu „besseren Spielerlebnissen“ (oder mit anderen Worten: „attraktiveren Realitätsfluchtoptionen“ :D) munter weitergehen wird - nur wird man dafür womöglich irgendwann keinen PC mehr brauchen…

Antwort 2 Likes

Klicke zum Ausklappem
S
Stallsnapflip

Mitglied

17 Kommentare 6 Likes

Ich finde den Artikel gut, weil er das Thema mal aus einer anderen Perspektive beleuchtet als die alte Leier in den Foren mit dem Tenor, dass die bösen GPU-Hersteller uns arme Schlucker ja so maßlos ausbeuten.
Da werden einfach Forderungen aus der Luft gegriffen, als machbar postuliert und dann geglaubt: die neue Karte hat gefälligst deutlich schneller zu sein als die Vorgängerin bei gleichzeitig niedrigerem Energieverbrauch und natürlich auch noch günstiger. Wenn Grafikkarten heute mehr kosten als vor 10 Jahren, kann das ja nur Abzocke sein. Würde man solche Forderungen an Autos stellen, dann dürfte die 0,5 Liter-Limousine heute neu maximal 1000€ kosten.
Wer sagt denn, dass diese Forderungen überhaupt umsetzbar sind? Nur weil Leute das in den Foren immer wieder nachplappern, muss das noch lange nicht realistisch sein.

Sind die Gewinnmargen so exorbitant hoch? Ich kann es nicht wirklich beurteilen, da ich nicht weiß, was die Entwicklung mit allem drum und dran und eine stabile Produktion am technischen Limit kosten. Wenn ich mir aber mal einen Klotz von 4090 anschaue und dann mit einer CPU vergleiche, dann sieht man nicht nur an Größe und Gewicht, dass wir hier von zwei ganz unterschiedlichen Kalibern sprechen. Auch wenn ein Rechenleistungsvergleich CPU vs GPU wegen unterschiedlicher Spezialisierungen nicht direkt möglich ist, sieht man schon beim Vergleich von Hausnummern, dass eine GPU hier um mehrere Größenordnungen mehr Rechenpower bringt beim gerade mal 3-fachen Preis einer aktuellen CPU. Der Logik nach müssten die Gamer also aufschreien, dass CPUs leistungsbezogen so exorbitant teuer sind im Vergleich zu GPUs. Es hat schließlich seinen Grund, dass die Miner und KI-Trainer ihr Geld lieber in vermeintlich teure GPUs stecken als in säckeweise CPUs.
Die Preisempfehlungen der Hersteller sagen ohnehin nicht viel aus, weil der Markt es richtet. Wenn die Dinger zu günstig auf den Markt geworfen würden oder zu wenig verfügbar sind, dann steigt der Preis von alleine, wie man ja gerade wieder sieht. Und wenn er zu hoch angesetzt würde, wären die Regale voller Ladenhüter und in Folge sinkt der Preis. Nvidia verdient nicht mehr daran, wenn Scalper eine 5090 für 5k€ verscherbeln.

Ich vermute, dass die alte Leier "immer leistungsfähiger, gleichzeitig stromsparender und auf keinen Fall mehr als ein paar hundert €" daher kommt, dass ein Großteil der Gamer Schüler und Studenten sind, bei denen der Euro eben nicht so locker sitzt. Ich hab das ja selbst durchgemacht und hätte mir damals auch keine so teure Karte kaufen wollen oder können, aber damals vor 20-30 Jahren waren wir sowieso auf einem ganz anderen Preisniveau.

Das Argument, dass die GPUs nur so teuer sind, weil immer ein paar Dumme bereit sind, den Preis zu zahlen, halte ich auch für Schwachsinn. Da soll nur ein Sündenbock für die nicht erfüllten Fantasien her. Erstens werden sicherlich viel weniger high end-Karten verkauft als Mittel- und Holzklasse und zweitens wäre, wie Du schon geschrieben hast, kein Anreiz da, leistungsfähigere GPUs zu entwickeln, wenn alles immer nur hauptsache billig sein muss. Die Entwicklung von solchen Monstern inkl. der dazu nötigen Fertigung ist alles andere als billig. Würden sich die GPU-Hersteller den Stress nicht machen, hätten wir jetzt zwar alle unsere paar hundert €-GPUs, wären aber auf dem Stand vor 10 Jahren stagniert. Gerade diese "Dummen" subventionieren damit letztendlich zu einem gewissen Teil finanzierbare Grafikkarten in der niedrigeren Preisklasse, mit denen man heute noch Spaß haben kann. Das sind schließlich die abgespeckten Versionen der high end-Karten. Eine XX80/70/60 würde man zu den Preisen sicherlich nicht aus dem Nichts raus entwickeln können, zumindest nicht als nicht-karitatives Unternehmen.

Warum soll also eine high end GPU für ein paar k€ Wucher sein? Gaming in dieser Leistungsklasse ist eben mal Luxus und für Luxus muss man bekanntlich Scheine hinlegen. Wenn ich mir z.B. anschaue, was Leute für sowas popeliges wie Autos hinlegen, dann ist so eine für den täglichen Bedarf völlig überzüchtete Protzkarre voller Technikmüll für meinen Geschmack viel dekadenter. Da schreit aber komischerweise kaum einer. Aber wenn's Spaß macht...

Genauso ist es bei allen anderen Hobbies auch: in jungen Jahren fehlt die Kohle und man muss halt schauen, was das Budget hergibt und wenn die grauen Haare dann immer mehr werden, sollte man sich irgendwann mal fragen, ob man den Rest seines Lebens wirklich damit glücklich wird, jeden Euro 2x umzudrehen, obwohl man die Scheine zum Verpulvern für etwas Gaudi eigentlich hat. Wenn ich Spaß am Gaming habe und für 2k€ eine GPU bekomme, mit der ich tausend(e) Stunden high end Spielspaß haben kann, während ich mit der 500€-Variante die Qualität runterschrauben und Ruckler schlucken muss, dann ist es mir persönlich das Wert. Ich rechne beim 2-wöchigen Urlaub fürs gleiche Geld ja auch kein Preis-Leistungsverhältnis aus.

"Preis/Leistung" ist auch so eine Ausgeburt, die sich zur Religion verselbstständigt hat. Wenn ich bei GPU-Vergleichen sehe, wie sich manche Leute freuen, dass ihre GPU ja das beste €/fps- oder €*Watt/fps-Verhältnis hat, oder welche anderen durchgeknallten Metriken sich ein gelangweilter Statistiker noch zum Content kreieren aus den Fingern saugen mag, dann frag ich mich, ob sie den Schuss gehört haben. Klar, der Student, der für max. 500€ einen Gaming PC aufstellen will, kommt da nicht drum rum, aber wenn's hart auf hart kommt, muss man halt in den sauren Apfel beißen. Wenn jemand ein Jucken in der Hose bekommt, weil er 200€ spart und dafür jahrelang Kompromisse bei der Gaming-Qualität eingeht, dann sei ihm das gegönnt, aber für mich geht das am Ziel vorbei. Egal in welchen technischen Bereich man schaut, hat die Oberklasse immer ein schlechteres Preis-Leistungs-Verhältnis als die Mittelklasse, das ist aus genannten Gründen völlig normal.
Ich kaufe mir sicherlich keine high end-Karte für apple-mäßige "bragging rights". Bei meinen Gaming-Anforderungen ist leider die eiskalte Realität, dass selbst die dickste GPU noch zu schwach ist, und wenn die nächste Generation mehr Dampf=Spaß bringt, dann rechne ich nicht nach, ob ich mich selbst verarsche, weil das fps/(Watt^2*Euro+Wurzel(latency))-Verhältnis ja 15% schlechter ist.

Das soll nicht heißen, dass es bei mir kein Limit gäbe; ich scheiße auch kein Geld und werde mir keine 5090 zum doppelten UVP kaufen, um einen Scalper zu bereichern. Ich lege den Leuten nur nahe, sich mal zu überlegen, was innerhalb ihres Budgets tatsächlich möglich ist und was ihnen der Spaß wert ist. Wenn ich sehe, wie sonst überall die Preise explodieren und was man in anderen Hobbybereichen teils hinlegen muss, kann ich wirklich nicht sagen, dass PC Gaming im Vergleich dazu auffällig überteuert ist.

Antwort 4 Likes

Klicke zum Ausklappem
MGFirewater

Veteran

268 Kommentare 105 Likes

Du hast den Nagel nicht nur auf den Kopf getroffen sondern mit einem schlag versenkt!

Es gibt so viele Sätze die ich zitieren möchte.

Fazit,
eins: das moorsche Gesetz gilt nicht mehr für gpus -> jeder sollte mindestens 2 Generation (wenn er in der selben Leistungsklasse bleiben möchte) überspringen
Zwei: Inflation tritt auch bei Hardware auf.
Drei: nutzt Hardware solange wie möglich, das gilt vor allem auch für Handys

Antwort 3 Likes

Brxn

Veteran

285 Kommentare 95 Likes

Guter Artikel, der von einem Profi / Insider geschrieben, das ausdrückt was viele sich denken. Der ganze Marketing-Sprech der einem seit zig Jahren zu suggerieren versucht, man bräuchte einen 8k TV oder man muss in 4k & 200Hz zocken sonst ist man ein Loser und bekommt nix hin, verfängt sich in den Köpfen der Menschen.

Soziologie, Pädagogik und Psychologie sind 1A Tools, um zu kapieren wie Menschen funktionieren, wie man sie triggern kann, wie man sie in neue Bahnen lenken kann. Das funktioniert beim Auflösen von Traumatas aber eben auch bei der Kreation von "neuen" Bedürfnissen. Höher, schneller und weiter.

Stockholm Syndrom und kognitive Dissonanz kommen dem wohl sehr nahe was hier im Westen seit mindestens 10Jahren passiert. Auf der einen Seite wird einem stündlich die KlimaApokalypse gepredigt und auf der andren Seite kauft man sich dann doch das große Auto (von mir aus auch n Elektro Auto) , um damit seine popeligen 5km bequem zur Arbeit zu fahren. N Fahrrad und sportliche Aktivitäten am Morgen? NIEMALS!! Genauso im PC Bereich... 20% mehr Stromverbrauch für 15% mehr Leistung... GENAU DAS brauche ich um in 4k mit 200Hz minecraft zocken zu können.

Wir leben in einem Standard von dem andere Menschen auf die Welt nur träumen können und trotzdem soll man gefühlt gesteinigt werden, wenn man empfiehlt mal seine, ach so dringend benötigten, Standards wenigstens nich immer wachsen lassen "zu müssen" sondern vielleicht sogar auch mal bewusst zu reduzieren. Weniger ist manchmal mehr.

Wie sagte es Volker Pispers mal treffend:

"Der Löwe ist nich so blöde und erlegt sich gleich 3 Gazellen weil er vermeintlich dann ne Woche Ruhe hat, nur um dann festzustellen, dass er jetzt noch ne Arbeit suchen muss, damit er sich den Kühlschrank leisten kann, der die Gazellen auch verzehrfähig hält."

Antwort 5 Likes

Klicke zum Ausklappem
P
Pokerclock

Urgestein

970 Kommentare 951 Likes

Als jemand, der mitunter mit Grafikkarten bzw. entsprechend ausgestatteten Gaming- und Workstation-Systemen sein Geld verdient, frage ich mich schon, wo der Fakt von vorvorgestern abgeblieben ist, dass Hardware binnen kürzester Zeit an Wert verliert.

Im Grunde hat sich das seit der ersten Mining-Blase erledigt. Corona hat dem ganzen dann endgültig einen Schlussstrich verpasst und der KI-Hype hat die zu Tode geschändete Leiche gleich noch einmal zerhackt.

Insbesondere Grafikkarten waren noch nie so wertstabil. Das liegt weniger daran, dass ihre Leistung identisch geblieben ist. Das liegt an den stetig steigenden Preisen neuerer Modelle. Es ist, also würde man immer weiter statt einer 90er Karte eine 100er, 110er, 120er und so weiter auf den Markt bringen. Der Preis steigt immer höher analog zur Leistung, während die "alten" Grafikkarten einfach vom Markt verschwinden und preislich keine Alternative präsentiert wird. Und so kommt es, dass man für den Preis einer 4090 im Sommer 2023 heute im Februar 2025 nicht mal eine schlechtere RTX 5080 bekommt.

Ich sehe hier ganz klar die Nachfrage-Seite in der Pflicht, dem Treiben ein Ende zu setzen. Ich sehe das immer wieder, wie sehr die Leute Nvidia förmlich anhimmeln. Radeons werden nicht mal mit der Kneifzange angefasst, obwohl sie insbesondere jetzt preislich sehr attraktiv sind, in Ermangelung verfügbarer Alternativen. Aber wenn ich nun anfangen würde, Radeons massenweise zu kaufen und anzubieten für meine Kunden, wüsste ich jetzt schon, dass ich Minus dabei mache. Oder anders ausgedrückt, ich biete doch nichts an, was nicht nachgefragt ist.

Wenn ich mir jetzt so ansehe, wie die Leute für eine olle 5070 Ti > 1200 € ausgeben... Lack gesoffen haben die. Aber! Es zeigt auch, dass genügend Geld da zu sein scheint. Also spiele ich das Spiel halt auch mit und befriedige die Nachfrage mit angepassten Preisen.

Bei allen anderen, wo das Geld nicht so locker sitzt, rate ich auch schon lange dazu: Kauft euch eine Konsole zum Zocken.

Antwort 2 Likes

Klicke zum Ausklappem
TSH-Lightning

Mitglied

81 Kommentare 44 Likes

Habe auch schon mehrfach einfach das Bedürfnis gehabt mir einfach einen neuen Gaming-Rechner zu kaufen und das wäre auch finanziell gesehen, selbst bei den aktuellen Preisen, kein Problem für mich. Allerdings komme ich immer wieder zum Schluss, dass sich das nicht lohnt.

Ich nutze aktuell eine RTX 3060 über eGPU an meinen Thinkpad X13 Yoga mit schwächlicher i7 1165G7 CPU wenn ich am PC spiele. Selbst diese Kombination kann mit DLSS (Performance), Gsync + Co. Spiele in 4K auf meinen Monitor bringen. Man muss nur die Regler bedienen und merkt den Unterschied noch nicht mal (Bsp. Schattenauflösung). Außerdem ist diese Kombination sehr Energieeffizient und kann oft durch mein Balkonkraftwerk alleine versorgt werden. Das ist ein schönes Gefühl.

Die 3060 war damals leider auch sehr teuer durch die Umstände, aber seit der 40XXer Nvidia Generation steht bei mir der Eimer Popcorn bereit und ich schaue dem Treiben zu mit einem lachenden und einem weinenden Auge zu. Denn ich hätte schon gerne mal ein PS5 Laufwerk im Bundle mit einer PS5 Pro zu einem vernünftigen Preis...

Antwort Gefällt mir

arcDaniel

Urgestein

1,788 Kommentare 1,032 Likes

Der Artikel ist sehr schön geschrieben verdeutlicht aber auch warum ich wieder auf eine Konsole (PS5Pro) umgestiegen bin.

Neben der Stagnation der Leistung, den steigenden Preisen und nicht zuletzt der fragwürdigen PC-Portierungen habe ich die Lust am PC-Gaming verloren.

Ich nehme jetzt mal FF7Rebirth weil es ein sehr aktueller PC-Port ist. Um wirklich eine bessere Grafikpracht wie auf der PS5Pro zu haben braucht man schon eine 4080+ und dann hat man dennoch andere Probleme welche auf der PS5Pro nicht existieren.
Unter dieser Leistungsklasse bekommt man zwar schon eine bessere Grafik, jedoch muss man die Unterschiede mit der Lupe suchen und tragen nicht zu einem besseren Spielerlebnis bei und ich habe dennoch die Probleme der Portierung.

Geht die Entwicklung in dieser Richtung weiter, stell ich mir bei der PS6 die Frage gar nicht mehr: PC oder Konsole.

Es gibt noch einige Spiele, welche sich einfach besser am PC spielen, dafür reicht mein PC aber (bei aktueller Entwicklung) noch die nächsten 6Jahre.

Ich glaube es ist das erste mal, dass ich mir Gedanken über den Wechsel von Paste und Pad auf der GPU machen muss. Ich hatte nich nie solange eine GPU in Gebrauch wie jetzt meine 4080 und ein Upgrade scheint in sehr weiter Ferne.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

13,151 Kommentare 26,122 Likes

Betrachtet man die Gebrauchtpreise, dann sehe ich eigentlich keinen Wertverfall. Nur die Idiotie, für Neues mehr auszugeben, als angemessen scheint. Die 4090 kostet gebraucht oft mehr als damals neu.

Antwort 10 Likes

O
Omega

Mitglied

18 Kommentare 6 Likes

Falls sich das mit der 5090 wiederholen sollte könnte man ja direkt mal über eine GPU als Wertanlage nachdenken 🤭

Antwort Gefällt mir

P
Pokerclock

Urgestein

970 Kommentare 951 Likes

Nun, ich freue mich darüber natürlich sehr, denn so kann ich die Hardware möglichst lange anbieten und nutzen (lassen). Überhaupt entscheiden sich die wenigsten Kunden von mir direkt für die allerneuste Hardware, weil a) zu unsicher, berechtigterweise, wie man ja aktuell schön sehen kann und b) die Kunden teils auf älterer Hardware entwickeln und arbeiten. Und möglichst genau diese Hardware dann auch wieder haben möchten, wenn es dann um die Umsetzung/Präsentation ihrer Projekte geht. Ich setze mich z.B. heute hin für einen Mini-ITX-PC, in den eine 3090 (die mittlerweile auch massiv wieder steigt im Gebrauchtpreis) rein kommt. Denn der Kunde arbeitet selbst mit einer 3080 Ti.

Mit ist das alles vollkommen recht. Ich predige ständig, wann man am besten Hardware kauft und wann nicht. Und trotzdem kommen die Leute immer irgendwann zwischen November und Februar, kaufen direkt zu Release. Sollen sie gerne weiter tun. Ich kaufe dann mal weiter schön günstig im Hochsommer ein.

Antwort 2 Likes

P
Penman

Mitglied

57 Kommentare 52 Likes

Schöner Artikel. Ich predige ja auch schon länger, dass ich ziemlich unzufrieden bin. Aber das betrifft sowohl die Hardware als auch die Software. Wir blasen immer mehr Energie in GPUs, um viel Zeug zu berechnen, das wir nie bemerken oder gar nicht sichtbar ist. Einer der Gipfel war CS2 mit 300+ FPS zu spielen. Da gehen mindestens die Hälfte der Frames ungesehen ins Nichts und ein paar Reddit Kommentare verleiten mit zur Annahme, dass Leute das ernsthaft machen.
Es gibt inzwischen so viele schlechte Spiele, die aussehen, wie ein Spiel von 2010 mit einem HighRes Texture Update und diese laufen schlecht. Willkommen in der Shovelware Ecke. Kleinentwickler bringen ein Spiel auf den Markt und das vermutlich Mangels besserem Wissen mit völlig unterirdischer Performance. Only Up war ja so ein Mashup von Assets. Die Hardwareanforderungen sprechen Bände. Alleine 6 GB an Disk Space. Erinnert sich noch jemand an die Zeit in der wir ganze 3D Spiele auf eine CD bekomme haben? Gut, alles niedriger aufgelöst aber 16 GB RAM und eine 3060 als empfohlen für bitte was?

Da lobe ich mir wirklich, was Nintendo für eine Grafikpracht teilweise auf der Nintendo Switch raushaut. Mario Kart 8? Sieht grandios aus! Mario vs Rabbids? Ein wunderschöner Titel!
Und mal ganz klassisch ohne 3D: Super Mario World und Yoshi's Island. Zeitlos gute Grafik und flüssiges Gameplay berechnet auf 4 MHz und 128+64 KB RAM (ok, zugegeben, Yoshi's Island hatte den SuperFX Chip).

Die moderne Welt mit zugänglichen Computer hat sicherlich viel gutes gebracht, aber inzwischen produzieren wir auch eine Menge Mist mit KIs und fertigen Spiele Engines und kompensieren das mit Hardware, die auch ein Limit zu erreichen scheint. Schade.

Danke Igor. Toller Artikel!

Antwort 5 Likes

Klicke zum Ausklappem
ApolloX

Urgestein

1,959 Kommentare 1,295 Likes

Guter Kommentar, Igor. Ich sehe das auch so.

Für mich sind die Sünder auch - wie angesprochen, bei den Spieleherstellern zu finden. Wenn ich kein RT oder PT einbaue, wer brucht dann ne neue größere GPU? Monitorhersteller, die 300, 400, 500 Hz anbieten - wer braucht das? Bildauflösungen jenseits des Auflösungsvermögens des menschlichen Auges (liegt grob bei 5K) - wer braucht das? Haha, weil wirs können ... und Dumme finden, die es bezahlen.
Ich war vor sieben Jahren bei nem IT OEM, wo man für Mitte der 20er Jahre "mobiles 8K" erwartet hat. Alld er Blödsinn geht eben aber nur, wenn es Dumme gibt, die das bezahlen.

In dem Zusammenhang fand ich auch diesen Rant ganz lustig zu lesen - wenn der auch in nem ganz anderen Zusammenhang geschrieben war, aber er zeigt sehr emotional und unstrukturiert auch nen Blick auf die Verrücktheiten bzgl. der neuen NVidia Generation:

Antwort 5 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung