GPUs Pro Reviews Studio Workstations

A real surprise – Intel Arc Pro B50 in the test and big workstation duel under 450 euros

Rendering with Blender 3.6

Blender is a powerful open source software for 3D graphics, animation, rendering, post-production, interactive creation and playback. It allows users to create, edit and render 3D models and animations. In addition to these 3D features, Blender also includes tools for video editing, sculpting, UV mapping, texturing, rigging, particle systems, physics and fluid simulations, and game development. Because of its extensive feature set and because it is free, Blender is used by both amateurs and professionals throughout the media and entertainment industry. However, I must first write something about CUDA, OptiX and HIP in order to better understand the comparisons. CUDA, OptiX and HIP are technologies that were developed specifically for the field of parallel and high-performance computing (HPC). Each of these technologies has its own advantages, target applications and underlying technologies.

Blender 3.6 LTS uses different compute backends in the Cycles renderer to efficiently address CPU and GPU resources. Which interface is used depends on the hardware used and the driver stacks. Whether CUDA, OptiX, HIP or OneAPI is used plays a central role for the performance measurement in the benchmark, as the range of functions and degree of optimization differ. The choice of compute backend significantly determines the results in the Blender benchmark. NVIDIA benefits from CUDA as a stable basis and OptiX as a high-performance option, AMD from HIP as the modern successor to OpenCL, while Intel offers complete GPU support in Blender for the first time with OneAPI. Differences in the degree of optimization explain why NVIDIA often leads in GPU rendering, AMD is in the midfield and Intel is currently heavily dependent on software updates to exploit its potential.

CUDA is NVIDIA’s proprietary API for GPGPU computing and has been the standard for CUDA or shader-based workloads in Blender for many years. CUDA is offered for RTX and GTX GPUs in the Cycles renderer. CUDA is stable, supports practically all cards from the Kepler generation onwards and delivers predictable results. In practice, CUDA is the basic option when OptiX is not used or older cards are in use. OptiX is NVIDIA’s ray tracing API that directly targets RTX cards with ray tracing cores in Blender. OptiX enables accelerated path tracing through hardware RT cores, which brings enormous advantages in scenes with complex light and shadow calculations. Compared to CUDA, OptiX offers significant performance gains in raytracing-heavy scenes, which is why RTX cards usually benefit greatly in the Blender benchmark.

HIP is AMD’s API for GPGPU computing, which is available in Blender as a backend for cycles. HIP replaced OpenCL, which is no longer maintained in Blender. As of RDNA2 GPUs, HIP is supported, allowing Radeon cards to remain competitive in GPU rendering. In practice, the HIP implementation in Blender still lags somewhat behind the maturity of CUDA and OptiX, but progress is visible from version to version. For the benchmark, this means that AMD cards show good raw performance in the HIP backend, but often do not come close to NVIDIA’s optimizations.

OneAPI is Intel’s open standard for heterogeneous computing, which is also supported in Blender Cycles. Intel GPUs such as the Arc series use OneAPI as the primary backend. This allows the Xe cores to be used for path tracing. The performance is still heavily dependent on the driver and the implementation in Blender, but is developing rapidly. For the Intel Arc Pro B50 in the Blender 3.6 benchmark, OneAPI is the decisive factor that enables the cards to perform GPU rendering at all and ensures that Intel delivers competitive values in the SPECviewperf and Cycles tests.

The NVIDIA cards use both CUDA and OptiX, the AMD cards use HIP and Intel uses OneAPI.

Conclusion

I have deliberately limited myself to a single benchmark for rendering, as this shows the limits of the tested cards. All three models belong to the entry-level class of professional workstation GPUs, which means that the pure raw performance is not sufficient for complex rendering scenes. Even more serious, however, is the limited memory: both the NVIDIA RTX A1000 and the AMD Radeon Pro W7500 only have 8 GB of VRAM. This memory reaches its limits at the latest with more complex meshes or high-resolution textures, which either leads to greatly reduced performance, rendering errors or even crashes.

The selected benchmark illustrates this problem very well, as it depicts typical rendering scenarios with extensive geometries and textures. The results are therefore representative of the entire class of these cards: the performance is sufficient for simple tasks, but they quickly reach their technical limits in professional workflows with higher model and texture complexity.

 

Kommentar

Lade neue Kommentare

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Hm, bei den KI Benchmarks besser ROCm nutzen. Nutze ich unter Windows auch bei RDNA3 (primär über LM Studio für Text/Voice, aber auch Amuse für Bild/Video).
Nur die kleine 780M im Tablet wird nicht unterstützt, da gehen nur die Fallbacks.

Antwort 1 Like

O
Oberst

Veteran

391 Kommentare 179 Likes

Oder ZLuda, in SD war das bei mir noch mal merklich schneller als ROCm. Ist für den produktiven Einsatz aber eher nicht passend, da nicht offiziell.

Da würde ich mir aber sorgen machen, wenn das Kupfer nicht angelötet ist. Wenn mal die Werkzeuge etwas älter sind und mehr Toleranzen verursachen, wer garantiert dann noch, dass der CU-Block großflächig Kontakt zum Aluminium hat?
Klar, man kann das Werkzeug entsprechend früh wechseln, aber ob das dann immer so eingehalten wird, da habe ich so meine Zweifel.

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich nicht, denn es zählt, wo die Kühlung aufsitzt und die funktioniert bestens. Nichtkorrosives Löten ist in der Fläche eher meh. :)

Antwort 1 Like

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Testsamples wurde von Intel gestellt? Habe jetzt nichts dazu gelesen bzw. es wohl schlicht überlesen. Gab es wenn ja gleich die RTX A1000 dazu?

Es fällt auf, dass überall der alte Nvidia-Schinken in Form der RTX A1000 gegenübergestellt wird. Preislich mag das eine Kategorie sein, aber technisch (und auch aus Kundensicht) wäre die A2000 Ada die Karte der Wahl. Mit so einer 8 GB Workstation-Karte holt man ja in der KI-Welt überhaupt nichts mehr raus. Daher hätte ich die A2000 Ada doch gerne gesehen.

Mal ganz davon abgesehen, dass das Namensschema von Nvidia absoluter Müll ist...

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Und warum hat keiner die W7500 mit drin? Unter uns: die A2000 mit 6GB ist eine Lachnummer... Ich finde es nach Preis fairer

Vergleiche mal W7500 und A2000 und dann die W7500 mit der B50. Die A2000 und die A1000 nehmen sich nicht viel :)

View image at the forums

View image at the forums

Meine 12GB Version ist defekt und die 6GB lief nicht in UHD.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

A2000 Ada, nicht A2000 ohne Ada. Da haben wir wieder das blöde Namensschema...

Kostet schlanke 500 € netto...

Also von Intel gesponsert, denke ich mal? Hoffentlich nur die eigene Karte. 😅

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Das ist nicht mal die Hälfte... 😉
Die meisten Pascal, Turing und Ampere liegen im Lager.

View image at the forums

Antwort 4 Likes

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die B50 ist von Intel, richtig. Sonst hätte man ja nichts zum Testen gehabt.

Antwort 2 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

View image at the forums

Immer diese übervollen Regale...

Ich wundere mich halt, dass dieses Mal kein Hinweis am Ende des Artikels war der auf die Testsamples, Testbedingungen etc. hinweist.

Daher frage ich mal ganz offensiv. Die A1000 kam auch von Intel? Diese A1000 Inflation überall ist auffällig.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich habe sie alle 😆 Aber es wurde angeboten.

Vergessen. Eigentlich bin ich krankgeschrieben. NVIDIA von NVIDIA über PNY, AMD von AMD und Intel von Intel.

Antwort 5 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Ich nehme das dann mal als ein "war nicht notwendig". :ROFLMAO:

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich fand es eher lustig, dass Intel keine AMD angeboten hat

Antwort 3 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Danke dir für die Info und die Offenheit.

Ich hatte es schon vermutet, dass die Testauswahl zum Teil bezuschusst wurde bei anderen Testern.

Nutzt leider niemanden. Die olle A1000 verkauft keiner, der seinen Kunden auch wirklich helfen möchte. Zumindest ist das mein Anspruch gegenüber meinen Kunden. Sieht nur gut aus für Intel in den Benchmarks. Und wenn man dahinter guckt, hat Intel selbst seine Finger im Spiel bei der Auswahl und man kann trotz der vielen Arbeit nur bedingt was für sich herausziehen an Erkenntnis.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die A2000 Ada ist aber auch nicht wirklich schneller. 🤦 Das ist eine 6GB Karte und die 12GB im Clamshell scheitern meist am dünnen Interface

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Die A2000 Ada hat 16 GB und gibt es auch nur so. Du meinst die A2000 OHNE Ada aka eine Generation älter.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Egal ob man jetzt Intel aus Prinzip nicht mag oder nicht, gerade bei halbhohen low-power dGPUs in Einsteigerbereich für produktiven Einsatz gibt's sonst wenig Auswahl, v.a. wenn man > 8 GB VRAM braucht. Frischer Wind ist hier IMHO sehr willkommen. Mit der Ausnahme bei Solidworks (soll ja laut @Igor Wallossek noch was kommen) scheint sich das Treiber Team um Tom Peterson hier wirklich reingekniet zu haben.

Und das macht mir Hoffnung, daß Intel vielleicht doch bei dGPUs weitermachen will. Mit Ausnahme der 9060/9070 AMD Karten für Gamer ist's bei dGPUs doch fast eine grüne Monokultur (Siehe die Verkaufszahlen!) Es ist doch auch bezeichnend, daß Nvidia nach wie vor Kunden für ihre Ampere A1000 findet. Wer hier Ada und mehr als 8GB VRAM will, muß ablöhnen, und nicht zu knapp!
Da Jensen Huang es sehr persönlich nimmt, wenn jemand Nvidia irgendwo Marktanteile streitig macht, könnte die B50 auch der Tritt in den grünen Hintern sein, der Nvidia zu einer kleinen low-power Profi Karte mit 16 GB VRAM auf Blackwell Basis motiviert.

Jetzt bin ich auch gespannt, wo die B50 vom Preis her landet. Unter bzw um ~ € 400 wär wirklich interessant!

Antwort 1 Like

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Wieviel kostet eine A2000 Ada (16GB) denn im Moment? Der Preis spielt doch auch eine Rolle, je nach Kunde und Einsatz.
@Igor Wallossek Frage, um auf @Pokerclocks Einwand einzugehen: Hatte Intel hier bestimmt, welche Nvidia und AMD Karten mit im Vergleich getestet wurden?
Kann ich mir zwar nicht vorstellen, aber eine Klarstellung wär wichtig.

Antwort Gefällt mir

konkretor

Veteran

448 Kommentare 494 Likes

Denke die wo im Test sind, sind schon die Konkurrenz von Intel. Ähnliches Preissegment und Leistung.
Da hat Intel wirklich geliefert. Die Treiber Abteilung, haut ja gefühlt auch alle 2 Wochen was raus. So schlimm sind die Treiber nicht mehr wie am Anfang. Wären sie gleich so gewesen, wäre die Akzeptanz viel besser gewesen. Jetzt ist es nun mal wie es ist

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Nein. Die A1000 war ein sinnvoller Vorschlag, aber kein Dogma und die AMD ist auf meinem Mist gewachsen. Ich hätt auch eine RTX 5090 nehmen können 😂

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung