GPUs Pro Reviews Studio Workstations

Intel Arc Pro B60 Workstation Graphics Card Review with technical Analysis and Teardown – Battle of the small Workhorses under 1200 Euros

Rendering with Blender 3.6

Blender is a comprehensive open source software for 3D graphics, animation, rendering, post-production and interactive applications. It offers everything you need to create, edit and render complex 3D scenes. In addition to the classic 3D functions, Blender also includes tools for video editing, sculpting, UV mapping, texturing, rigging, particle simulations, physics and fluid simulations as well as basic game engine functionalities. Thanks to this enormous range of functions and its free availability, Blender is used by beginners, ambitious artists and professional studios alike throughout the media and design industry.

Before the benchmark results can be properly classified, it is worth taking a brief look at the underlying computing frameworks CUDA, OptiX, HIP and OneAPI. These technologies were developed for highly parallel calculations (High Performance Computing, HPC) and form the basis for GPU acceleration in the Cycles renderer. Blender 3.6 LTS uses different compute backends depending on the hardware used in order to optimally distribute the computing load between the CPU and GPU. Which backend is used depends on the graphics card and the installed drivers – and this has a significant impact on performance in the benchmark.

NVIDIA relies on CUDA as a proven basis and OptiX as a ray tracing extension. AMD uses HIP as the modern successor to OpenCL, while Intel offers complete GPU support in Blender for the first time with OneAPI. The respective degree of optimization of these interfaces is decisive for how efficiently the hardware works in the Cycles renderer. This is why NVIDIA usually achieves the highest frame rates in GPU rendering, AMD is in the solid midfield, and Intel is currently still heavily dependent on software updates to fully exploit the available potential.

CUDA is NVIDIA’s proprietary interface for GPGPU computing and has been the standard for general GPU calculations in Blender for many years. It is supported on almost all NVIDIA cards from the Kepler generation onwards and delivers stable, reproducible results. In Cycles, CUDA serves as a proven basis, especially when OptiX cannot be used or older GPUs are in use. OptiX, on the other hand, is NVIDIA’s specialized ray tracing API that accesses RTX GPUs and enables significantly accelerated path tracing thanks to its RT cores. OptiX offers massive performance advantages over CUDA, especially in scenes with a lot of light and shadow calculations.

AMD’s HIP (Heterogeneous Compute Interface for Portability) replaces the outdated OpenCL and forms the current backend for Radeon GPUs from the RDNA2 generation onwards. Although the implementation is not quite as mature as NVIDIA’s solutions, it shows noticeable progress with every Blender version. In the benchmark, this means that Radeon cards offer solid raw performance in HIP mode, but often lag somewhat behind the CUDA and OptiX results in practice.

Intel uses OneAPI, an open, cross-platform architecture for heterogeneous computing. In Blender, it serves as the primary backend for GPUs from the Arc series and allows the Xe cores to be used for path tracing tasks. Performance is currently still heavily dependent on driver maturity and integration in Blender, but improves with each version. For the Arc Pro B50 and B60, OneAPI is crucial to enable GPU-accelerated rendering at all – and at the same time ensures that Intel’s cards become increasingly competitive in Blender benchmarks.

In the Cycles renderer of Blender 3.6, NVIDIA uses CUDA and OptiX, AMD works with HIP, and Intel relies on OneAPI. These different compute backends explain the sometimes significant differences in performance between the workstation GPUs tested.

Conclusion

I have deliberately limited myself to a single benchmark for rendering, as this shows the limits of the tested cards. All three models belong to the entry-level class of professional workstation GPUs, which means that the pure raw performance is not sufficient for complex rendering scenes. Even more serious, however, is the limited memory: both the NVIDIA RTX A1000 and the AMD Radeon Pro W7500 only have 8 GB of VRAM. This memory reaches its limits at the latest with more complex meshes or high-resolution textures, which either leads to greatly reduced performance, rendering errors or even crashes.

The selected benchmark illustrates this problem very well, as it depicts typical rendering scenarios with extensive geometries and textures. The results are therefore representative of the entire class of these cards: the performance is sufficient for simple tasks, but they quickly reach their technical limits in professional workflows with higher model and texture complexity.

 

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

@Igor Wallossek : Danke, ein guter und detaillierter Test und Vergleich.
Was aus meiner Sicht auch wichtig ist,: Intels Grafik Abteilung hat sich bei den Treibern scheinbar sehr reingekniet, und das zeigt Früchte. Bleibt die Hoffnung, das Xe3 dann auch in dGPUs Einzug findet.
Und abschließend die Frage: irgendwelche Neuigkeiten ob und wann Battlematrix jetzt erscheinen soll?

Antwort 2 Likes

R
Robofighter

Veteran

153 Kommentare 89 Likes

Gar nicht so schlecht was Intel da abliefert. Igors gefundene Mängel noch abstellen und die Software optimieren dann ist es eine gute Alternative. Ich hatte mir ja eine Intel B580 gekauft weil meine RTX 4090 zur RMA ( Hotspot Temperatur zu hoch) musste und war damit super zufrieden. Taktfreudig( 3150 Mhz), kühl und super verarbeitet. Kann man diese Workstation Karte auch übertakten und wie hoch wäre der Leistungsgewinn?
Ich denke Intel ist auf dem richtigen Weg. Also 👍

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

OC ist nicht. Ist ja Workstation. Allerdings hat die Power rund 55 Watt headroom.

Antwort 1 Like

konkretor

Veteran

448 Kommentare 494 Likes

Das mit der PCIE Verlängerung muss echt nicht sein. Da sollte dringend nachgearbeitet werden.

Mal sehen bis die Dual Karte endlich kommt

Antwort 2 Likes

FfFCMAD

Urgestein

1,158 Kommentare 486 Likes

Was wohl auch noch in Arbeit ist ist der SR-IOV Support. Sodass man recht günstig virtuelle Desktops flüssig bedienen kann. Intel hat da echt was in der Tasche. Ist eine gute Idee das untere Segment in Bereich Desktop und Workstation anzugreifen. Das haben AMD und Nvidia nämlich stark vernachlässigt.

In meinem Wohnzimmer habe ich mir nun die B580 in den Media-PC rein gesetzt. Die ist zwar langsamer als die 3070TI, die vorher drin steckte. Sie spielt aber 8K 60Hz Videos mit HDR ab, wo die 3070TI schon bei 4K 60Hz ohne HDR jede Sekunde Bilder dropte bis zum Umfallen. Auch die 2D Leistung in Windows ist deutlich besser. Ich überlege mir schon die B770 oder B780 zu holen, wenn sie dann erscheint. (Dann gebe ich die B580 für nen Kumpel ab für seinen Media Center PC) Die Treiber sind auf jeden Fall deutlich ausgereifter in zwischen. Vor ein paar Wochen wurde wohl auch das Problem behoben, das langsame CPUs durch Overhead wesentlich weniger FPS mit den Intel Karten lieferten als die Konkurrenz.

Antwort 3 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Danke für den ausführlichen Test! @Igor Wallossek

Wann immer Kunden anfragen, habe ich jetzt einen Link parat. 😂

Realistisch betrachtet, wird es wohl mindestens bis nächstes Jahr dauern, bis die B60-Karten der breiten Masse verfügbar gemacht werden. Es war eine absolute Tortur, an eine B60 heranzukommen. Von Distri's bis hin zu den Boardpartnern. Alle haben abgewunken und wollten (konnten durchaus) nicht an mich etwas verkaufen. Asrock ghosted mich bis heute. Die wollten ganz genau wissen, wofür die Karten benutzt werden sollen. Ja und dann taucht die plötzlich im Geizhals auf...

Ich finde das äußerst lächerlich, was Intel da abzieht. Interessierte professionelle Anwender werden abgeblockt, obwohl denen ganz klar ist, dass sie da ein Produkt mit Ecken und Kanten erhalten.

So wird das nichts Intel. Wenn man Geld machen möchte, muss man auch Kunden finden.

Antwort 4 Likes

HerrRossi

Urgestein

7,065 Kommentare 2,400 Likes

Interessanter Test, vielen Dank! Bei mir wird die Grafik für Stable Diffusion nicht angezeigt, liegt das Problem bei mir?

Für AI sind das für mich interessante Karten, könntest du dort evtl. noch eine Consumer-Grafikkarte bei den AI-Tests mit aufnehmen @Igor Wallossek ? Das würde mir (und vllt. auch anderen) den Leistungsvergleich vereinfachen.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,531 Kommentare 655 Likes

Wenn wir schon bei Kabeln sind; haben da nicht die beiden schwarzen rechts oben auch Macken?

Spoilerinhalt versteckt.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Masseisolierung, da passiert erst mal nichts. Sieht aber unschön aus :)

Antwort Gefällt mir

Kaito Kariheddo

Mitglied

18 Kommentare 4 Likes

Schönes Ding, trotz abenteuerlicher Stromzuführung

Antwort Gefällt mir

Alkbert

Urgestein

1,311 Kommentare 1,087 Likes

Ich hoffe da kommt von Intel in allen GPU Kartenbereichen noch mehr. Zum einen, weil ich Intel ungerne den Bach runtergehen sehen würde, sonst haben wir ein AMD Monopol (wie seinerzeit das unselige Intel Monopol, dass uns mit 4 Haswell Kernen abgespeist hat, nach dem Motto: Das reicht für die Dödel schon) und zum Anderen, weil man sich heute lebensnotwendig breiter aufstellen muss. Dann klappt´s auch mit den Nachbarn.
Ich habe zwar nur eine B580 im Wohnzimmer / Beamer PC laufen (5800x Basis), aber die werkelt zumindest geräucharm vor sich hin - und damit meine ich nicht nur die Lautstärke.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Zur Bauqualität: uU eine Konsequenz daraus, daß Intel ihren Boardpartnern ziemlich viel Spielraum lässt. Die Karte, die @Igor Wallossek zum Testen hatte, war ja von Sparkle. Eine "FE" oder "LE" der B60 direkt von Intel gibt's, soweit ich es weiß, nicht. Warum sie das anders als bei der B580 gemacht haben? Spekulation meinerseits ist, daß Intel es so leichter hatte, Boardpartner zu gewinnen. Und auch hier den Kontrast zu Nvidia sucht, die ja bekanntlich ihren Boardpartnern nur wenig bis keinen Spielraum lassen.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die B50 hat ja das typische Standarddesign in Blau. Die Platine sieht auch komplett anders aus. Das hier ist eher so ein Boardpartner-Ding, das ich auch nicht mag.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Aussage dazu seitens GN war einmal sinngemäß laut Intel: Ihr könnt tun und lassen, was ihr wollt, Hauptsache ihr (die Boardpartner) übernehmt den Support.

Ich persönlich finde den Ansatz gut, weil es zu Vielfalt und Innovation führen kann. Aktuell wird aber nur geblockt und die Karten sind da aber nur an handverlesenes Publikum...

Antwort 1 Like

M
McFly_76

Veteran

428 Kommentare 161 Likes

Intel bewirbt auch Multi-GPU-LLM mit bis zu 4 Grafikkarten und da frage ich mich wie es wohl funktionieren würde mit bis zu 4x Arc B580 im PC wenn das Mainboard ( PCIe Slots ) dafür ausgelegt ist. :coffee:
P.S.
Was mir beim Begutachten des Intel Grafiktreibers ( B580 ) aufgefallen ist dass der "Modus mit geringer Latenz" eher stottern in manchen Spielen verursacht und dass die Low-FPS dabei um bis zu ~15 % niedriger droppen können.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Ich hatte das mal mit drei A310 getestet. Treiberseitig wird da alles erkannt. Auch rBar ist kein Problem. Am Ende hatte ich da 12 Full-HD-Displays dran. Aber der Decoder lief nur über eine Karte und man hatte keine Möglichkeiten, die 3D-Last zu switchen. Das gab auch Windows in seinen Einstellungen nicht her. Schlicht keine Funktion.

Also ohne spezielle Softwareunterstützung, die das ermöglicht, wird das nichts. Außer natürlich, man möchte sich einen Display-Cluster bauen.

Antwort 2 Likes

hansmuff

Veteran

116 Kommentare 67 Likes

@Igor Wallossek In Maya 2025 Shaded stimmt was mit den Balken nicht.

"In der Disziplin Shaded SSAO (Screen Space Ambient Occlusion), die Umgebungsverdeckung simuliert, zeigt die B60 leichte Schwächen. Mit 0,90 Punkten liegt sie etwas hinter AMD und NVIDIA" läßt sich nicht von der Grafik ablesen.

Antwort Gefällt mir

unspektakulaer

Mitglied

17 Kommentare 3 Likes

Danke für den Artikel. Hätte jetzt, wie in der Extrabox im Artikel nahegelegt, auch gerne Raff seinen Artikel gelesen. Aber den gibt es wohl (noch?) nicht? War selten so enttäuscht :(

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Kommt in ca. 2 Wochen

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung