Latest news

CPU revolution? Intel patent for software-defined “super cores”

Intel has published a patent that describes a completely new approach to processor architecture. The idea is called “Software defined supercores” (SDC) and was filed in 2023 before being made public in July 2025. Behind this concept is the attempt to combine the advantages of classic multicore processors with the urgently needed high single-core performance.

The development of processors has followed a clear path over the last two decades. While overall performance has steadily increased by increasing the number of cores, single-core performance has remained a bottleneck, especially in applications that are difficult or impossible to parallelize. Games, certain scientific programs or older software still benefit greatly from a particularly powerful single core. To increase this performance, manufacturers have so far mainly relied on two means: ever higher clock rates or more complex, large-scale switching mechanisms. However, both of these methods cause problems, as energy consumption and costs increase exponentially.

Intel is taking a different approach with its “super cores”. Instead of expanding a single core further and further, several cores are to be combined by software to form a logical large core. This super core processes the instructions of a single thread, so externally it acts like a normal CPU core. Internally, however, two or more computing units share the work. This should noticeably increase single-core performance without requiring a massive amount of energy or space.

The concept is reminiscent of the move from single-core to multi-core processors, only in the opposite direction: instead of distributing tasks across several cores, these combine their strengths for a single task. This approach is particularly interesting because it could be flexibly controlled by software. Depending on the load profile, a processor could decide whether to use its cores individually or in the form of super cores. This would allow different application scenarios to be covered efficiently, from highly parallel workloads to tasks that require high single-thread performance.

Source: intel

It is still unclear whether and when Intel will implement this concept in market-ready processors. Patents are primarily a safeguard for ideas and not a guarantee for products. However, the publication shows that Intel is actively looking for solutions to overcome the limitations of classic CPU architectures.

Conclusion

The idea of software-defined super cores could represent a turning point in the development of processors. If Intel successfully implements the concept, it could close the gap between high multicore performance and strong single-core performance. This would open up completely new possibilities for developers and users. At the same time, it remains to be seen whether the implementation is technically and economically feasible. If Intel is successful, this would be a paradigm shift of similar significance to the introduction of multicore CPUs around twenty years ago.

Source: pcgameshardware.de

 

Kommentar

Lade neue Kommentare

c
cunhell

Urgestein

800 Kommentare 857 Likes

Mit so einem ähnlichen Konstrukt ist AMD beim Bulldozer sauber auf die Schnautze gefallen,

Cunhell

Antwort Gefällt mir

Ifalna

Urgestein

748 Kommentare 676 Likes

Mir erschließt sich der Sinn nicht.
Wenn ein Task nicht parallelisierbar ist, dann bringt auch ein "Super-Core" nichts, denn der muss intern den Task eben auch teilen um die einzelnen "Basic Cores" zeitgleich zu füttern.

Antwort 1 Like

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Nein, die haben schlicht auf Multicore-Anwendungen gesetzt, die es damals kaum im Consumer-Bereich gab (Muticore waren die locker auf dem Niveau der teureren Intels). Also genau das Gegenteil.
Auch brauchten die Bulldozer keinen speziellen Compiler um zu funktionieren, wie es bei diesem Intel Patent der Fall ist.

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Daher muss man laut dem Patent anderen Code nutzen, der diese Soft-Cores explizit unterstützt. Ob das die Entwickler selbst tun müssen oder ob ein spezieller Compiler-Optimizer da hilft (der den Code dann extra langsam für die Konkurrenz macht) ist offen.

Antwort Gefällt mir

c
cunhell

Urgestein

800 Kommentare 857 Likes

Haben aber nicht alle Funktionen doppelt vorgehalten und die FPU musste bei bedarf aufgeteilt werden. Man wollte da auch Die-Space sparen und vermutlich Energie. Was bei Bulldozer ja eher nicht so geklappt hatte.

Bei Intels Ansatz sehe ich auch Probleme bei der Zuteilung der Threads. Hier fallen plötzlich "Cores" weg, wenn das System der Meinung ist, es bräuchte mehrere große Cores. Bei vielen parallelen Threads muss man dann einige seriell statt parallel abarbeiten. Ob das so toll klappt?

Cunhell

Antwort Gefällt mir

Ifalna

Urgestein

748 Kommentare 676 Likes

Da beißt sich die Katze in den Schwanz denn was nicht parallelisierbar ist, ist eben nicht parallelisierbar, egal ob soft cores oder HW cores.
Wenns parallelisierbar wäre, hätte der DEV das doch schon längst für mehrere Kerne geschrieben.

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Bei Intel hat aber nicht das System die alleinige Zuordnungshoheit, sondern die Applikation, da die Soft-Cores explizit im Code ermöglicht werden müssen laut Patent. Wie das im laufenden Betrieb mit vielen anderen Applikationen unter Windows real läuft würde ich nur ungern austesten (oder die Cores werden frei gehalten per Bios-Einstellung durch Bündelung zum Soft-Core).

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Naja, man könnte wenigstens von mehr Cache profitieren. Momentan laufen CPU-lastige Spiele eher schneller auf den Intels wenn man die E-Cores ausschaltet. Einerseits natürlich dass sich keine wichtigen Threads auf einen E-Core verirren, aber auch andererseits das den P-Cores mehr Cache zur Verfügung steht (wir kennen das ja auch bei den 3D CPUS von AMD). Diese Soft-Cores bündeln also zumindest Ressourcen, die dann einem Thread zur Verfügung stehen, bzw. mehreren bei entsprechender Programmierung des Programms (hier kommt es primär auf die verwendeten Bibliotheken an, ob die das unterstützen - DEVs würde das höchstens bei bekannter Hardware wie Exklusivtiteln bei Konsolen manuell anschauen).

Antwort Gefällt mir

8j0ern

Urgestein

4,239 Kommentare 1,375 Likes

Auf dem Papier, sahen ähnlich Ansätze in der Vergangenheit auch sehr gut aus.

Leider gab es nie echte Test bzw. Ergebnisse, von daher hoffen wir mal Intel hat da nicht Umsonst Investiert...

Antwort Gefällt mir

big-maec

Urgestein

1,123 Kommentare 647 Likes

Jetzt fehlt nur noch eine intelligente KI.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Allerdings ist es trotzdem noch ein Unterschied, ob man jetzt vollständig parallelisieren will durch physisches (Multikern) oder logisches Multithreading (SMT) oder ob ein einzelner Thread durch zB deutlich mehr L1 und L2 Kapazität, breitere (und tiefere) out-of-order Bearbeitung, Reordering, und Pipelining usw beschleunigt wird. Wenn letzteres durch das Vereinigen der Ressourcen von mehreren kleinen auf einen sehr großen logischen Kern erreicht werden kann, könnte das schon klappen.
Im kleinen Maßstab und auch nur unter speziellen Bedingungen geht das mit L2 Cache schon heute in Intels E-Kern Clustern (zB 4 Gracemonts oder Skymonts). Die 4 E Kerne im Cluster teilen sich ja den L2 (2 MB in Alder und Meteor Lake, 4 MB in Raptor Lake und Arrow Lake); allerdings kann - theoretisch - ein einzelner E Kern alle 2 oder 4 MB L2 nutzen, allerdings nur wenn die 3 anderen Kerne im Cluster "gerade Däumchen drehen".

Und, wenn Intel das tatsächlich auf die Beine stellen kann, würde die manchmal kolportierte hohe maximale Anzahl der Kerne in Nova Lake ja beinahe Sinn machen - aus vielen kleineren Kernen mach per Software/Firmware ein paar richtig große wenn Bedarf besteht.

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Klar, so wie man mit genügend Fahrrädern mit 200 über die Autobahn brettern kann ...

Antwort Gefällt mir

ArthurUnaBrau

Veteran

393 Kommentare 201 Likes

Genau, und wenn 9 Frauen sich ein Kind teilen, ist es schon in einem Monat da :-)

On Topic: Abwarten. Intel wird sicherlich schlaue Leute daran arbeiten lassen. Ich befürchte nur, dass sie wieder so einen Scheiß machen, der dann nur auf Intel-Systemen funktioniert, also heutzutage irrelevant wird. Wenn sie schlau sind, machen sie das alles Open Source und unabhängig vom CPU-Hersteller (ob es auch unabhängig von der Architektur geht, keine Ahnung).

Antwort 1 Like

8j0ern

Urgestein

4,239 Kommentare 1,375 Likes

Oder eben Zeitversetz, dann gibt es jeden Monat ein Kind. ;)

Antwort Gefällt mir

K
Korny

Neuling

3 Kommentare 1 Likes

Wenn Intel dass so umgesetzt bekommt, dass tatsächlich ältere Software dadurch beschleunigt wird, ohne speziell dafüŕ kompiliert werden zu müssen, dann wäre das insbesondere für Simulationen super spannend.

Antwort Gefällt mir

8j0ern

Urgestein

4,239 Kommentare 1,375 Likes

Für Simulationen empfehle ich persönlich; Jim Keller

Ups, der arbeitet nicht mehr für die CPU Hersteller.

Shit, happens...

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Wieso?
Statt 96 dicke Kerne wie bei AMD hat man dann ein Patchwork von verschieden schnellen 56 Kernen welche auch nur halbwegs bei speziell geschriebenen Progammen performen (laut dem Patent) - wo soll das besser sein?

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Karsten Rabeneck-Ketme

Werbung

Werbung