Artificial Intelligence Latest news

OpenAI relies on Amazon’s Trainium: The quiet end of NVIDIA’s monopoly?

NVIDIA’s dominance in the AI market is beginning to show serious cracks. After years of undisputed market leadership in training hardware for neural networks, the competition is slowly but dangerously tightening. According to a report by The Information, Amazon is planning to invest up to 10 billion US dollars in OpenAI on the condition that OpenAI uses Amazon’s own Trainium ASICs. At first, this sounds like a deal between two giants, but in reality it is a geopolitical proxy war for the future of the AI data center.

Amazon’s Trainium: from niche product to strategic weapon

Amazon’s Trainium chips, now in their fourth generation (Trainium4), were originally developed for AWS-internal workloads. The move to make them available externally on a large scale – and then to OpenAI of all places – is more than just an expansion: it is an announcement. While Google has been pursuing a parallel strategy with its TPUs for years, Amazon has so far been more cautious. However, the latest rack-scale integration of Trainium3 shows that Amazon no longer wants to be just a cloud provider, but an infrastructure powerhouse. With 3 nm manufacturing, 40% higher energy efficiency and twice the computing power of its predecessor, the new Trainium ASICs are clearly aimed at NVIDIA’s Hopper and Blackwell series. From a technical perspective, this is a frontal attack on the GPU monopoly; from a business perspective, it is an attempt to emancipate itself from the costly CUDA ecosystem. Every GPU that can be replaced saves billions in operating costs.

OpenAI between capital requirements and technological pragmatism

OpenAI is in a precarious position: going public is expensive and growth eats up capital. An external financial injection of 10 billion US dollars provides breathing space, but it ties the company down technologically. Amazon’s condition, the use of Trainium, is clever. OpenAI receives the necessary infrastructure and liquidity, while Amazon finally gains a flagship customer for its chips. This also shifts the balance of power in the background. Until now, NVIDIA has benefited from an alliance with Microsoft and OpenAI, which pumped billions into GPU-based superclusters. If OpenAI focuses on Trainium in parallel in future, this will significantly weaken NVIDIA’s strategic position. Dependence on the green giant would decrease, and this is exactly what Amazon (and indirectly Google) are aiming for in the long term: Deconstruction of GPU supremacy.

The silent front of the chip war

The race for AI chips is no longer a classic competition, but a proxy war between cloud giants. Amazon and Google are focusing on vertical integration (own chips, own clouds, own software), while NVIDIA is countering with software lock-in (CUDA, TensorRT, DGX ecosystem). OpenAI acts as a coveted token here: whoever supplies OpenAI with hardware indirectly dictates the standards of tomorrow’s AI infrastructure. The fact that OpenAI is now negotiating in parallel with Microsoft, NVIDIA, AMD, Broadcom, Amazon and others shows how much it wants to break free from the grip of a single supply chain. A step that is only logical in view of geopolitical tensions (e.g. around Taiwan) and growing regulatory risks.

Conclusion: a strategic reorganization

The potential use of Amazon’s Trainium in OpenAI would not just be “another deal”, but a tectonic plate shift in the AI industry. NVIDIA remains the leader in the short term, but the industry’s structural dependency is beginning to crumble. Amazon’s billion-dollar offensive is the first credible signal of a multipolar future in which AI no longer rests on a single GPU giant, but on multiple ASIC pillars.

If OpenAI really does deploy these chips on a large scale, it will not only be to save costs, but to demonstrate political and technological independence. NVIDIA may still hold the sceptre, but Amazon has long since begun to chip away at its throne.

Source Key message Link
The Information Amazon plans to invest around 10 billion US dollars in OpenAI, coupled with the use of Trainium ASICs https://www.theinformation.com/articles/amazon-to-invest-10-billion-in-openai-in-trainium-chip-deal
Wccftech Report on Amazon’s negotiations with OpenAI for external use of Trainium ASICs https://wccftech.com/nvidia-ai-chips-might-have-a-new-challenger-onboard-and-no-its-not-google-openai-plans-to-deploy-amazons-trainium-asic-in-a-mega-deal
Amazon AWS Blog Technical details on Trainium3 and announcement of the rack-scale architecture https://aws.amazon.com/blogs/machine-learning/introducing-aws-trainium3-accelerator-for-ai-training
NVIDIA Investor Relations Statement from the CFO on the irreplaceability of the NVIDIA AI stack https://investor.nvidia.com/news-releases/news-release-details/nvidia-cfo-on-asic-competition-ai-stack-2026

Kommentar

Lade neue Kommentare

hansmuff

Veteran

116 Kommentare 67 Likes

"Jede GPU, die ersetzt werden kann, spart Milliarden an Betriebskosten."

Irgendwie kann ich mir das nicht vorstellen. Kann jemand erklären?

Antwort Gefällt mir

LencoX2

Mitglied

12 Kommentare 6 Likes

Es geht offensichtlich darum, einen extrem teueren GPU-Typ von Nvidia, Kosten ca 30.000 Euro je Karte, durch einen eigenen GPU-Typ von Amazon zu ersetzen, mutmassliche Kosten ca 2.000 € je Karte.
AI-Rechenzentren haben oft tausende und auch zehntausende von Karten. Beispiel mit 10.000 Karten:
Kosten NVidia Chips: 300 Millionen
Kosten Amazon Chips: 20 Millionen
Es können also schnell Milliarden zusammen kommen.

Antwort Gefällt mir

Zanza

Mitglied

84 Kommentare 18 Likes

Ist die Karte von Amazon aber genauso gut wie die von Nvidia? Du kannst zur Arbeit mit einem Porsche fahren und mit einem Dacia.

Antwort Gefällt mir

N
Nemesis

Mitglied

51 Kommentare 6 Likes

Weisnich... schauen wir mal in die Statistiken... also so für den professionellen Einsatz würde ich auch CachyOS Linüx aber... wie sieht denn das aus da draußen?

Naja, da haben wir erstmal 3.9 Milliarden Androids was es zum meistgenutzten OS der Welt macht. Und obwohl viel Ki Nutzen ist es doch, allem Vertriebsblabla zum trotz, abgesehen von einigen SEHR minimalistische Bildbearbeitungsmodellen auf Geräten mit ADRENO (RADEON) Chips an sich KEINE Ki Plattform. Aber es handelt sich um die größte Konzentration von potentiellen Rechenzentrumskunden.

Dann wären da als nächstes ungefähr 1.4 Milliarden IOS Geräte für die in etwa das selbe gilt, mal abgesehen davon das es noch einen Ticken schwerer ist darauf lokal Ki laufen zu lassen (ist halt kein Strawberry).

Nochmal 1.4 Milliarden Windowsgeräte (ja, das meiste sind 10er). Je nach Ausstattung laufen hier bereits kleinere Modelle vernünftig lokal. 70 Milliarden Parameter Modell in quantifizierter Form. Das ist zwar schon ein Stück weg von den großen 300-600 Milliarden Parameter Modellen und variiert stark nach Ausstattung aber hier dürfte sich das quantitativ größte Kundenpotential für RZ unabhängige Ki Anwendungen verbergen. Hallo Microsoft.

Dann weit abgeschlagen nochmal 100 Millionen Mac-OS Geräte und 33 Millionen Linux Geräte (wir zählen Android, Linux Basis, weil Mobile hier nicht mit). Allerdings verbergen sich hinter diesen Linuxgeräten ein Großteil der hoch performanten Rechenzentren Server die all die Infrastruktur bereitstellen, der Marktanteil dieser Systeme an Ki Hardware hat beispielsweise den Hersteller Crucial dazu gebracht haben aus dem, mit immerhin 20% Marktanteil, Endkundengeschäft auszusteigen.

Chips bauen können Sie alle, Nvidia, AMD und Amazon und so weiter. Aber hier geht es darum diese auch ZUGÄNGLICH zu machen. Und das ist der Unterschied bei dem sich Nvidia (pytorch, Windows, breigefächert consumerhardwaretauglich) von beispielsweise AMD (roc-m, Linux, über Umwege eingeschränkt consumertauglich) abhebt. Bekommt Open AI ihr Modell auf Amazon Chips zum laufen? Vermutlich. Aber das bedeutet tiefgreifende Veränderungen in der Entwicklungsumgebung. Wir werden sehen.

Antwort Gefällt mir

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Hier geht's AFAIK um zwei Dinge: Erstens ist der ASIC/ KI Chip Hausmacher Art natürlich deutlich billiger für Amazon als ein B200 oder B300, und zweitens sind diese ASICs scheinbar besonders gut/effizient für Inferenz. Trotz des Namens (Trainium)😁. Zum Testen, Trainieren und Optimieren von KI Modellen sind GPU-basierte Beschleuniger (inklusive AMDs Instincts) wohl immer noch die erste Wahl, weil sie eben viel flexibler sind. Daher kaufen oder leasen AWS, Microsoft und Google nach wie vor Zehntausende von B200/300 oder Instincts.
Bei OpenAI, Claude, Anthropic usw geht's allerdings mittlerweile mehr und mehr darum, Anfragen zu bearbeiten und beantworten (Inferenz), weshalb große ASICs wie Trainium, Maya (MS) und TPUs mehr in den Vordergrund treten, und auch viel billiger sind. Der angekündigte Beschleuniger von Qualcomm wird angeblich auch speziell für Inferenz ausgelegt sein (wenn er je erscheint).

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

As a trained electrician, he's also the man behind the electrifying news. Learning by doing and curiosity personified.

Werbung

Werbung