
Roadmap von AMD Instinct MI400 und MI500: ernsthafte Kampfansage an NVIDIAs KI-Vormacht
In nur wenigen Jahren haben sich KI-GPUs von einer Speziallösung für Supercomputer zu den begehrtesten Chips der gesamten Halbleiterbranche entwickelt. Wer heute über Rechenzentren für große Sprachmodelle, Empfehlungssysteme oder Bild- und Video-KI spricht, landet fast automatisch bei NVIDIA. Doch AMD hat sichtbar genug davon, nur die Rolle der ewigen Nummer zwei zu spielen. Auf dem Financial Analyst Day 2025 hat das Unternehmen mit der Instinct-MI400-Familie für 2026 und der MI500-Generation für 2027 einen Fahrplan vorgestellt, der klar zeigt: man will in der absoluten Spitzengruppe mitmischen – nicht nur beim Preis, sondern auch bei Leistung, Speicher und Skalierung.
Herzstück der Strategie ist ein jährlicher Release-Zyklus für Data-Center-GPUs, ähnlich der Taktung, mit der NVIDIA zuletzt seine KI-Plattformen aktualisiert. Die aktuellen CDNA-3- und CDNA-4-basierten Instinct-Beschleuniger wie MI300X, MI325X und MI350X haben AMD bereits in Proof-of-Concept-Projekte für große LLMs und HPC gebracht. Mit MI400 (CDNA 5) und MI500 (CDNA Next/UDNA) will man nun vom „spannenden Alternativprojekt“ zur Standardoption für Hyperscaler, Cloud-Anbieter und Staaten mit eigenen souveränen KI-Programmen aufsteigen.
Instinct MI400: CDNA 5, HBM4 und Blick auf ganze KI-Racks
Die Instinct-MI400-Reihe ist AMDs Zugpferd für das Jahr 2026. Sie basiert auf der neuen CDNA-5-Architektur und fällt deutlich ambitionierter aus als ein bloßes Update der MI350-Serie. AMD nennt Zielwerte von rund 40 PFLOPs (FP4) und 20 PFLOPs (FP8) pro GPU – etwa doppelt so viel wie bei MI350. Damit zielt MI400 klar auf die Realität der nächsten Jahre: sehr große Sprach- und Multimodal-Modelle, die konsequent mit niedrigeren Formaten wie FP8 und FP4 quantisiert werden, um Kosten, Energiebedarf und Latenzen zu drücken.
Mindestens ebenso wichtig wie die Rechenleistung ist jedoch die Speicherarchitektur. Mit MI400 wechselt AMD auf HBM4 und erhöht die Speicherkapazität pro Beschleuniger von 288 GB HBM3e (MI350) auf 432 GB HBM4 – ein Plus von rund 50 Prozent. Gleichzeitig steigt die Speicherbandbreite auf beeindruckende 19,6 TB/s, mehr als das Doppelte im Vergleich zur Vorgängergeneration. Für heutige und kommende Foundation Models bedeutet das: mehr Parameter passen auf ein einzelnes Gerät, weniger Sharding, weniger komplizierte Workarounds, um Modelle überhaupt zum Laufen zu bringen. Kurz gesagt: weniger Zeit, die in Infrastrukturtricks verloren geht, mehr Zeit fürs eigentliche Training.
Auch außerhalb des Packages soll MI400 ordentlich Gas geben. AMD nennt etwa 300 GB/s skalierende Bandbreite pro GPU für die Anbindung innerhalb eines Clusters. Anstatt eine komplett proprietäre Fabric zu erzwingen, setzt der Hersteller stark auf standardbasierte Rack-Scale-Lösungen mit Technologien wie UALoE, UAL und UEC. Die Botschaft an Rechenzentrumsbetreiber ist deutlich: Wer bereits erhebliche Summen in Infrastruktur gesteckt hat, soll nicht alles über Bord werfen müssen, nur um eine zweite GPU-Option ins Haus zu holen.
MI455X und MI430X: zwei Varianten, zwei Welten
Innerhalb der MI400-Familie positioniert AMD vorerst zwei Hauptprodukte. Das Flaggschiff Instinct MI455X richtet sich an großskalige KI-Trainings- und Inferenz-Workloads. Das sind die Karten, auf die Hyperscaler schauen, wenn sie ganze Racks mit LLMs vollpacken wollen und trotzdem noch Puffer für die nächste Modellgeneration brauchen. Voller CDNA-5-Funktionsumfang, 432 GB HBM4 und hohe Interconnect-Bandbreiten sollen sicherstellen, dass der MI455X nicht nur im Datenblatt mit NVIDIAs Vera Rubin mithalten kann.
Der Instinct MI430X ist dagegen stärker auf klassische Hochleistungsrechner (HPC) und souveräne KI zugeschnitten. Er behält dieselbe HBM4-Bestückung, legt aber mehr Gewicht auf FP64-Leistung und eine enge Verzahnung von CPU und GPU. Zielgruppe sind Supercomputer, nationale Rechenzentren und regulierte Branchen, in denen Klimamodelle, physikalische Simulationen und große Sprachmodelle nebeneinander laufen – idealerweise auf Basis von EPYC-Prozessoren plus CDNA-5-GPUs aus einem Guss.
AMD vs. NVIDIA Vera Rubin: mehr als nur FLOPs zählen
Auf Folien sieht das Duell gegen NVIDIAs kommende Vera-Rubin-Plattform durchaus selbstbewusst aus. AMD hebt etwa 1,5-fach höhere Speicherkapazität pro GPU hervor, ähnlich hohe Speicherbandbreite, Parität bei FP4- und FP8-FLOPs, vergleichbare Scale-up-Bandbreiten innerhalb eines Knotens und etwa 1,5-fach bessere Scale-out-Bandbreite zwischen den Beschleunigern. Wenn diese Kennzahlen im realen Silizium halten, fällt ein wichtiger psychologischer Vorteil weg, den NVIDIA lange hatte: das Gefühl, dass es „eh keine echte Alternative“ gibt.
Erfahrene Systemarchitektinnen und -architekten wissen jedoch, dass Tabellen keine Modelle trainieren. Am Ende zählt, wie gut das Gesamtpaket funktioniert: Hardware, Netzwerk, Softwarestack, Tools, Support. NVIDIA hat sich über Jahre den Ruf erarbeitet, nicht nur GPUs, sondern komplett abgestimmte „AI Factories“ zu liefern, bis hin zu Referenzdesigns und ausgereiften Frameworks. Genau dort muss AMD jetzt aufholen. Das Unternehmen argumentiert, dass MI400 mit HBM4, standardisierten Interconnects und einem sichtbar gereiften ROCm-Ökosystem erstmals eine ernsthafte Option für große Cluster ist – ohne sich komplett in einem proprietären Käfig einzusperren.
MI500 ab 2027: die nächste Stufe der Instinct-Offensive
Noch weiter nach vorne zielt die Instinct-MI500-Serie, die ab 2027 erscheinen soll. Konkrete Spezifikationen hält AMD bewusst vage, aber der Rahmen ist klar: neue CDNA-Next- beziehungsweise UDNA-Architektur, neuer Fertigungsknoten, deutlich höhere Rechendichte, modernere Speichertechnologie und nochmals aufgebohrte Interconnects. MI500 soll weniger ein Drop-in-Ersatz für bestehende Systeme sein, sondern vielmehr die Grundlage für komplett neue KI-Racks, bei denen Packaging und Systemdesign von Anfang an auf maximale Dichte und Effizienz ausgelegt sind.
In der Community kursieren bereits erste Spekulationen: vom möglichen Zwischenmodell à la MI450X bis hin zur Frage, ob AMD bei den Fertigungsprozessen vielleicht sogar einen halben Schritt vor NVIDIA landen könnte. Fan-Schlagworte wie „nGreedia-Albtraum“ machen schnell die Runde. Realistisch betrachtet ist aber klar: Erst wenn echte MI500-Systeme in Rechenzentren laufen und im Alltag gegen NVIDIAs Angebote antreten, wird sich zeigen, wie groß der Abstand in die eine oder andere Richtung wirklich ist.
Und die Gamer? Radeon-Fans zwischen Frust und Hoffnung
Während Investoren jede neue Instinct-Folie feiern, schauen viele PC-Spielerinnen und -Spieler mit gemischten Gefühlen zu. In den Präsentationen dominiert KI, Data Center, Instinct und EPYC; klassische Gaming-Themen tauchen eher am Rand auf. Der Eindruck drängt sich auf, dass Liza Su voll auf KI setzt und für Gamer nur noch Restkapazitäten übrig bleiben. Wer auf die nächste große Radeon-Generation hofft, fragt sich zu Recht, wie viel Raum im Budget neben MI400 und MI500 bleibt.
Ganz so düster ist das Bild jedoch nicht. Natürlich fließt derzeit ein Großteil der Entwicklungsgelder dorthin, wo die Marge am höchsten ist – also in KI-Beschleuniger. Gleichzeitig sind es aber genau diese Projekte, die neue Packaging-Techniken, HBM-Stacks, Cache-Hierarchien und Stromspartricks hervorbringen. In der Vergangenheit sind solche Technologien mit etwas Verzögerung auch im Gaming-Segment angekommen. AMD selbst spricht von einem gemeinsamen, aufeinander abgestimmten CPU- und GPU-Fahrplan bis weit in die zweite Hälfte des Jahrzehnts. Kurzfristig mag es für Radeon-Fans frustrierend sein – langfristig könnte gerade der KI-Boom dafür sorgen, dass die nächste Generation Gaming-GPUs deutlich effizienter und leistungsfähiger ausfällt.
KI-Blase oder neue Normalität?
Parallel dazu läuft die immer gleiche Debatte: erleben wir eine ungesunde KI-Blase oder den Aufbau einer neuen Grundinfrastruktur, ähnlich wie beim Aufstieg des Internets oder des Smartphones? Ironischerweise stammen viele der lautesten Stimmen, die vor zwei Jahren noch über „KI-Hype“ gespottet haben, heute aus denselben Kommentarspalten, in denen jetzt über 40-PFLOP-GPUs, HBM4-Preise und Strombudgets diskutiert wird. Der zynische Witz, die Blase werde höchstens für manche Aktienkurse und Budgets platzen, aber nicht für die Nachfrage nach Rechenleistung, kommt nicht von ungefähr.
AMD verhält sich jedenfalls nicht so, als würde der Markt bald kollabieren. Wer an eine kurze Modeerscheinung glaubt, legt keine jährliche Accelerator-Roadmap auf, verankert HBM4 in mehreren Generationen und investiert in komplett neue Interconnect-Architekturen. Wahrscheinlicher ist ein langsameres, aber weiter anhaltendes Wachstum – kombiniert mit Kunden, die weniger Lust auf einen einzelnen Anbieter mit quasi-monopolistischer Preismacht haben. Genau hier will sich AMD mit MI400 und MI500 platzieren: als ernsthafte Option B, die den Verhandlungshebel der Kunden stärkt.
Fazit: Roadmaps heute, echte Konkurrenz morgen
Stand jetzt existieren MI400 und MI500 vor allem als Roadmaps, Zielmarken und hübsche Balkendiagramme. Die eigentliche Prüfung folgt erst, wenn die ersten Boards in echten Clustern landen und sich im Alltag gegen NVIDIAs etablierte Hardware- und Softwarewelt behaupten müssen. Dann wird sich zeigen, ob Instinct nur auf dem Papier glänzt oder tatsächlich stabile, skalierbare KI-Infrastruktur ermöglicht – inklusive guter Verfügbarkeit und eines Software-Stacks, den Teams nicht widerwillig, sondern gerne einsetzen.
Gelingt AMD dieser Schritt, wären die Auswirkungen deutlich größer als ein paar verschobene Benchmark-Rekorde. Mehr Auswahl bei Speicherausstattung, Interconnect und Architektur könnte die Abhängigkeit von einem einzelnen Anbieter reduzieren, Preise dämpfen und den Innovationsdruck auf alle Beteiligten erhöhen. Am Ende geht es nicht darum, wer die höchste FP4-Zahl in die Folien schreibt, sondern darum, ob das KI-Zeitalter von einem Quasi-Monopolisten geprägt wird oder von einem echten Wettbewerb. AMD hat mit Instinct MI400 und MI500 klar gemacht, dass man im Ring steht. Jetzt beginnt der Teil, in dem es zählt.
1 kommentar
Je mehr AMD hier Druck macht, desto weniger kann Nvidia bei Preisen einfach schalten und walten. Konkurrenz ist genau das, was der Markt gebraucht hat