
SK hynix’ Langfristplan: HBM5/HBM5E, GDDR7-Next, DDR6 und 400+-Layer 4D NAND zwischen 2029 und 2031
Auf dem SK AI Summit 2025 hat SK hynix mehr als nur Schlagworte präsentiert. Die Koreaner zeigten eine zusammenhängende Roadmap, die das Speicherdesign in der KI-Ära neu ordnet. Der Plan kommt in zwei Akten: 2026–2028 geht es darum, heutige Flaschenhälse pragmatisch zu räumen – mit HBM4/HBM4E, LPDDR6, reiferem CXL und extrem dichten Enterprise-SSDs. 2029–2031 folgt der größere Umbau: HBM5/HBM5E inklusive kundenspezifischer Varianten, ein Zwischenschritt namens GDDR7-Next, der Markteintritt von DDR6, 3D-DRAM-Konzepte sowie 4D NAND mit mehr als 400 Schichten. Dazu stellt SK hynix mit High-Bandwidth Flash (HBF) eine neue, nicht-flüchtige Stufe vor, die sich stärker wie Arbeitsspeicher verhält und KI-Inference zuverlässig füttert.
2026–2028: Weg frei räumen – HBM4/4E und DRAM für KI-Workloads
Im Nahbereich plant SK hynix HBM4 mit 16-Hi-Stacks und HBM4E mit 8/12/16-Hi. Besonders interessant: Custom HBM. Dabei zieht der HBM-Controller samt Teilen des Protokoll-IP in den Base-Die des HBM-Stapels um. Das verschafft GPUs/ASICs wertvolle Siliziumfläche für Rechenwerke und Caches, verkürzt Leitungswege und senkt die Interface-Leistungsaufnahme. Für Packaging und Base-Die-Flows arbeitet SK hynix eng mit TSMC zusammen – naheliegend in einer Welt, in der der Package-Rand die eigentliche Systemgrenze ist.
Auch konventioneller DRAM bleibt nicht stehen. Neben LPDDR6 für Mobile und Edge gibt es eine KI-ausgerichtete Familie namens AI-D. Darin stecken Bausteine wie LPDDR5X SOCAMM2 nahe am Compute, serverseitige MRDIMM Gen2 für Dichte ohne Bandbreitenknick, LPDDR5R für strikte Energieziele sowie zweite-Generation-CXL-Bausteine und erste Versuche mit LPDDR6-PIM (Processing-in-Memory). Der rote Faden: mehr GB/s pro Watt, geringere Latenzen zum Beschleuniger und flexibleres Memory-Pooling zwischen CPU, GPU und kundenspezifischen Chips.
Auf Flash-Seite fährt SK hynix zweigleisig: Standard-NAND und AI-N, eine auf KI-Lasten abgestimmte Linie. Auf der Roadmap stehen PCIe-Gen5-eSSDs mit QLC-Kapazitäten der 245-TB-Klasse, gefolgt von PCIe Gen6 für eSSD/cSSD und UFS 5.0 im Client. AI-N legt Gewicht auf vorhersehbare QoS unter hoher Last und Controller, die Inference-Pipelines auch dann stabil halten, wenn I/O-Spitzen anklopfen.
2029–2031: HBM5/HBM5E, GDDR7-Next, DDR6, 3D-DRAM und 400+-Layer 4D NAND
Im Fernbereich richtet SK hynix den Blick auf HBM5/HBM5E – erneut mit Custom-Optionen, die Logikfunktionen in den Base-Die verlagern. Für Grafikspeicher taucht GDDR7-Next auf. Der Subtext: Die erste GDDR7-Welle (aktuell 30–32 Gb/s pro Pin, Spezifikations-Obergrenze um 48 Gb/s) ist längst nicht ausgereizt; die Branche wird viel von diesem Spielraum heben, bevor eine neue Namensstufe nötig wird. Bei Systemspeicher erscheint DDR6 im Fenster 2029–2031 – zeitlich passend zu Plattformzyklen in Client und Server.
Parallel reifen 3D-DRAM-Ideen: dichteres vertikales Stapeln und engere Kopplung zwischen Logik und Speicherfeldern, über heutige TSV-Ansätze hinaus. Im NAND-Universum plant SK hynix 4D NAND mit 400+ Schichten. „4D“ bedeutet hier Cell-over-Peripheral – Zellen über der Peripherie –, was Bitdichte erhöht, ohne den Die überproportional aufzublasen. Entscheidend bleiben jedoch nüchterne Kennzahlen wie Kosten pro Bit, Schreibausdauer, Ladungserhalt und I/O-Effizienz – genau die Parameter, die am Ende darüber entscheiden, ob sich Petabyte-Arrays wirtschaftlich rechnen.
HBF erklärt: Flash, der sich mehr wie RAM anfühlt
High-Bandwidth Flash (HBF) ist das spannendste neue Puzzleteil. Man kann es als Zwischenstufe zwischen DRAM und SSD verstehen: nicht-flüchtig wie NAND, aber angebunden und gesteuert, um deutlich höhere effektive Durchsätze und straffere QoS als herkömmliche Laufwerke zu liefern. Gerade bei KI-Inference auf PCs und Edge-Knoten, wo Modelle den DRAM-Rahmen sprengen, könnte HBF den Token-Strom konstant halten – ohne das berüchtigte Paging-Fieber. Wenn HBM die Turbine ist, will HBF die breite, effiziente Ansaugung sein, die den Datenhunger zügelt, statt ihn auszubremsen.
Ein Full-Stack-Speicheransatz für KI
SK hynix verpackt das Ganze als Full-Stack-AI-Memory. Drei Säulen tragen die Strategie:
- Custom HBM: Auslagerung bestimmter GPU/ASIC-Funktionen in den HBM-Base-Die reduziert Interface-Power, schafft Rechenfläche und bringt deterministischere Latenzen durch Package-Co-Design.
- AI-D (AI-DRAM): in O (Optimization) für niedrige TCO und Verbrauch, B (Breakthrough) für ultrahohe Kapazitäten gegen die „Memory Wall“, und E (Expansion) zur Ausweitung in Robotik, Mobilität und industrielle Automation.
- AI-N & HBF: intelligentere Controller, stabiler QoS und eine quasi-Speicherschicht, die Beschleuniger auch bei arbeitssatzgroßen Modellen zuverlässig versorgt.
Was bedeutet das für PCs, Workstations und Rechenzentren?
In Rechenzentren ist die Marschrichtung klar: mehr HBM-Stacks pro Package, mehr Kapazität pro Modul, bessere Bandbreite pro Watt. Für Creator und Gamer ist das Signal gemischt, aber schlüssig. GDDR7-Next deutet darauf hin, dass die Grafikpipeline erst den vorhandenen 48-Gb/s-Headroom ausschöpft, bevor ein radikaler Ansatz nötig wird. Und DDR6 im Zeitraum 2029–2031 heißt: Der Mainstream fährt noch einige Jahre auf DDR5. Wer 2027 mit DDR6 gerechnet hat, wird die Stirn runzeln – doch lange Sockel- und Speicherlebenszyklen schützen Nutzer und OEMs vor Dauer-Umbauten.
Ein wiederkehrender Punkt aus dem Leserkreis: Kapazität vor reiner Geschwindigkeit. Wenn AAA-Titel 150 GB und mehr verschlingen, fühlen sich 2–4-TB-SSDs eng an. Zwar zielt die SK-hynix-Roadmap bei Kapazitäten klar auf Enterprise (245 TB pro Laufwerk sind genannt), doch Controller- und NAND-Fortschritte sickern fast immer in den Client hinab. Gelingt es, QoS beim Layer-Aufbau stabil zu halten, dürfte der große Consumer-Gewinn eher in bezahlbaren 8–16-TB-SSDs liegen als in noch einem sequentiellen Rekord.
Schichtzahl ist nicht alles
Provokante Frage: Wenn ein Wettbewerber 2027 angeblich 1000 Layer bringt – ist 400+ in 2030 dann „tot bei Ankunft“? Nicht zwingend. Layer-Zahl ist nur eine Achse. Yield, Defektdichte, String-Stacking-Zuverlässigkeit, Peripherieskalierung und I/O-Architektur entscheiden, ob ein Produkt zu vertretbaren Kosten lieferbar ist. Eine robuste 400+-Layer-4D-NAND mit guter Endurance kann eine höher geschichtete, aber fragile Lösung schlagen, die bei RBER und Retention schwächelt.
Der Wunsch nach „QDR“ – nett, aber…
Immer wieder kommt der Ruf nach „Quadruple Data Rate“. In der Praxis greifen moderne Speicher ohnehin zu Multilevel-Signalverfahren (PAM3/PAM4 & Co.) und stützen sich auf Packaging und Equalization, um Datenraten zu heben. Mehr Umschaltungen pro Takt sind nicht gratis: Jitter-Empfindlichkeit und PHY-Komplexität steigen. Der pragmatische Pfad, den die Roadmap zeigt – mehr rohe Bandbreite via HBM, smartere DRAM-Topologien und eine Flash-Stufe, die sich wie Speicher verhält – skaliert Durchsatz, ohne Leistung und Kosten zu sprengen.
Fazit
Die SK-hynix-Roadmap ist ambitioniert und zugleich geerdet. 2026–2028 liefern spürbare Schritte, damit KI-Beschleuniger aus- statt rumstehen und Plattformen effizient bleiben. 2029–2031 kommen die Schwergewichte: HBM5/HBM5E, 3D-DRAM-Elemente, ein gereiftes GDDR7-Next, DDR6 für den Massenmarkt sowie 4D NAND mit 400+ Layern, flankiert von HBF. Zeitpläne können rutschen und Konkurrenz bewegt Linien – die Richtung bleibt klar: Speicher ist nicht mehr Beifahrer der Recheneinheit, sondern Teil der Architektur. Wenn die Umsetzung gelingt, fühlen sich die nächsten KI-PCs und Server schneller an, weil die Datenpipeline endlich mit dem Appetit der Rechenwerke Schritt hält.
1 kommentar
Wenn Zen 6 2026/27 kommt, passt Zen 7 in 2028/29 – genau wenn DDR6 + PCIe 6.0 im Consumer landen. AMD wechselt Sockets eh nicht im Jahrestakt