Intel rüstet sich leise, aber sehr entschlossen für die nächste große Runde im Server-Geschäft. Der jüngste Hinweis darauf trägt einen eher unscheinbaren Namen: Johnson City. 
Hinter diesem Codenamen verbirgt sich die Referenzplattform, auf der die kommende Xeon-Generation Diamond Rapids zurzeit durch die Härtetests der Industrie geht. Wer in Liefer- und Testdatenbanken stöbert, findet inzwischen JNC Server Boards, die als Validierungsmaterial gekennzeichnet sind – ein deutliches Signal, dass es nicht mehr nur um PowerPoint-Folien, sondern um echtes, laufendes Silizium in echten Racks geht.
Diese JNC Boards – JNC steht für Johnson City – werden von Intel an OEMs und ausgewählte Partner verschickt, damit sie BIOS, Firmware, Speicherkompatibilität, PCIe-Geräte und nicht zuletzt die Stromversorgung der Plattform auf Herz und Nieren prüfen können. In dieser Phase geht es nicht mehr darum, ob der Prozessor grundsätzlich funktioniert, sondern ob er sich in realen Servern mit redundanten Netzteilen, komplexer Kühlung und randvollem PCIe-Bus zuverlässig verhält. Genau an diesem Punkt steht Diamond Rapids jetzt.
Was die Einträge besonders spannend macht, sind die genannten TDP-Klassen. Eine Konfiguration wird als 1SPC 500 DMR beschrieben, was ziemlich eindeutig nach einem Ein-Sockel-Board mit einer TDP-Klasse von bis zu 500 Watt für die Diamond-Rapids-CPUs aussieht. Noch auffälliger ist ein weiterer Verweis auf eine 650-Watt-Variante. Selbst wenn darin etwas Spielraum für Turbo-Spitzen und Plattform-Overhead steckt: Wir sprechen von Prozessoren mit einer Leistungsaufnahme, die alles übertrifft, was Granite Rapids oder Sapphire Rapids bislang aufgeboten haben.
Solche TDP-Werte ergeben nur Sinn, wenn Intel mehrere Stellschrauben gleichzeitig extrem weit aufdreht: sehr hohe Kernzahlen, ambitionierte Basistakte, aggressive Turbo-Fenster, dazu breite Speicherinterfaces und ein breites Arsenal an PCI-Express-Lanes. Aus Roadmaps und Leaks geht hervor, dass Diamond Rapids im modernen Intel-18A-Prozess gefertigt werden soll und auf Panther-Cove-Performance-Kernen basiert. Im Gespräch sind Konfigurationen mit bis zu 192 Kernen, in besonders spekulativen Gerüchten sogar 256 Kerne für bestimmte Ausbaustufen. Bestätigt ist das alles noch nicht – aber die auf Johnson City dokumentierten TDPs passen erschreckend gut zu dieser Größenordnung.
Ein zentrales Puzzleteil ist die Speicheranbindung. Für Xeon 7 auf Basis von Diamond Rapids ist inzwischen sehr glaubhaft, dass nur noch Varianten mit 16 Speicherkanälen kommen. Die lang etablierte 8-Kanal-Klasse dürfte damit aus dem High-End-Segment verschwinden. Aus Sicht klassischer Rechenzentrumsbetreiber wirkt das zunächst radikal, aber die Realität der Workloads hat sich verändert. Hyperscaler, Cloud-Anbieter, In-Memory-Datenbanken, Analytics und KI-Workloads sind gnadenlos speicherbandbreitenhungrig. Ein einzelner Sockel mit 16 Kanälen DDR5 kann in vielen Szenarien mehrere mittelgroße Server ersetzen – und kann, trotz höherer CPU-TDP, am Ende sogar den Gesamtenergiebedarf und die Komplexität der Infrastruktur reduzieren.
Um diese Bandbreite überhaupt physikalisch auf das Board zu bekommen, braucht es einen neuen Sockel. Diamond Rapids wandert deshalb auf LGA 9324. Dieser Sockel ist fast fünfmal so groß wie ein Desktop-LGA-1700 und übertrifft sogar den ohnehin gewaltigen LGA 7529 von Granite Rapids. Die zusätzliche Fläche ist kein Selbstzweck: Sie wird für eine massive Stromversorgung, für die vielen Speicherkanäle, für jede Menge PCIe-Signale sowie für Monitoring- und Steuersignale benötigt. Wer eine CPU dauerhaft mit 500 bis 650 Watt versorgen will, ohne dass Spannungswandler und Leiterbahnen an ihre Grenzen kommen, braucht eine entsprechend üppige Kontaktfläche.
In den Datenbanken taucht außerdem eine JNC Multi-S Plattform auf, die mit 2+1+1S beschriftet ist. Das S steht traditionell für Sockel, die Zählweise lässt aber eher auf eine flexible Referenzplattform schließen, auf der unterschiedliche Topologien ausprobiert werden können: klassische Dual-Sockel-Systeme, Varianten mit logischer Aufteilung eines großen Multi-Chiplet-Packages oder spezielle Konfigurationen für speicherzentrierte Workloads. Für Server-Hersteller ist so ein Board Gold wert, weil sie damit verschiedene Produktideen simulieren können, bevor sie in ein eigenes, teures Boarddesign investieren.
Setzt man Diamond Rapids in den Kontext der jüngeren Xeon-Familien, zeichnet sich die Strategie von Intel deutlich ab. Granite Rapids, Sierra Forest, Clearwater Forest, Emerald Rapids, Sapphire Rapids – die Liste ist lang, und sie steht für einen klaren Kurs: eine Aufspaltung in sehr dichte Plattformen mit Effizienz-Kernen für Cloud-native Dienste und extrem performante Plattformen mit starken P-Kernen für klassische Schwergewichte wie Datenbanken, ERP, Finanzsysteme oder auch KI-Inferenz in Echtzeit. Diamond Rapids ist ganz klar im zweiten Lager verortet, als kompromissloser Performance-Baustein.
Schon heute bringen Granite Rapids und Sierra Forest hunderte Kerne in einen Server, bieten bis zu 12 Kanäle DDR5 und gewaltige L3-Caches. Diamond Rapids dreht an genau diesen Punkten noch einmal: mehr Speicherkanäle, voraussichtlich höhere effektive Speichertakte, ein noch breiteres I/O-Budget und die nächste Stufe beim PCI-Express-Standard. Während frühere Generationen im Data Center noch mit PCIe 3.0 oder 4.0 auskommen mussten, ist PCIe 5.0 inzwischen Pflicht – und Diamond Rapids auf Johnson City wirkt wie der logische Kandidat, um PCIe 6.0 in breiterem Umfang in Server zu bringen.
Gerade in KI- und HPC-Szenarien ist das entscheidend: Eine moderne GPU-Flotte oder SmartNIC-Landschaft kann nur dann ihr Potenzial ausspielen, wenn die CPU ausreichend viele, schnelle Lanes bereitstellt. In der Skylake-SP-Ära waren weniger als 50 PCIe-3.0-Lanes noch akzeptabel. Heute, mit vollgestopften GPU-Racks und NVMe-Arrays, wäre das ein Engpass. Johnson City soll genau hier ansetzen und zeigen, dass Diamond Rapids als I/O-Backbone für GPU-Cluster, Speicher- und Netzwerkkarten taugt.
Auf Diamond Rapids soll später Coral Rapids folgen – eine Generation, von der bereits durchgesickert ist, dass sie in ausgewählten Modellen wieder verstärkt auf SMT setzen wird, nachdem Intel im Data Center zeitweise mit strikt einsträngigen Performance-Kernen experimentiert hat. Dieses Hin und Her ist ein gutes Beispiel dafür, wie dynamisch der Markt geworden ist: Hersteller sind bereit, heilige Kühe zu schlachten, Architekturkonzepte neu zu kombinieren und unterschiedliche Kerntypen, Threading-Modelle und Cache-Konfigurationen auszuprobieren, solange das Ergebnis am Ende mehr Performance pro Watt und pro Höheneinheit bringt.
Natürlich geschieht all das nicht im luftleeren Raum. Diamond Rapids wird voraussichtlich in der zweiten Hälfte 2026 aufschlagen und dann direkt gegen AMDs Epyc-Generation Venice antreten. AMD hat sich mit Naples, Rome, Milan, Genoa, Bergamo und Turin einen gewaltigen Vorsprung bei Fertigungstechnologie, Kernzahl und Effizienz erarbeitet. Für Intel reicht es deshalb nicht, nur auf dem Datenblatt aufzuschließen. Johnson City und Diamond Rapids müssen in realen Workloads überzeugen – bei Latenzen, konsistentem Durchsatz, Energieeffizienz und nicht zuletzt bei der Flexibilität der Plattform, also der Frage, wie einfach sich GPU-, Storage- oder Netzwerk-Setups darauf abbilden lassen.
Für Betreiber von Rechenzentren stellt sich am Ende eine nüchterne Frage: Lohnt sich ein einzelner 500- oder 650-Watt-Prozessor wirklich gegenüber einem Verbund aus mehreren kleineren Systemen? Die Antwort hängt vom Workload ab. Wenn Diamond Rapids in der Lage ist, mehr virtuelle Maschinen pro Sockel zu hosten, größere In-Memory-Datenbanken zu stemmen oder KI-Inferenz mit weniger physischen Servern zu bedienen, kann sich die höhere CPU-TDP über die gesamte Infrastruktur gerechnet durchaus auszahlen. Weniger Racks, weniger Switch-Ports, weniger zu managende Knoten – das kann viele Kilowatt wettmachen.
Konkrete Taktraten, finale Kernkonfigurationen und Preislisten stehen noch aus. Doch allein die Tatsache, dass Johnson-City-Boards inzwischen in den Lieferketten auftauchen, zeigt: Die nächste Runde im Server-CPU-Wettbewerb ist nicht mehr Theorie. In Labors und Test-Racks laufen bereits Belastungstests, werden Benchmarks gesammelt und Langzeitmessungen ausgewertet. Ob Intel mit Diamond Rapids wirklich an Epyc vorbeiziehen kann oder zumindest wieder auf Augenhöhe kommt, wird sich erst zeigen, wenn unabhängige Tests aufschlagen. Sicher ist nur: Der Kampf um die Krone im Rechenzentrum wird lauter, heißer – und mit Blick auf 650-Watt-CPUs im wahrsten Sinne des Wortes auch physisch wärmer.
2 kommentare
Diamond Rapids klingt brachial, aber an 190+ Kerne mit stabilen Takten glaube ich erst, wenn ein paar unabhängige Labs das Ding eine Woche lang grillen
Wenn Intel wirklich 16 Speicherkanäle und ordentlich PCIe 6.0 bringt, muss AMD mit Venice schon sehr liefern