AMD setzt mit neuer Chip-Roadmap auf KI-Offensive

AMD kündigt für 2026 und 2027 neue Hochleistungsprozessoren und KI-Beschleuniger an, um den Markt für Rechenzentren zu erobern. Strategische Partnerschaften mit Meta und Samsung untermauern die Pläne.

AMD will den Markt für Rechenzentren mit einer aggressiven Chip-Roadmap erobern. Der Konzern kündigt für 2026 und 2027 neue Hochleistungsprozessoren und KI-Beschleuniger an, die die nächste Generation der künstlichen Intelligenz antreiben sollen. Kernstück ist die offene Rack-Plattform Helios, die mit Partnern wie Meta entwickelt wird.

Strategische Partnerschaften für die KI-Infrastruktur

Die Pläne des Halbleiterherstellers werden durch jüngste Großaufträge untermauert. So hat AMD die Zusammenarbeit mit Meta vertieft. Das Social-Media-Unternehmen will bis zu sechs Gigawatt an AMD-Instinct-GPUs für seine KI-Infrastruktur einsetzen. Diese basieren auf einer speziellen MI450-Architektur und der Helios-Plattform. Zudem erweitert AMD die Partnerschaft mit Samsung. Der südkoreanische Konzern soll HBM4-Arbeitsspeicher für die kommende Instinct-MI455X-GPU und DDR5-Speicher für die neuen EPYC-CPUs liefern. Diese Allianzen zeigen: AMD setzt auf offene Ökosysteme, um Hyperscaler und Unternehmen ganzheitliche Lösungen anzubieten.

Anzeige

Während Unternehmen massiv in neue KI-Infrastrukturen investieren, rücken auch neue regulatorische Anforderungen und Sicherheitsrisiken in den Fokus. Dieser kostenlose Leitfaden zeigt Geschäftsführern, was sie jetzt über Cyber Security und die neuen KI-Gesetze wissen müssen. Was Geschäftsführer über Cyber Security 2024 wissen müssen

EPYC „Venice“: Neuer Rekordhalter für Rechenzentren

Im Mittelpunkt der CPU-Strategie für 2026 steht der Serverprozessor EPYC „Venice“. Er basiert auf der Zen-6-Architektur und wird erstmals im fortschrittlichen 2-Nanometer-Verfahren von TSMC gefertigt. Das verspricht einen deutlichen Sprung bei der Energieeffizienz. Die Spitzenmodelle sollen bis zu 256 Hochleistungskerne bieten – ein Plus von 33 Prozent gegenüber den aktuellen Turin-CPUs mit bis zu 192 Kernen. Analysten erwarten eine bis zu 1,7-fach bessere Leistung pro Watt. Zudem unterstützt Venice den neuen PCIe-Gen6-Standard für höheren Datendurchsatz.

Der Nachfolger ist bereits in Planung: 2027 soll EPYC „Verano“ erscheinen, voraussichtlich mit PCIe Gen7 und 200G-Ethernet-Schnittstellen. Für 2028 kündigt AMD dann die „Florence“-Generation auf Basis von Zen 7 an. Sie könnte bis zu 320 Kerne und eine spezielle Hardware-Einheit für KI-Berechnungen direkt auf der CPU integrieren.

Instinct MI400: Doppelte KI-Leistung für jeden Maßstab

Parallel treibt AMD die Entwicklung seiner KI-Beschleuniger voran. Die Instinct-MI400-Serie auf CDNA-5-Architektur kommt 2026 auf den Markt. Sie soll die Rechenleistung ihrer Vorgänger verdoppeln und bis zu 20 Petaflops in der FP8-Genauigkeit liefern. Mit HBM4-Speicher bietet sie 432 GB Kapazität und eine Bandbreite von 19,6 TB/s – eine Steigerung um 50 Prozent.

Die Serie umfasst verschiedene Modelle wie die MI430X, MI440X und die Flaggschiff-MI455X. Sie decken damit KI-Workloads vom firmeneigenen Rechenzentrum bis zum Hyperscale-Training ab. Für 2027 plant AMD bereits die MI500-Serie auf CDNA-6-Basis. Sie soll im 2-nm-Verfahren gefertigt werden und eine bis zu 1.000-fache KI-Leistung gegenüber der MI300X-Generation von 2023 bringen – allerdings im Vergleich eines ganzen Rack-Systems zu einem 8-GPU-Knoten.

Anzeige

Mit der Skalierung von Rechenkapazitäten wächst für viele Betriebe auch die Gefahr kostspieliger Cyberangriffe. Wie mittelständische Unternehmen ihre IT-Sicherheit ohne Budget-Explosion effektiv stärken können, enthüllt dieser aktuelle Experten-Report. Effektive Strategien gegen Cyberkriminelle entdecken

Helios: Das Rack als Supercomputer für Yotta-Scale-KI

Die Blaupause für die großskalige KI-Infrastruktur ist die Helios-Plattform. AMD präsentierte das Rack-Scale-System als Antwort auf den Bedarf an „Yotta-Scale“-Rechenkapazität. Ab der zweiten Hälfte 2026 soll es bis zu drei AI-Exaflops Leistung in einem einzigen Rack liefern. Das ist auf das Training riesiger KI-Modelle mit Billionen Parametern ausgelegt.

Ein Helios-Rack kombiniert EPYC-Venice-CPUs mit 72 Instinct-MI455X-Beschleunigern. Über die offene UALink-Schnittstelle sind sie verbunden. Das System soll über 31 Terabyte HBM4-Speicher mit einer Bandbreite von 1.400 TB/s verfügen. Die Softwarebasis bildet das offene AMD-ROCm-Ökosystem. Die Mitentwicklung mit Meta unterstreicht die strategische Bedeutung für Hyperscaler.

Marktanteile verdreifacht – Wachstum als Dauertrend

Die Roadmap spiegelt einen bemerkenswerten Aufstieg wider. AMDs Anteil am Markt für Server-CPUS stieg von unter einem Prozent 2017 auf fast 29 Prozent Ende 2025. Das Geschäft mit Rechenzentren wuchs im vierten Quartal 2025 um 39 Prozent im Jahresvergleich und ist zum Hauptwachstumstreiber geworden. AMD rechnet in den nächsten drei bis fünf Jahren mit einem jährlichen Plus von über 60 Prozent.

Der Schlüssel dazu ist der beschleunigte Produktzyklus. Statt alle paar Jahre stellt AMD nun jährlich neue Beschleuniger und Prozessoren vor. Analysten sehen darin eine notwendige Strategie, um im geschätzten KI-Markt von über einer Billion Euro bis 2030 mithalten zu können. Die modularen und offenen Rack-Designs sollen Energieeffizienz und Bandbreite über mehrere Produktgenerationen hinweg sichern.