Nvidias neue KI-Giganten brauchen speziellen Speicher – und nur zwei südkoreanische Hersteller liefern ihn. Die exklusiven Lieferverträge für die Vera-Rubin-Architektur verändern den globalen Halbleitermarkt.
Ein Quantensprung für KI-Rechenkraft
Auf seiner GTC-Konferenz in San Jose hat Nvidia diese Woche die nächste Generation seiner KI-Beschleuniger enthüllt. Die „Vera Rubin“-Architektur setzt neue Maßstäbe, vor allem beim Speicher. Ein einzelner Rubin-Grafikchip soll bis zu 288 Gigabyte des neuesten High-Bandwidth Memory (HBM4) integrieren. Das ermöglicht eine nie dagewesene Bandbreite von 22 Terabyte pro Sekunde.
Während Nvidia die Hardware-Basis für die KI-Revolution schafft, stehen Unternehmen vor neuen Sicherheitsherausforderungen durch künstliche Intelligenz. Dieser Experten-Report enthüllt effektive Strategien, wie sich mittelständische Betriebe ohne Budget-Explosion gegen moderne Cyberkriminelle wappnen können. Effektive Strategien gegen Cyberkriminelle entdecken
Warum ist das so entscheidend? Moderne KI-Modelle wie große Sprachsysteme hungern nach Daten. Der neue Speicher erlaubt es Rechenzentren, Anfragen schneller zu bearbeiten und dabei gleichzeitig den Energieverbrauch pro Operation zu senken. Zusätzlich verbindet die neue NVLink-6-Technologie die Prozessoren mit extrem hoher Geschwindigkeit – eine Grundvoraussetzung für komplexe KI-Modelle, bei denen Daten in Mikrosekunden zwischen Chips fließen müssen.
Südkoreas Duopol bei der Schlüsseltechnologie
Die hohen Anforderungen Nvidias haben den Wettbewerb um die lukrativen Lieferverträge entschieden. Wie Branchenberichte Mitte März bestätigten, gehen die exklusiven Aufträge für die Flaggschiff-Chips an Samsung Electronics und SK Hynix. Der US-Konkurrent Micron muss sich vorerst mit der Belieferung von Mittelklasse-Modellen begnügen.
Beide südkoreanischen Giganten haben die strengen Qualifikationstests für HBM4 bestanden, das mit über 10 Gigabit pro Sekunde arbeitet – deutlich schneller als der Industriestandard. Die Lieferungen laufen bereits an. Diese Exklusivverträge festigen die Marktmacht der beiden Unternehmen nachhaltig. Analysten prognostizieren, dass SK Hynix 2026 etwa die Hälfte von Nvidias gesamter HBM-Nachfrage bedienen wird. Samsung soll seinen globalen Marktanteil von 20 auf 28 Prozent steigern.
Warum Gerüchte um SRAM-Chips den HBM-Boom nicht bremsen
Vor der Konferenz kursierten Spekulationen über einen neuen Nvidia-Chip, der verstärkt auf SRAM-Speicher setzt. Könnte diese Technologie den Hype um HBM4 dämpfen? Experten geben Entwarnung.
Die beiden Speichertypen erfüllen grundverschiedene Aufgaben. SRAM dient als ultraschneller Zwischenspeicher direkt auf dem Chip und reduziert Latenzen. Für die gewaltigen Datenmengen, die moderne KI-Modelle als Hauptspeicher benötigen, ist SRAM jedoch ungeeignet. Die Bauteile benötigen fünf- bis zehnmal mehr Platz auf dem Silizium, was sie für große Kapazitäten unpraktisch und unwirtschaftlich macht. HBM bleibt daher die unverzichtbare Schlüsselkomponente für KI-Rechenzentren.
Nvidia treibt den Infrastruktur-Wandel voran
Der Rollout der Rubin-Plattform nur 18 Monate nach dem Vorgänger „Blackwell“ zeigt Nvidias Strategie: Das Unternehmen will seine Monopolstellung in der High-End-KI-Infrastruktur verteidigen. Die Führungsetage signalisiert den Speicherherstellern, dass sie ihre Produktionskapazitäten bedenkenlos ausbauen können – Nvidia werde die gesamte verfügbare HBM4-Produktion abnehmen.
Der rasante technologische Wandel bringt auch neue rechtliche Anforderungen mit sich, die Geschäftsführer jetzt kennen müssen. Erfahren Sie in diesem kostenlosen Leitfaden, welche neuen KI-Gesetze Ihr Unternehmen betreffen und wie Sie Ihre IT-Sicherheit ohne teure Investitionen zukunftssicher aufstellen. Kostenloses E-Book zu KI-Gesetzen und Cyber Security sichern
Diese Garantie verleiht dem Konzern einen enormen Vorteil gegenüber Wettbewerbern, die sich solche exklusiven Lieferketten nicht sichern können. Der rasanter Innovationszyklus zwingt Cloud-Anbieter und Unternehmen zu ständigen Upgrades. Gleichzeitig treibt die immense Leistungsdichte der neuen Chips sekundäre Märkte an: Da die Systeme immer mehr Wärme entwickeln, müssen Rechenzentren auf fortschrittliche Flüssigkühlung und leistungsstärkere Stromversorgungen umrüsten.
Ausblick: Volle Produktion startet im zweiten Halbjahr
Die Serienproduktion der Vera-Rubin-Systeme ist für das zweite Halbjahr 2026 geplant. Die größte Herausforderung wird die Lieferkette sein. Die Kapazitäten des taiwanischen Herstellers TSMC für die 3-Nanometer-Fertigung und die Ausbeute bei der HBM4-Produktion sind die entscheidenden Engpässe für das globale KI-Wachstum.
Gelingt der reibungslose Rollout, könnte eine neue Ära physischer KI und autonomer Agenten beginnen. Für den Speichermarkt ist klar: Die Abhängigkeit von Hochbandbreiten-Lösungen macht Südkoreas Halbleiterriesen zu unverzichtbaren Partnern im globalen KI-Boom. Die Branche wird die Umsetzung der Lieferverträge genau beobachten, um die wahren Grenzen der KI-Hardware auszuloten.





