Kioxia hat eine neue Klasse von Solid-State-Drives vorgestellt, die KI-Berechnungen drastisch beschleunigen sollen. Die GP Series ermöglicht es Grafikprozessoren erstmals, direkt auf extrem schnellen Flash-Speicher zuzugreifen. Diese Technologie könnte Engpässe in Rechenzentren lösen und die Kosten für große KI-Modelle senken.
Während neue Hardware-Lösungen die technische Basis für den KI-Boom schaffen, müssen Unternehmen auch die rechtlichen Rahmenbedingungen im Blick behalten. Dieser kostenlose Leitfaden zur EU-KI-Verordnung erklärt Ihnen kompakt alle Anforderungen, Risikoklassen und Dokumentationspflichten. Jetzt kostenloses E-Book zur KI-Verordnung sichern
KI-Boom stößt an Speichergrenzen
Die Entwicklung immer größerer KI-Modelle mit Billionen von Parametern stellt die Hardware vor immense Herausforderungen. Der teure Hochgeschwindigkeitsspeicher (HBM) direkt an den Grafikchips wird zum limitierenden Faktor. Kioxias neue GP Series setzt genau hier an: Sie erweitert den für die GPU nutzbaren Speicherplatz, indem Daten direkt von der SSD abgerufen werden können.
Das entlastet den konventionellen Arbeitsspeicher und ermöglicht es, deutlich größere Datensätze zu verarbeiten, ohne die teure HBM-Kapazität exponentiell erhöhen zu müssen. Branchenbeobachter sehen darin einen Weg, die Gesamtbetriebskosten von Rechenzentren für KI-Training und -Inferenz spürbar zu senken. Die Daten werden näher an die Recheneinheiten gebracht, was die Auslastung der GPUs verbessert.
Partnerschaft mit NVIDIAs Storage-Next-Initiative
Die Entwicklung der GP Series ist eng mit NVIDIAs Storage-Next-Initiative verknüpft. Diese Partnerschaft zielt darauf ab, die traditionelle Speicherhierarchie zu umgehen. Flash-Speicher soll so zu einer direkten Erweiterung des GPU-Arbeitsspeichers werden.
Kioxias Ingenieure haben die Laufwerke für diese Architektur optimiert, um eine nahtlose Integration in NVIDIAs Hardware-Ökosystem zu gewährleisten. Makoto Hamada, Senior Director der SSD-Sparte bei Kioxia, betont die Bedeutung dieser Zusammenarbeit für die Zukunft der KI-Speicherarchitekturen. Die Technologie soll die enormen Datenmengen moderner generativer KI bewältigen können.
XL-FLASH-Technologie für maximale Geschwindigkeit
Das Herzstück der GP Series ist Kioxias proprietäre XL-FLASH Storage-Class-Memory-Technologie. Sie überbrückt die Leistungslücke zwischen flüchtigem Speicher und Standard-NAND-Flash. Die SSDs erreichen dadurch eine deutlich höhere Anzahl an Input/Output-Operationen pro Sekunde (IOPS) bei gleichzeitig geringerer Latenz als herkömmliche TLC-SSDs.
Ein Schlüsselmerkmal ist der feingranulare Datenzugriff auf 512-Byte-Ebene. Genau das benötigen KI-Workloads, die oft auf viele kleine Datenfragmente gleichzeitig zugreifen müssen. Zudem verbraucht die neue Architektur weniger Energie pro IOPS – ein entscheidender Vorteil angesichts des immensen Strombedarfs moderner KI-Rechenzentren.
CM9 Series: Spezial-SSD für KI-Cache-Speicher
Parallel zur GP Series präsentierte Kioxia die CM9 Series PCIe 5.0 E3.S SSD. Sie adressiert das Problem des wachsenden Cache-Speicherbedarfs, da KI-Sprachmodelle immer größere Kontextfenster verarbeiten.
Das Laufwerk mit 25,6 Terabyte TLC-Kapazität und einer Haltbarkeit von drei kompletten Schreibzyklen pro Tag ist für Architekturen wie NVIDIAs Context Memory Storage (CMX) konzipiert. Es erweitert die Speicherhierarchie über die GPU hinaus und soll skalierbare, kosteneffiziente KI-Infrastruktur ermöglichen.
Der technologische Fortschritt bei KI-Systemen bringt auch neue regulatorische Anforderungen für Entwickler und Anbieter mit sich. Erfahren Sie in diesem Gratis-Leitfaden, wie Sie Ihr KI-System richtig klassifizieren und welche Übergangsfristen Sie für die Einhaltung der neuen EU-Regeln beachten müssen. Kostenlosen Umsetzungsleitfaden herunterladen
Branche im Wandel: Vom Rechen- zum Speicher-Engpass
Die Einführung dieser Spezial-SSDs markiert einen Wendepunkt in der KI-Hardware. Jahrelang lag der Fokus auf reiner Rechenleistung. Jetzt, wo diese sprunghaft gestiegen ist, sind Speicher und Datentransfer zum neuen Flaschenhals geworden.
Technologien für die direkte GPU-zu-Speicher-Kommunikation gelten als entscheidend für die nächste KI-Generation. Sie reduzieren Latenzzeiten, indem sie CPU und System-RAM bei der Datenbeschaffung umgehen. Kioxias Ansatz spiegelt einen branchenweiten Konsens wider: Massive KI-Modelle erfordern eine Neugestaltung der traditionellen Speicherarchitektur. Im Erfolgsfall könnten solche SSDs den Zugang zu Groß-KI demokratisieren, indem Flash-Speicher als leistungsstarke Alternative zu teuren HBM-Konfigurationen dient.
Ausblick und Verfügbarkeit
Kioxia plant, Evaluierungsmuster der GP Series bis Ende 2026 an ausgewählte Kunden auszuliefern. Die CM9 Series soll bereits im dritten Quartal 2026 in die Musterauslieferung gehen.
Ihr erfolgreicher Einsatz dürfte weitere Innovationen bei Storage-Class Memory und Verbindungstechnologien antreiben. Mit wachsendem Erfolg der NVIDIA-Initiative werden wohl auch andere Anbieter vergleichbare Lösungen vorlegen. Kioxias Ankündigung signalisiert eine Reifung der KI-Hardware: Sie entwickelt sich hin zu hochspezialisierten, vernetzten Ökosystemen, die exakt auf die Anforderungen von maschinellem Lernen und datenintensivem Computing zugeschnitten sind.





