Die Zukunft der KI in der Cloud nimmt konkrete Form an: NVIDIA hat mit der Auslieferung seiner neuesten KI-Hardware an Amazon Web Services begonnen. Es ist der Startschuss für einen der größten Infrastruktur-Deals der Cloud-Geschichte.
Santa Clara/Seattle, 22. März 2026 – Nach den spektakulären Ankündigungen auf der NVIDIA GTC-Konferenz rollen nun die ersten Lieferungen der nächsten KI-Chip-Generation in die Rechenzentren von Amazon Web Services (AWS). Damit beginnt die Umsetzung eines Mehrjahresvertrags, der den Cloud-Riesen mit über einer Million Grafikprozessoren (GPUs) bis 2027 versorgen soll. Das Abkommen festigt die Position von AWS als zentrale Plattform für die kommende Ära der „agentischen KI“.
Während Giganten wie AWS die Hardware-Basis für die KI-Zukunft legen, müssen Unternehmen die neuen rechtlichen Leitplanken in Europa beachten. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen und Fristen der seit August 2024 geltenden EU-KI-Verordnung. Gratis E-Book zur KI-Verordnung herunterladen
Die ersten Einheiten der hochmodernen Blackwell-Architektur und frühe Komponenten der Rubin-Plattform trafen in den letzten 72 Stunden ein. Branchenanalysten sehen in diesem Deal eine der umfangreichsten Infrastrukturverpflichtungen überhaupt. Das Ziel ist klar: der unersättliche globale Hunger nach Rechenleistung für das Training generativer KI und Echtzeit-Inferenzen soll gestillt werden.
Ein Mega-Deal für die KI-Ära
Der Vertrag ist weit mehr als ein einfacher Hardwarekauf. NVIDIA wird mindestens sieben verschiedene Chip-Kategorien an AWS liefern. Neben den Schlagzeilen machenden GPUs umfasst das Abkommen auch spezielle Inferenz-Beschleuniger, Spectrum-X-Netzwerkhardware und ConnectX-8-Interconnects.
Die Auslieferung ist auf die rasante Expansion der globalen AWS-Regionen abgestimmt. Damit will AWS Engpässe vermeiden, die in den letzten zwei Jahren die KI-Entwicklung bei Start-ups und Konzernen immer wieder ausgebremst haben. Diese langfristige Planungssicherheit ist für AWS im erbitterten Wettkampf mit anderen Hyperscalern um die beste „KI-Fabrik“ entscheidend.
Die Integration der neuen Chips in die bestehende AWS-Infrastruktur beginnt noch in diesem Jahr. Sie werden das Rückgrat einer neuen Generation von Amazon EC2-Instanzen bilden. Diese Dimension untermauert die Prognose von NVIDIA-Chef Jensen Huang, dass das Marktpotenzial für die Blackwell- und Rubin-Chips langfristig eine Billion US-Dollar erreichen könnte.
Leistungssprung mit Blackwell und Rubin
Die neuen Architekturen bringen einen gewaltigen Sprung in der Rechendichte. AWS ist der erste große Cloud-Anbieter, der Unterstützung für die NVIDIA RTX PRO 4500 und 6000 Blackwell Server Edition GPUs ankündigt. Diese Chips sind für High-Performance-Workloads wie konversationelle KI, Videorendering und komplexe Datenanalysen konzipiert.
Die technischen Spezifikationen der neuen EC2 P6e-Series-Instanzen zeigen die Leistungsgewinne. Angetrieben vom NVIDIA GB200 Grace Blackwell Superchip können diese Systeme bis zu 72 GPUs in einer einzigen NVLink-Domain nutzen. Diese Konfiguration liefert beeindruckende 360 Petaflops an FP8-Rechenleistung und 13,4 TB Hochgeschwindigkeitsspeicher (HBM3e). Das integrierte AWS Nitro System sorgt für minimale Overheads und maximale Sicherheit, eine essentielle Voraussetzung für sensible Modelldaten.
Die Lieferung von Rubin-Komponenten zeigt zudem den Blick in die Zukunft. Während Blackwell auf aktuelle Herausforderungen mit Billionen Parametern ausgelegt ist, soll Rubin die nächste Front „agentischer“ Systeme unterstützen – KI, die eigenständig mehrstufige Aufgaben planen und ausführen kann. Mit den frühen Lieferungen positioniert sich AWS als erste Adresse für Forscher der anspruchsvollsten Foundation-Modelle.
Projekt Ceiba: Die Supercomputer-Allianz
Ein Herzstück der aktuellen Lieferungen ist die Hardware für Projekt Ceiba, eine gemeinsame Supercomputing-Initiative von NVIDIA und AWS. Der ursprünglich 2023 angekündigte Cloud-Supercomputer wurde nun für die Blackwell-Plattform upgegradet. Er entsteht exklusiv auf AWS mit 20.736 B200 GPUs und 10.368 NVIDIA Grace CPUs.
Diese cloud-basierte Rechenanlage ist auf geschätzte 414 Exaflops an KI-Leistung ausgelegt – eine sechsfache Steigerung gegenüber den vorherigen Plänen. Ceiba dient NVIDIA als interne Forschungs- und Entwicklungsmaschine für Fortschritte in digitaler Biologie, autonomen Fahrzeugen und Klimavorhersagen. Dass NVIDIA seine kritischste Forschungsinfrastruktur bei AWS hostet, unterstreicht die Tiefe der Partnerschaft.
Für AWS-Kunden hat das einen direkten Nutzen: Die Technologie aus Projekt Ceiba fließt später in kommerzielle Services ein. Der Supercomputer nutzt EFA-Netzwerke der vierten Generation mit 800 Gbps pro Superchip. Diese Hochgeschwindigkeitsverbindung ist essenziell für disaggregierte Inferenzen großer Sprachmodelle, bei denen ein einziges Modell über Tausende einzelne Chips verteilt wird, um Latenzen zu reduzieren.
Die Synergie aus Standard- und Eigenentwicklungen
Strategisch besonders interessant ist die Interaktion der NVIDIA-Hardware mit AWS‘ eigener Custom Silicon. In einer bemerkenswerten Hinwendung zu einer Hybrid-Strategie kündigte AWS Unterstützung für NVIDIA NVLink Fusion an. Diese Plattform erlaubt es, NVIDIA’s Hochgeschwindigkeits-Interconnects mit den eigenen Trainium4-Chips und Graviton-CPUs zu kombinieren.
Durch die Integration von NVLink Fusion in die AWS MGX Rack-Architektur vereinfacht das Unternehmen das Deployment und Management in seinen Rechenzentren. Dieser „Best-of-Both-Worlds“-Ansatz ermöglicht es AWS, Kunden das branchenübliche NVIDIA-Ökosystem anzubieten und gleichzeitig die Kosteneffizienz der hauseigenen Trainium-Beschleuniger zu nutzen. Berichten zufolge kann diese Integration die Performance von Apache Spark-Workloads auf Amazon EMR mit den neuesten NVIDIA-betriebenen Instanzen verdreifachen.
Zudem soll die Einführung der NVIDIA Inference Xfer Library (NIXL) auf AWS EFA revolutionieren, wie große Modelle bereitgestellt werden. NIXL optimiert die Kommunikation zwischen GPUs und AWS-Custom-Chips und verhindert Engpässe, die frühere Cloud-Architekturen plagten. Diese Synergie ist besonders relevant für die Managed-AI-Services unter dem Dach von Amazon Bedrock, wo diese Woche auch ein erweiterter Support für NVIDIA Nemotron-Modelle bestätigt wurde.
Marktanalyse: Der Kampf um die KI-Cloud
Die Lieferungen beginnen zu einem kritischen Zeitpunkt. Während KI von der Experimentier- in die Produktionsphase übergeht, wird die Zuverlässigkeit der zugrundeliegenden Hardware zum wettbewerbsentscheidenden Faktor. Finanzanalysten betonen, dass die schiere Menge der Bestellung AWS einen signifikanten Vorteil in Sachen Skaleneffekte und Kapazitätsverfügbarkeit verschafft.
Mit der rasanten Entwicklung von KI-Infrastrukturen steigen auch die Anforderungen an die Cyber-Sicherheit und die Einhaltung neuer technischer Gesetze. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen effektiv gegen moderne Bedrohungen wappnen und die IT-Sicherheit ohne Budget-Explosion stärken. Kostenlosen Cyber-Security-Leitfaden sichern
Verglichen mit Konkurrenten wie Google Cloud und Microsoft Azure verfolgt AWS eine „Full-Stack“-Strategie. Die tiefe Integration mit dem Nitro-System und die speziellen Flüssigkühlungsanforderungen der GB200 NVL72 Racks deuten auf eine hochgradig kundenspezifische Implementierung hin. Dieses Maß an Optimierung zielt auf Unternehmenskunden ab, die nicht nur rohe Rechenpower, sondern auch die Sicherheit und Stabilität etablierter Cloud-Umgebungen benötigen.
Ausblick: Globale Verfügbarkeit und Brancheneffekte
Während die ersten Blackwell- und Rubin-Chips installiert werden, richtet sich der Fokus auf die regionale Verfügbarkeit. AWS erwartet, dass die neuen EC2 P6e-GB200-Instanzen in den kommenden Wochen in primären Regionen wie US East (Nord-Virginia) verfügbar sein werden. Eine breitere globale Einführung ist für den Rest des Jahres 2026 geplant.
Die langfristigen Auswirkungen der Millionen-GPU-Lieferung werden wahrscheinlich in der Beschleunigung branchenspezifischer KI spürbar sein. Mit verbesserter Rechenkapazität werden Durchbrüche in Bereichen wie computerunterstützter Wirkstoffentwicklung und Genomanalyse erwartet. In ihrem 15. Partnerschaftsjahr stellen NVIDIA und AWS mit diesem Lieferzyklus sicher, dass sie im Zentrum der globalen KI-Industriellen Revolution bleiben – und den notwendigen „Rechen-Stoff“ für das nächste Jahrzehnt der digitalen Innovation bereitstellen.





