NVIDIA steuert mit einer umfassenden Neuausrichtung auf einen Kundenauftragsbestand von einer Billion Euro bis 2027 zu. Auf der GTC-Konferenz stellte der Technologieriese die KI-Plattform Vera Rubin vor und integrierte die Technologie des übernommenen Unternehmens Groq. Damit wandelt sich NVIDIA vom reinen Chip-Hersteller zum Anbieter kompletter KI-Infrastruktur-Lösungen.
Während NVIDIA die technologische Basis für die nächste KI-Generation schafft, müssen Unternehmen bereits heute die neuen rechtlichen Rahmenbedingungen der EU beachten. Dieser kostenlose Leitfaden erklärt Ihnen kompakt die Anforderungen und Fristen der neuen KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt kostenlosen Umsetzungsleitfaden sichern
Der Billionen-Euro-Schub durch KI-Inferenz
Der zentrale Treiber für die explodierende Nachfrage ist der Übergang vom KI-Training zur praktischen Anwendung, der sogenannten Inferenz. Künstliche Intelligenz verlässt die Lernphase und wird in autonomen Agenten aktiv. Diese „agentische KI“ benötigt eine völlig neue Infrastruktur.
Diese Entwicklung spiegelt sich in den beeindruckenden Zahlen wider: Während NVIDIA für seine Blackwell- und Rubin-Architekturen 2025 noch mit 500 Milliarden Euro an festen Aufträgen rechnete, hat sich die Prognose nun verdoppelt. Bis Ende 2027 erwartet das Unternehmen kumulierte Bestellungen von mindestens einer Billion Euro. Analysten sehen darin ein klares Signal für anhaltendes Wachstum und eine Entwarnung für Investoren, die einen Peak der KI-Investitionen fürchteten.
Vera Rubin und Groq: Das Herzstück der neuen Hardware
Kern der Strategie ist die Vera Rubin-Plattform, die NVIDIA als umfassendstes Supercomputing-System bezeichnet. Es handelt sich nicht um einzelne Chips, sondern um schlüsselfertige Rack-Lösungen für „KI-Fabriken“. Die Top-Konfiguration NVL72 kombiniert 72 Rubin-GPUs mit 36 neuen Vera-CPUs. Die nächste Generation der NVLink-Verbindung reduziert die Latenz auf Mikrosekunden.
Zudem integriert NVIDIA offiziell die Technologie der 20-Milliarden-Euro-Übernahme von Groq. Das Highlight ist der Groq-3-LPU (Language Processing Unit), ein spezialisierter Inferenz-Beschleuniger für Auslieferung im dritten Quartal 2026. Ein Rack mit 256 dieser Prozessoren soll agentische Systeme mit großem Kontext extrem schnell machen. Die Kombination aus Vera Rubin und Groq-Technologie eröffnet NVIDIA eine neue Premium-Klasse für Hyperscale-Rechenzentren.
Netzwerk-Revolution mit Spectrum X
Um Tausende KI-Prozessoren zu koordinieren, braucht es leistungsfähige Netzwerke. Hier lanciert NVIDIA Spectrum X, den ersten in Serie produzierten Switch mit Co-Packaged Optics (CPO). Dabei werden optische Module direkt neben dem Switch-Chip platziert, nicht mehr als steckbare Einheiten.
Diese Architektur steigert die Energieeffizienz um das Fünffache. Jeder Port erreicht eine Bandbreite von zwei Terabit pro Sekunde bei höherer Zuverlässigkeit. Dieses Netzwerk-Rückgrat ist entscheidend, um die gewaltigen Workloads der Vera Rubin-Plattform zu bewältigen und Engpässe in Echtzeit-KI-Anwendungen zu vermeiden.
Der technologische Fortschritt durch KI-Systeme bringt auch neue Sicherheitsrisiken und gesetzliche Pflichten für Geschäftsführer und IT-Verantwortliche mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen 2024 effektiv schützen und die aktuellen KI-Gesetze richtig umsetzen. Kostenloses E-Book: Cyber Security Trends und neue KI-Gesetze entdecken
Blick in die Zukunft: Feynman und Orbital-Rechenzentren
Für die Zeit nach Vera Rubin gab NVIDIA bereits Einblicke in die Feynman-Architektur für 2028. Sie wird eine neue Rosa-CPU und einen fortschrittlichen LP40-LPU einführen, basierend auf komplexen Die-Stacking-Techniken. Geplant ist auch der Übergang zu optischen NVLink-Verbindungen für noch mehr Bandbreite.
Darüber hinaus arbeitet NVIDIA an einem visionären Projekt: dem Vera Rubin Space Module. Als Teil einer langfristigen Vision für Orbital-Rechenzentren entwickelt das Unternehmen Lösungen für die Kühlung von Hochleistungsrechnern im Vakuum des Weltraums, wo klassische Kühlmethoden versagen. Dies soll in Zukunft geospatiale Intelligenz und autonome Raumfahrtmissionen unterstützen.
Analyse: NVIDIA setzt den Standard für die KI-Ära
Der aggressive Fahrplan unterstreicht einen Branchentrend hin zu spezialisierter, integrierter KI-Infrastruktur. Große Cloud-Anbieter positionieren sich bereits: Google Cloud will die Vera-Rubin-Racks ab der zweiten Hälfte 2026 in seiner AI-Hypercomputer-Architektur anbieten. Meta sicherte sich eine 27-Milliarden-Euro-Partnerschaft mit dem europäischen Anbieter Nebius, um Kapazitäten mit NVIDIAs nächster Hardware-Generation zu garantieren.
NVIDIAs Wandel vom Prozessor-Verkäufer zum Anbieter kompletter „Data Factory“-Blaupausen verändert das Wettbewerbsfeld grundlegend. Mit einem kompletten Stack – inklusive der Agenten-Plattform NemoClaw und Open-Source-Stacks wie OpenShell – schafft NVIDIA ein Ökosystem, gegen das Konkurrenten nur schwer mit reiner Chip-Leistung antreten können. Die Integration der Groq-Technologie zielt gezielt auf das lukrativste Segment des künftigen KI-Marktes ab und soll NVIDIA als Fundament für Enterprise-KI zementieren.





