Nvidia und der Cloud-Spezialist CoreWeave bauen ihre Allianz mit einer Zwei-Milliarden-Euro-Investition massiv aus. Ziel ist der Aufbau einer neuen Generation von KI-Rechenzentren mit Nvidias kommender Rubin-Plattform.
Die Partnerschaft soll den dramatisch wachsenden Bedarf an KI-Rechenleistung decken. Bis 2030 plant CoreWeave, mehr als fünf Gigawatt an Rechenzentrumskapazität zu errichten – eine gewaltige Expansion, die Nvidias Investition beschleunigen soll. Das Geld fließt vor allem in die Beschaffung von Grundstücken und Stromanschlüssen. Für Nvidia sichert der Deal die schnelle Verbreitung seiner nächsten Hardware-Generation.
Strategische Verzahnung von Hardware und Cloud
Im Kern der erweiterten Zusammenarbeit steht die enge Integration von Infrastruktur, Software und Plattform-Technologien. CoreWeave wird zu einem der ersten großen Abnehmer von Nvidias Rubin-GPUs und Vera-CPUs. Diese Hardware, erst Anfang Januar 2026 auf der CES vorgestellt, soll die Kosten für das Training und den Betrieb komplexester KI-Modelle deutlich senken.
Doch es geht um mehr als nur Chips. Die Partner wollen auch CoreWeaves KI-native Software und Referenzarchitektur in Nvidias eigene Entwürfe für Cloud-Partner und Unternehmenskunden integrieren. Diese Abstimmung ist entscheidend, um die Leistung zu optimieren und reibungslose Interoperabilität zu gewährleisten, während KI-Modelle immer komplexer werden.
Die EU-KI-Verordnung ist seit dem 1. August 2024 in Kraft und betrifft Anbieter, Entwickler und Betreiber von KI-Systemen. Kennzeichnungspflichten, Risikoklassifizierung und umfangreiche Dokumentationsanforderungen können erhebliche Auswirkungen auf Cloud-Partner und Infrastrukturprojekte haben. Ein kostenloser Umsetzungsleitfaden erklärt praxisnah, welche Pflichten jetzt gelten, wie Sie Ihre Systeme korrekt klassifizieren und welche ersten Schritte Sie sofort umsetzen sollten — auch ohne juristische Vorkenntnisse. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen
Rubin-Plattform: Nvidias Antwort auf den KI-Boom
Die Rubin-Architektur, benannt nach der Astronomin Vera Rubin, ist ein durchdachtes Gesamtsystem. Sie vereint sechs speziell aufeinander abgestimmte Chips: Rubin-GPU, Vera-CPU, NVLink-6-Switch, ConnectX-9-SuperNIC, BlueField-4-DPU und Spectrum-6-Ethernet-Switch. Dieses Design soll Engpässe bei der Kommunikation und im Speicher beseitigen – die größten Hindernisse beim Hochskalieren von KI.
Bereits bei der Vorstellung kündigten Tech-Giganten wie Amazon Web Services, Google, Meta, Microsoft und OpenAI an, die Plattform einzusetzen. Erste Auslieferungen sind für das zweite Halbjahr 2026 geplant.
Im Wettlauf um die höchste Leistung
Noch vor dem Start scheint Nvidia die Spezifikationen der Rubin-Plattform nach oben anzupassen, um die Konkurrenz – vor allem von AMD – abzuhängen. Branchenberichten zufolge wurde die Leistungsaufnahme (TDP) der Rubin-GPU von ursprünglich 1,8 kW auf 2,3 kW erhöht. Mehr Spielraum für höhere Taktraten und größere Speicherbandbreite.
Tatsächlich soll die Speicherbandbreite des Rubin-Systems auf 22 TB/s gesteigert worden sein – ein Wert, der die Angaben konkurrierender Produkte übertrifft. Diese kontinuierlichen Verbesserungen unterstreichen den erbitterten Wettbewerb auf dem Markt für KI-Beschleuniger.
Infrastruktur-Wettlauf für die nächste KI-Generation
Nvidias Milliarden-Investition ist mehr als nur finanzielle Unterstützung. Es ist eine strategische Weichenstellung. Indem der Chip-Riese einen spezialisierten Cloud-Provider wie CoreWeave stärkt, schafft er sich selbst einen verlässlichen Absatzmarkt für seine Rubin- und Vera-Chips. Ein kluger Schachzug in einem Umfeld, in dem die nächste KI-Frontier von komplexen Reasoning- und agentenbasierten Modellen dominiert werden soll.
Der Zeitplan ist ambitioniert. Die ersten Rubin-basierten Systeme sollen noch 2026 ausgeliefert werden. Hyperscaler wie CoreWeave planen die vollständige Einführung zwischen dem vierten Quartal 2026 und dem ersten Quartal 2027. Die langfristige Roadmap bis 2030 zeigt: Der Aufbau der KI-Infrastruktur hat gerade erst begonnen – und Nvidia sichert sich mit dieser Partnerschaft eine Schlüsselposition.
PS: Laufende Übergangsfristen und Nachweispflichten der KI-Verordnung betreffen direkt Betreiber großer KI-Infrastrukturen. Viele Anbieter unterschätzen den Aufwand für Dokumentation, Kennzeichnung und Risikobewertung — das kann zu Lieferverzögerungen oder rechtlichen Problemen führen. Das kostenlose E-Book liefert einen klaren Maßnahmenplan mit Checklisten und Vorlagen speziell für Unternehmen und Cloud-Provider, die KI-Systeme bereitstellen oder betreiben. Gratis Umsetzungsleitfaden zur KI-Verordnung herunterladen





