Der KI-Chip-Primus kämpft mit Designproblemen bei seiner nächsten Architektur – während AMD aufholt und Cloud-Riesen auf Eigenentwicklungen setzen.
Die Gerüchteküche um Nvidias kommende Rubin-Architektur brodelt. Brancheninsidern zufolge kämpfen die Entwickler mit erheblichen technischen Herausforderungen bei den Plattformen Rubin und Rubin Ultra. Konkret geht es um Probleme bei der Integration des neuen HBM4-Speichers, Fertigungsausbeute und sogenanntem Substrat-Warpage – ein typisches Problem bei hochkomplexen Chip-Gehäusen.
Während die Hardware-Giganten um die technologische Vorherrschaft ringen, müssen Unternehmen ihre bestehende IT-Infrastruktur schon heute vor neuen Bedrohungen schützen. Dieser kostenlose Ratgeber zeigt Ihnen, wie Sie Ihre Cyber Security stärken und gesetzliche Anforderungen ohne hohe Investitionen erfüllen. Gratis-E-Book: IT-Sicherheit proaktiv stärken
Abstriche bei den Spezifikationen
Die Folge: Nvidia musste die Zielvorgaben für das Spitzenmodell Rubin Ultra nach unten korrigieren. Statt der ursprünglich geplanten Vier-Die-Konfiguration pro GPU setzt der Konzern nun auf ein Zwei-Die-Design. Auch beim Speicher wurde zurückgerudert: Statt eines Terabytes HBM4E mit 16-High-Stapeln sind jetzt 768 Gigabyte mit 12-High-Stapeln vorgesehen.
Die Ingenieure arbeiten zudem an einem Multi-Power-Design und einer komplett neuen Wärmeverteilung. Die Massenproduktion des Rubin Ultra ist für September 2026 anvisiert – ein ambitionierter Zeitplan angesichts der offenbar noch ungelösten Probleme.
AMD schickt MI350P ins Rennen
Während Nvidia an seinen Baustellen schweißt, nutzt der Erzrivale AMD die Gunst der Stunde. Erst vor wenigen Tagen brachte das Unternehmen den Instinct MI350P auf den Markt – den ersten AMD-Beschleuniger im PCIe-Format seit vier Jahren. Der Chip basiert auf der CDNA-4-Architektur und kombiniert TSMCs 3nm- mit 6nm-Prozessen.
Die technischen Daten können sich sehen lassen: 128 Compute Units, 8.192 Stream-Prozessoren und 512 Matrix-Kerne bei 2,2 GHz Takt. Ausgestattet mit 144 GB HBM3E-Speicher und 4 TB/s Bandbreite, soll der MI350P bei FP16- und FP8-Workloads 40 Prozent schneller sein als sein Vorgänger. Zielgruppe ist klar das Nvidia H200 NVL.
In einer Standard-2U-Server-Konfiguration kommen acht dieser Karten auf satte 1.152 GB HBM3E und 32 TB/s Bandbreite. Die Rechnung scheint aufzugehen: Im ersten Quartal 2026 meldete AMD einen Rekord-Datacenter-Umsatz von 5,8 Milliarden Euro – ein Plus von 57 Prozent zum Vorjahr. Damit überholte AMD Intel beim vierteljährlichen Datacenter-Umsatz erstmals in einem ersten Quartal.
Nvidias Milliarden-Poker
Um seine Dominanz zu sichern, setzt Nvidia auf eine aggressive Investitionsstrategie. Bereits über 40 Milliarden Euro hat der Konzern in diesem Jahr in KI-Firmen gesteckt. Der größte Brocken: 30 Milliarden Euro für eine Beteiligung an OpenAI. Weitere Milliarden flossen an Corning, IREN, Marvell, Lumentum, Coherent, CoreWeave und Nebius.
Branchenanalyst Matthew Bryson von Wedbush sieht darin den Versuch, einen Schutzwall um Nvidias Ökosystem zu errichten. Kritiker sprechen von „zirkulären Investitionen“ – die Empfänger des Geldes kaufen damit schließlich Nvidia-Hardware. Finanzieren kann sich der Konzern das locker: Im vergangenen Geschäftsjahr lag der Free Cashflow bei 97 Milliarden Euro.
Der rasante KI-Fortschritt bringt nicht nur neue Chancen, sondern auch komplexe rechtliche Pflichten und neue Cyberrisiken für Unternehmer mit sich. Erfahren Sie in diesem kostenlosen Report, welche Sicherheitslücken Sie jetzt schließen müssen, um Ihr Unternehmen langfristig abzusichern. Jetzt kostenloses Cyber-Security-E-Book sichern
Der Trend zur Eigenentwicklung
Trotz einer Milliarden-Bestellung von Amazon AWS über eine Million Nvidia-GPUs bis Ende 2027 zeichnet sich ein fundamentaler Wandel ab. Die großen Cloud-Anbieter setzen zunehmend auf eigene Chips. Amazon verbaut inzwischen mehr eigene Trainium-Chips als Nvidia-Einheiten – ein Großteil der Bedrock-Workloads läuft auf Eigenentwicklungen. Der Auftragsbestand für Trainium-Dienste liegt bei 225 Milliarden Euro.
Auch Google (TPU) und Microsoft (Maia) treiben eigene Projekte voran. Ziel ist es, die sogenannte „Nvidia-Steuer“ zu umgehen – ein Begriff, der in der Branche für Nvidias hohe Margen steht.
Ausblick: Entscheidende 18 Monate
Die kommenden eineinhalb Jahre werden über die Kräfteverhältnisse in der KI-Hardware entscheiden. Nvidia peilt die Massenproduktion des Rubin Ultra für September 2026 an. AMD kontert bereits mit der MI500-Serie für die zweite Jahreshälfte 2027 – mit Vier-Die-Konfiguration und 12-High-HBM4E.
Doch der Markt schaut längst nicht mehr nur auf rohe Rechenleistung. Chinesische Anbieter wie Baidu zeigen mit ihrem Ernie 5.1-Modell, dass Effizienz Trumpf ist: Die Vortrainingskosten lagen bei nur sechs Prozent vergleichbarer Industriemodelle.
Gleichzeitig forcieren Regierungen in Europa, Asien und dem Nahen Osten den Aufbau souveräner KI-Infrastrukturen mit diversifizierten Lieferketten. AMD positioniert sich als die primäre Alternative für alle, die sich aus der Abhängigkeit von Nvidia lösen wollen. Ob Nvidias Rubin-Plattform pünktlich und in voller Leistung kommt, wird entscheiden, ob der Konzern seine Vormachtstellung halten kann – oder ob die Kombination aus Eigenentwicklungen und schärferer Konkurrenz seinen Marktanteil weiter schrumpfen lässt.

