NVIDIA steckt über 40 Milliarden Dollar in strategische Beteiligungen – darunter eine milliardenschwere Intel-Überraschung.
Die 40-Milliarden-Offensive: NVIDIA kauft sich die Zukunft
Im ersten Halbjahr 2026 hat NVIDIA sein Portfolio massiv ausgeweitet. Insgesamt sieben Milliarden-Deals in börsennotierte Unternehmen und rund zwei Dutzend Investments in Start-ups meldeten die Finanzberichte vom 9. Mai. Die spektakulärste Entwicklung: Eine ursprünglich auf fünf Milliarden Dollar (rund 4,6 Milliarden Euro) bezifferte Beteiligung an Intel ist inzwischen auf über 25 Milliarden Dollar angewachsen.
Während Giganten wie NVIDIA Milliarden in die Hardware-Zukunft investieren, nutzen viele Anwender das volle Potenzial von KI-Tools wie ChatGPT im Berufs- und Privatalltag noch kaum aus. Dieser kostenlose PDF-Report liefert sofort anwendbare Prompts und Strategien, um die Technologie effizient für eigene Aufgaben einzusetzen. ChatGPT als Alltagshelfer: Jetzt kostenlosen PDF-Report sichern
Der Chip-Gigant investierte zudem 3,2 Milliarden Dollar in den Glasfaserspezialisten Corning und 2,1 Milliarden in IREN. Weitere Investments flossen an Marvell, Lumentum, Coherent, CoreWeave und Nebius. Kritiker warnen vor zirkulären Verflechtungen, doch die NVIDIA-Führung betont: Es gehe um die Stärkung des gesamten Ökosystems. Branchenanalysten sehen darin einen „Competitive Moat“ – einen strategischen Schutzwall, der Lieferketten sichert und selbst traditionelle Rivalen wie Intel in die Abhängigkeit zwingt.
Rubins Designprobleme: NVIDIAs nächste Generation strauchelt
Doch während NVIDIA finanziell glänzt, kämpft die Hardware-Entwicklung mit technischen Hürden. Die für 2027/2028 erwarteten Plattformen Rubin und Rubin Ultra haben mit erheblichen Designproblemen zu kämpfen. Fünf Kernbereiche bereiten Ingenieuren Kopfzerbrechen: HBM4-Speichergeschwindigkeit, Fertigungsausbeute, Substratverzug, komplexe Multi-Power-Designs und eine notwendige Neukonstruktion der Kühlkörper.
Besonders die Rubin-Ultra-Plattform könnte abgespeckt werden. Statt vier Dies pro GPU sind nun offenbar nur zwei geplant. Die HBM4E-Integration soll von 16 auf 12 Stapel reduziert werden – der Speicher schrumpft von einem Terabyte auf rund 768 Gigabyte. Der Marktstart verschiebt sich damit in den Zeitraum 2027/2028.
AMD lauert: MI500 als NVIDIAs Albtraum?
Genau diese Verzögerung könnte AMD nutzen. Die nächste Generation MI500 ist für die zweite Jahreshälfte 2027 angekündigt – mit vier Dies und 12-fach gestapeltem HBM4E. Bereits jetzt hat AMD mit der Instinct MI350P nachgelegt, die am 9. Mai auf den Markt kam. Die PCIe-Karte basiert auf der CDNA-4-Architektur und ist für Inferenz in Standard-Servern von Dell, HPE, Lenovo, Cisco und Supermicro optimiert. Mit 128 Compute Units und 144 Gigabyte HBM3E-Speicher soll sie bei FP16- und FP8-Aufgaben 40 Prozent schneller sein als NVIDIAs H200 NVL.
MRC-Protokoll: Gemeinsam gegen das Netzwerk-Engpass
Ein Konsortium unter Führung von OpenAI, dem Intel, NVIDIA, AMD, Broadcom und Microsoft angehören, hat am 8. Mai das Multipath Reliable Connection (MRC)-Protokoll vorgestellt. Ziel: Netzwerküberlastung bei KI-Training mit über 100.000 GPUs vermeiden. Die Spezifikation, veröffentlicht über das Open Compute Project, nutzt NVIDIAs Spectrum-X-Ethernet-Technologie und soll Rechenzentren vereinfachen – massive GPU-Cluster lassen sich dann mit nur zwei Ethernet-Switch-Ebenen verbinden.
Die Zusammenarbeit ist kein Luxus. Anthropic sicherte sich am 8. Mai Zugang zum SpaceX-Rechenzentrum Colossus 1 – mit über 300 Megawatt Kapazität und mehr als 220.000 NVIDIA-GPUs. Amazon verpflichtete sich zu bis zu 5 Gigawatt, Microsoft und NVIDIA schlossen einen 30-Milliarden-Deal für Azure-Dienste ab.
Mit der rasanten technischen Entwicklung von KI-Systemen steigen auch die regulatorischen Anforderungen an Unternehmen in der EU massiv an. Damit Sie trotz technischer Sprünge rechtlich auf der sicheren Seite bleiben, bietet dieser Praxis-Leitfaden einen Überblick über alle Pflichten und Fristen des neuen AI Acts. EU-KI-Verordnung verstehen: Kostenlosen Umsetzungs-Leitfaden herunterladen
Apples Vision Pro: KI im Operationssaal
Auch im Consumer-Bereich tut sich einiges. Apple treibt seine Spatial-Computing-Strategie voran. Am 8. Mai listete der Konzern über 600 offene Stellen für die Vision-Pro-Plattform, schwerpunktmäßig im ASIC-Design und Hardware-Engineering. Das aktuelle Vision-Pro-M5-Modell bietet 120 Hertz Bildwiederholrate und verbesserte Pixeldichte. Erste medizinische Anwendungen zeigen das Potenzial: Chirurgen nutzen die Brille bei Katarakt-Operationen – Gestensteuerung ermöglicht sterile Arbeitsbedingungen, während Live-3D-Ansichten an globale Mentoren gestreamt werden.
Baidu und AMD: Spezialisierte Innovationen
Baidu veröffentlichte am 9. Mai sein Modell Ernie 5.1 und behauptet, die Trainingskosten lägen bei nur sechs Prozent der Branche. Durch extreme Parameterkompression wurde die Gesamtzahl der Parameter auf ein Drittel reduziert – bei gleichbleibender Leistung in kreativem Schreiben und logischem Denken.
AMD stellte zudem das neue Dense Geometry Format (DGF) vor, entwickelt mit Samsung. Es erreicht bis zu 30 Prozent Kompression für Geometriedaten und senkt die Speicherkosten für Raytracing auf aktuellen RDNA-4- und kommenden RDNA-5-GPUs.
Ausblick: 2027 als Schicksalsjahr
Die zweite Jahreshälfte 2027 wird richtungsweisend. Dann treffen AMDs HBM4-basierte MI500 und NVIDIAs überarbeitete Rubin-Architektur aufeinander. Der Flaschenhals verschiebt sich zunehmend von der Chip-Entwicklung hin zu Energie- und Netzwerkeffizienz. Mit dem MRC-Protokoll als offenem Standard hat die Industrie eine Blaupause für GPU-Cluster in nie dagewesener Größe. Die Frage ist nur: Wer liefert die Chips, wenn die Nachfrage explodiert?

