NVIDIA und Google Cloud schmieren Allianz für KI-Agenten

Google Cloud integriert NVIDIAs Vera Rubin- und Blackwell-GPUs, um eine Plattform für physische und agentenbasierte KI zu schaffen. Parallel treibt Google eigene TPU-Chips für den Inferenz-Markt voran.

Der Fokus liegt auf der nächsten KI-Generation: physischer und agentenbasierter KI. Dafür integriert Google die kommende NVIDIA Vera Rubin-Architektur sowie die aktuellen Blackwell-GPUs tief in seine globale Cloud-Infrastruktur. Ziel ist es, Unternehmen eine nahtlose Plattform für komplexe, autonome KI-Agenten zu bieten.

Die Ankündigung fällt in eine Phase des Umbruchs. Cloud-Anbieter konkurrieren nicht mehr nur mit Rechenleistung, sondern mit der Effizienz ganzer Systeme. Durch die Kombination von NVIDIAs Spitzen-Hardware mit Googles eigener Software- und Netzwerkschicht wollen beide Giganten die wachsende Nachfrage nach Echtzeit-Inferenz und großskaligem Modell-Training bedienen.

Anzeige

Während Google und NVIDIA den Weg für komplexe KI-Agenten ebnen, rücken auch die rechtlichen Anforderungen an diese Systeme in den Fokus. Dieser kostenlose Leitfaden bietet Unternehmen einen kompakten Überblick über alle Pflichten und Fristen der neuen EU-KI-Verordnung. Umsetzungsleitfaden zum EU AI Act kostenlos herunterladen

Vera Rubin und Blackwell: Die Hardware-Basis für KI-Agenten

Herzstück der erweiterten Zusammenarbeit sind die neuen A5X Bare-Metal-Instanzen auf Basis der NVIDIA Vera Rubin-GPUs. Sie sollen auf bis zu eine Million Rubin-GPUs skaliert werden können – eine Rechendichte, die für physikalische KI-Simulationen und wissenschaftliche Hochleistungsrechnen nötig ist.

Parallel zeigte Google einen Vorgeschmack auf Gemini, betrieben auf der Google Distributed Cloud und unterstützt von NVIDIA Blackwell-GPUs. Diese Lösung bringt Hochleistungs-KI an den Netzwerkrand und in souveräne Cloud-Umgebungen. Ein Novum sind auch die ersten Confidential-Computing-Instanzen mit Blackwell-GPUs, die sensible KI-Workloads hardwarebasiert abschirmen.

Bereits heute nutzen Kunden wie Thinking Machines Lab die Vorgänger-Generation A4X Max mit GB300-Systemen für Modelltraining. OpenAI setzt laut Berichten auf GB300-basierte Konfigurationen für ChatGPT-Inferenz. NVIDIA verweist auf Leistungssprünge: Die Blackwell-GPUs seien für bestimmte Inferenz-Aufgaben bis zu 55-mal schneller als die Vorgänger-Generation Hopper.

Die Ära der KI-Agenten: Software-Orchestrierung mit Gemini und Nemotron

Die Partnerschaft geht weit über Hardware hinaus. Im Fokus steht das, was Analysten das „agentische Unternehmen“ nennen. Google und NVIDIA integrieren die NVIDIA-Frameworks Nemotron und NeMo in die Gemini Enterprise Agent Platform. Das soll die Entwicklung autonomer KI-Agenten vereinfachen, die mehrstufige Aufgaben über verschiedene Software-Umgebungen hinweg ausführen können.

Google stellte auf der Konferenz das Agent Development Kit (ADK) 2.0 und ein neues Multi-Agenten-Orchestrierungsprotokoll namens A2A vor. Dieses Protokoll, an dem bereits über 50 Partner beteiligt sind, soll als eine Art Betriebssystem für Unternehmens-KI dienen. Durch die Kombination von Gemini-Modellen mit NVIDIAs NIM-Microservices können Entwickler maßgeschneiderte Agenten für Industrie- oder Cybersicherheits-Anwendungen bauen.

Zu den frühen Nutzern zählt CrowdStrike, das NVIDIA NeMo für seine Cybersicherheits-Operationen einsetzt. Snap Inc. berichtet von 76 Prozent geringeren Kosten durch optimierte KI-Infrastruktur. Das Biotech-Unternehmen Schrödinger nutzt die Plattform für die Wirkstoffforschung. Um die Adoption weiter anzukurbeln, kündigte Google Cloud einen Fonds in Höhe von 750 Millionen US-Dollar zur Unterstützung von KI-Projekten in Unternehmen an.

Anzeige

Die rasanten Fortschritte bei KI-gesteuerten Systemen bringen nicht nur Effizienz, sondern auch neue Herausforderungen für die IT-Sicherheit mit sich. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Ihr Unternehmen proaktiv vor modernen Bedrohungen schützen und gesetzliche Anforderungen erfüllen. Gratis-Ratgeber: Cyber Security im Unternehmen stärken

Googles Doppelstrategie: Eigene TPU v8 als Partner und Konkurrent

Während Google die Partnerschaft mit NVIDIA ausbaut, verfolgt das Unternehmen eine klare Doppelstrategie. Parallel stellte Google Cloud die achte Generation seiner hauseigenen Tensor Processing Units (TPUs) vor. Erstmals gibt es zwei spezialisierte Chips: den TPU 8t („Sunfish“) für Training und den TPU 8i („Zebrafish“) für Inferenz.

Der TPU 8t bietet laut Google fast die dreifache Leistung seines Vorgängers TPU v7 bei ähnlichem Preis. Der auf Inferenz optimierte TPU 8i soll eine 80 Prozent bessere Preis-Leistung bieten. Um Engpässe bei speicherintensiven Aufgaben zu vermeiden, verfügt er über 288 GB Hochgeschwindigkeitsspeicher (HBM).

Analysten deuten dies als strategischen Schachzug: Google positioniert sich damit als direkter Konkurrent NVIDIAs im lukrativen Inferenz-Markt, bleibt aber gleichzeitig einer der größten Vertriebspartner für NVIDIAs High-End-GPUs. Diese Balance ist entscheidend, da Google seine TPU-Infrastruktur auch an große KI-Rivalen wie Meta und Anthropic verkauft. Schätzungen aus dem Jahr 2025 bewerteten Googles TPU- und DeepMind-Geschäft auf etwa 900 Milliarden US-Dollar.

Marktdruck und die Zukunft der KI-Hardware

Die Ankündigungen fallen in eine gegenwärtige Phase der Halbleiterbranche. Erst am 22. April 2026 verkündete das US-Startup Bolt Graphics den erfolgreichen „Tape-Out“ seiner Zeus-GPU. Der Chip, gefertigt in einem TSMC-12nm-Verfahren, soll Path-Tracing fünfmal schneller als NVIDIAs GeForce RTX 5090 bei weniger als der Hälfte des Stromverbrauchs liefern. Die Massenproduktion ist für Ende 2027 geplant, doch der Vorstoß zeigt den wachsenden Innovationsdruck auf die Marktführer.

Auch NVIDIA selbst durchläuft einen Wandel. Berichten vom 21. April zufolge könnte das Unternehmen eine neue GeForce-Generation 2026 auslassen, um sich auf sein hochprofitables KI-Chipgeschäft zu konzentrieren. Bei Marge von geschätzt 69 Prozent in der KI-Sparte gegenüber 40 Prozent im Gaming, soll die Produktion von Gaming-GPUs um bis zu 40 Prozent gedrosselt werden. Diese Neuausrichtung spiegelt sich auch in Software wie dem diese Woche veröffentlichten DLSS 4.5 SDK wider, das die Bildraten der RTX-50-Serie durch neue KI-Modelle versechsfachen kann.

Selbst im Consumer-Bereich zeichnen sich Verschiebungen ab. Bei Apple wird Hardware-Chef John Ternus am 1. September 2026 Tim Cook als CEO beerben. Ihm wird nachgesagt, die Hardware-Entwicklung des Konzerns stärker auf eine zentrale KI-Plattform auszurichten. Dieser Führungswechsel folgt auf einen Bericht über einen 95-prozentigen Einbruch der Vision Pro-Verkäufe 2025. Der Fokus soll sich nun auf KI-gestützte Smart Glasses und faltbare Geräte verlagern, die für 2027 erwartet werden.