Mit der neuen TPU 8-Generation führt der Konzern erstmals getrennte Chips für Training und Betrieb von KI-Modellen ein – ein direkter Schlag gegen die hohen Kosten der KI-Revolution.
Die Ankündigung auf der Cloud Next 2026 markiert einen strategischen Wendepunkt. Statt eines Allzweck-Chips bietet Google nun den leistungsstarken TPU 8t für das Training riesiger Modelle und den effizienten TPU 8i für den täglichen Betrieb. Hinter der Aufspaltung steht der immense Druck, den Energieverbrauch und die Betriebskosten generativer KI in den Griff zu bekommen. Gleichzeitig positioniert sich Google damit als ernsthafter Konkurrent zu NVIDIA, ohne die Partnerschaft mit dem GPU-Marktführer aufzukündigen.
Während Google die Hardware-Basis für immer mächtigere KI-Systeme schafft, wachsen auch die regulatorischen Anforderungen für deren Einsatz in Europa. Erfahren Sie in diesem kostenlosen Leitfaden, wie Sie die Vorgaben der EU-KI-Verordnung rechtssicher umsetzen und welche Systeme als Hochrisiko eingestuft werden. Kostenlosen Umsetzungsleitfaden zum EU AI Act herunterladen
TPU 8t: Rekordleistung für das Training der Zukunft
Der unter dem Codenamen Sunfish entwickelte TPU 8t zielt auf die größten Rechenprobleme ab. Der Chip soll die Trainingszeiten von Spitzenmodellen von Monaten auf Wochen verkürzen. In der Maximalkonfiguration eines Superpods mit 9.600 Chips erreicht er laut technischen Daten eine Leistung von 121 FP4-Exaflops – das ist fast das Dreifache der Vorgängergeneration.
Ein Schlüssel für diesen Sprung ist die native Unterstützung des FP4-Datenformats und eine verdoppelte Bandbreite zwischen den Chips. Die neue TPUDirect Storage-Technologie verspricht zudem einen zehnmal schnelleren Speicherzugriff. Besonders wichtig angesichts explodierender Stromrechnungen: Die Leistung pro Watt soll um 124 Prozent gestiegen sein. Damit sollen Rechenzentren Cluster mit bis zu 134.000 Chips wirtschaftlich betreiben können.
TPU 8i: Durchbruch bei den Betriebskosten
Während der 8t auf maximale Leistung setzt, adressiert der TPU 8i (Zebrafish) das vielleicht drängendste Problem: die hohen Kosten für den KI-Betrieb. Entwickelt in Zusammenarbeit mit MediaTek, ist der Chip auf hocheffiziente Inferenz – also die Anwendungsphase – und lange Kontexte optimiert.
Der Chip durchbricht die sogenannte Memory Wall mit dreimal mehr On-Chip-SRAM (384 MB) und 288 GB High-Bandwidth-Memory. Diese Ausstattung ist ideal für komplexe Multi-Agenten-Systeme, bei denen KI-Assistenten eigenständig zusammenarbeiten. Google verspricht eine um 80 Prozent verbesserte Leistung pro Dollar gegenüber der letzten Generation. Für Unternehmen könnte das die laufenden KI-Kosten um 40 bis 50 Prozent senken.
Googles Doppelstrategie im harten Wettbewerb
Neben der Hardware präsentierte Google am 22. April eine neue Softwareebene: die Gemini Enterprise Agent Platform. Sie soll als Steuerzentrale für die Arbeit mehrerer KI-Agenten dienen. Zudem stellte der Konzern einen 750-Millionen-Euro-Fonds zur Unterstützung von Unternehmen bei der KI-Infrastruktur in Aussicht.
Mit dem Einzug leistungsstarker KI-Technologien in die Unternehmens-IT entstehen völlig neue Angriffsflächen und rechtliche Verantwortlichkeiten für Verantwortliche. Dieser kostenlose Report klärt auf, welche neuen Cyberrisiken auf Sie zukommen und welche rechtlichen Pflichten Unternehmer jetzt kennen müssen. Gratis-Report: Neue KI-Gesetze und Cyberrisiken verstehen
Die Timing ist kein Zufall. Der Cloud-Bereich von Google verzeichnete im vierten Quartal 2025 ein Umsatzplus von 48 Prozent auf 17,7 Milliarden Dollar. Gleichzeitig herrscht im Halbleitermarkt hektische Aktivität. Berichten zufolge hat NVIDIA die Produktion von Gaming-GPUs um 40 Prozent gekürzt, um sich auf lukrative KI-Chips zu konzentrieren. Engpässe bei HBM-Speicher verschärfen die Lage.
Auch neue Player drängen auf den Markt. Das Startup Bolt Graphics gab am selben Tag die Fertigstellung seines Zeus-GPU-Designs bekannt, das bei der Pfadverfolgung die fünffache Leistung einer RTX 5090 bei halbem Stromverbrauch verspricht. Und Südkorea stattet Startups kostenlos mit Tausenden NVIDIA-GPUs aus, um im globalen KI-Wettlauf mithalten zu können.
Was die Aufspaltung für den Markt bedeutet
Die Trennung von Trainings- und Inferenz-Hardware spiegelt einen reiferen Markt wider. Die Ära des Allzweck-KI-Chips neigt sich dem Ende zu. Googles duale Strategie zielt darauf ab, mit dem 8t im Hochleistungs-Training mitzuhalten und mit dem kostengünstigen 8i den Betrieb in der Breite zu erobern.
Die allgemeine Verfügbarkeit der TPU 8-Serie ist für später in diesem Jahr geplant. Ihr Erfolg wird maßgeblich davon abhängen, wie nahtlos sich die Chips in die Google-Cloud-Ökosysteme integrieren. Für Unternehmen bietet die klare Trennung der Infrastruktur jedoch erstmals einen Fahrplan, die Gesamtkosten ihrer KI-Projekte planbar zu kontrollieren – und damit die Grundlage für eine nachhaltige Skalierung.





