AWS baut eigene KI-Chips: Milliarden-Offensive gegen Nvidia

AWS forciert mit Eigenentwicklungen wie Trainium3 die Unabhängigkeit von GPU-Herstellern und senkt KI-Kosten drastisch.

Amazon Web Services treibt seine Chip-Strategie massiv voran – mit eigenem Silizium, das die Abhängigkeit von GPU-Herstellern reduzieren soll.

SEATTLE. Der Cloud-Riese AWS hat seine hauseigene Chip-Sparte auf eine jährliche Umsatzrate von rund 20 Milliarden Euro gebracht. Das ist das Ergebnis einer aggressiven Investitionsoffensive: Insgesamt 185 Milliarden Euro will der Konzern 2026 in die globale Recheninfrastruktur stecken. Ziel ist es, den weltweiten Engpass an KI-Rechenleistung zu beheben und langfristig Kosten zu senken.

Anzeige

Während Unternehmen massiv in neue Cloud-Infrastrukturen und KI-Lösungen investieren, wachsen parallel dazu auch die Risiken durch digitale Angriffe auf die Firmennetzwerke. Dieses kostenlose E-Book zeigt, welche neuen Bedrohungen 2024 auf Sie zukommen und wie Sie Ihr Unternehmen auch ohne hohes Budget wirksam schützen. Jetzt kostenloses Cyber-Security E-Book sichern

Im Zentrum der Strategie stehen die Chip-Familien Trainium und Inferentia – speziell für generative KI entwickelte Beschleuniger. Die dritte Generation, Trainium3, ist der erste 3-Nanometer-KI-Chip von AWS. Er bietet die vierfache Rechenleistung und Speicherbandbreite seines Vorgängers bei rund 40 Prozent besserer Energieeffizienz. Die Entwicklung von Trainium4 läuft bereits – mit einer erwarteten sechsfachen Leistung im Vergleich zu Trainium2.

Partnerschaften mit KI-Schwergewichten

Die kommerzielle Tragfähigkeit der Eigenentwicklungen untermauern milliardenschwere Verträge. Im April 2026 weitete Anthropic seine Zusammenarbeit mit AWS aus: Der KI-Entwickler verpflichtete sich, über die nächsten zehn Jahre mehr als 92 Milliarden Euro für AWS-Technologien auszugeben. Im Zentrum steht der Einsatz mehrerer Trainium-Generationen für Training und Betrieb künftiger Claude-Modelle.

Herzstück dieser Partnerschaft ist Project Rainier – ein KI-Rechencluster in Indiana mit rund einer halben Million Trainium2-Chips. Anthropic-Ingenieure arbeiten direkt mit dem AWS-Chipentwickler Annapurna Labs zusammen, um die Architektur künftiger Hardware-Generationen zu optimieren.

Auch die Integration fremder KI-Modelle schreitet voran: Seit Frühjahr 2026 stehen leistungsstarke OpenAI-Modelle auf der AWS-Plattform Bedrock zur Verfügung. AWS hostet damit Modellfamilien von Anthropic, Meta, Mistral und OpenAI – oft auf Trainium-Chips, um Betriebskosten zu senken.

Wirtschaftlichkeit als Trumpf

Die Eigenentwicklung rechnet sich. Marktanalysten zufolge senken Chips wie Trainium2 die Trainingskosten um bis zu 40 Prozent im Vergleich zu herkömmlicher Hardware. Während leistungsstarke GPUs in der Cloud rund neun Euro pro Stunde kosten, sind Trainium2-Instanzen oft für unter viereinhalb Euro pro Stunde zu buchen – ein entscheidender Vorteil für preissensible Startups und Unternehmen.

Die Geschäftszahlen geben der Strategie recht: Im ersten Quartal 2026 meldete AWS eine annualisierte Umsatzrate von rund 139 Milliarden Euro – ein Wachstum von 28 Prozent im Jahresvergleich. Die Betriebsgewinne profitieren vom Umstieg auf eigene Chips, da Eigenentwicklungen nach Amortisierung der Entwicklungskosten bessere Margen bieten.

Infrastruktur auf neuem Niveau

Um die Nachfrage zu bedienen, baut AWS seine Rechenzentren grundlegend um. Die sogenannten AI Factories sind für extreme Strom- und Kühlungsanforderungen dichter KI-Cluster ausgelegt. Allein in Mississippi investiert der Konzern rund 23 Milliarden Euro – inklusive massiver Upgrades der lokalen Stromnetze.

Die Kapazitäten werden sechs bis 24 Monate vor der offiziellen Abrechnung aufgebaut – eine notwendige Vorlaufzeit angesichts der Komplexität moderner Rechenzentren. Branchenbeobachter erwarten, dass der Markt für kundenspezifische Chips den KI-Hardware-Markt weiter fragmentieren wird.

Ausblick

Der Erfolg der AWS-Chip-Strategie hängt nun davon ab, wie reibungslos Kunden von älterer Hardware auf die Trainium3- und Trainium4-Architekturen umsteigen. Der rasante Aufstieg des agentic AI – Anwendungen, die komplexe Aufgaben autonom ausführen – wird den Bedarf an effizienter Inferenz-Hardware weiter in die Höhe treiben.

Mit mehr als einer Million Trainium-Chips im globalen Betrieb hat AWS ein Hardware-Ökosystem aufgebaut, das traditionellen Halbleiterherstellern in nichts nachsteht. Der Fokus für das kommende Jahr liegt auf der Umsetzung der milliardenschweren Bauprojekte und der Auslieferung des 3-Nanometer-Siliziums. AWS will sich als führender Anbieter von KI-Infrastruktur aus einer Hand positionieren.