Anthropic: KI-Assistent Claude stürzt nach Pentagon-Streit ab

Der KI-Riese Anthropic kämpft mit den Folgen eines beispiellosen Nutzeransturms. Auslöser ist ein Rechtsstreit mit dem US-Verteidigungsministerium. Gleichzeitig expandiert das Unternehmen nach Australien.

Der beliebte KI-Assistent Claude des Unternehmens Anthropic erlebte am Mittwoch einen massiven Ausfall. Tausende Nutzer und Software-Entwickler hatten vorübergehend keinen Zugriff auf die kritischen Tools. Der Zusammenbruch fiel in eine extrem turbulente Phase für das in San Francisco ansässige KI-Unternehmen. In der vergangenen Woche verzeichnete Anthropic einen beispiellosen Ansturm, der maßgeblich auf öffentliche Unterstützung nach einem hochkarätigen Rechtsstreit mit dem US-Verteidigungsministerium zurückgeht. Während die Infrastruktur unter Rekord-Downloads ächzte, kündigte das Unternehmen gleichzeitig eine große strategische Expansion in die Märkte Australien und Neuseeland an.

Anzeige

Die rasante Entwicklung von KI-Systemen wie Claude führt auch zu neuen regulatorischen Anforderungen für hiesige Unternehmen. Dieser kostenlose Leitfaden erklärt kompakt die EU-KI-Verordnung, damit Sie Kennzeichnungspflichten und Risikoklassen ohne juristische Fachkenntnisse verstehen. EU-KI-Verordnung kompakt: Jetzt Gratis E-Book sichern

Technische Probleme legen Claude lahm

Die technischen Schwierigkeiten begannen am Morgen des 11. März. Nutzer auf Desktop- und Mobilgeräten meldeten anhaltende Login-Fehler, extrem langsame Antwortzeiten und generische Fehlermeldungen. Besonders betroffen waren Software-Ingenieure, die Claude Code, das spezialisierte Entwicklungstool von Anthropic, nutzen. Viele Entwickler konnten sich aufgrund von Authentifizierungs-Timeout-Fehlern nicht in ihre Entwicklungsumgebungen einloggen.

Die Engineering-Teams des Unternehmens führten die Überlastung auf einen massiven Zustrom neuer Nutzer zurück. Im Laufe des Mittwochnachmittags rollte Anthropic eine Reihe von Fixes aus, um die Authentifizierung zu stabilisieren. Der temporäre Ausfall unterstreicht, wie tief die Abhängigkeit der Software-Entwicklung von generativer KI inzwischen ist. Selbst kurze Ausfälle können die Produktivität in Unternehmen erheblich beeinträchtigen.

Rechtsstreit mit Pentagon löst Nutzer-Boom aus

Die Ursache für den Server-Kollaps ist direkt auf eine eskalierende Konfrontation mit der US-Regierung zurückzuführen. Am Montag, den 9. März, reichte Anthropic zwei Klagen gegen die Regierung ein. Das Unternehmen wirft dem Staat illegale Vergeltungsmaßnahmen vor. Hintergrund ist, dass das Verteidigungsministerium Anthropic offiziell als Risiko für die nationale Sicherheit in der Lieferkette eingestuft hat.

Ein interner Pentagon-Vermerk vom 6. März ordnete an, die KI-Produkte von Anthropic innerhalb von 180 Tagen aus allen Systemen und Netzwerken des Ministeriums zu entfernen. Die Anweisung zielte explizit auf kritische Infrastruktur ab, darunter Systeme für Cyberkriegsführung, Raketenabwehr und Atomoperationen. Der Konflikt entstand aus den strengen ethischen Richtlinien von Anthropic, die den Einsatz für Massenüberwachung im Inland oder vollautonome Waffensysteme verbieten.

Die Reaktion der Verbraucher auf das Verbot war schnell und überwältigend unterstützend. Claude-Anwendungen schossen an die Spitze der Rankings im Apple App Store, da Nutzer aus Solidarität von Wettbewerbern abwanderten. Dieser plötzliche, massive Ansturm überforderte schließlich die Server und führte zu den Ausfällen.

Globale Expansion trotz heimischer Probleme

Trotz des immensen Drucks im Heimatmarkt treibt Anthropic seine internationale Wachstumsstrategie voran. Am selben Tag wie die Serverausfälle kündigte das Unternehmen eine große Expansion in die Asien-Pazifik-Region an, markiert durch die Eröffnung eines neuen Büros in Sydney.

Laut internen Metriken von Anthropic belegen Australien und Neuseeland global den vierten bzw. achten Platz bei der Claude-Nutzung im Verhältnis zur Bevölkerung. Das neue Sydney-Büro soll hochkarätige regionale Kunden wie die Design-Plattform Canva, das Data-Science-Unternehmen Quantium und die Commonwealth Bank of Australia besser bedienen. Der internationale Vorstoß zeigt den Willen von Anthropic, seine Einnahmequellen zu diversifizieren, während seine US-Regierungsaufträge unter regulatorischen Gegenwind geraten.

Neue KI-Modelle entdecken Sicherheitslücken

Die sprunghaft steigende Nachfrage wird auch durch die kürzliche Veröffentlichung der Claude 4.6-Modellfamilie befeuert. Diese Modelle verfügen über ein Kontextfenster von einer Million Tokens und zeigen fortgeschrittene Fähigkeiten im autonomen Denken.

Die praktische Leistungsfähigkeit bewies Claude Opus 4.6 Ende letzter Woche in einer Sicherheitsanalyse. In Zusammenarbeit mit Mozilla entdeckte das KI-Modell 22 bisher unbekannte Sicherheitslücken im Webbrowser Firefox – darunter 14 hochkritische Schwachstellen. In einem bemerkenswerten Fall identifizierte die KI eine komplexe „Use-After-Free“-Schwachstelle in der JavaScript-Engine des Browsers nach nur zwanzig Minuten autonomer Analyse. Die entdeckten kritischen Fehler machten fast ein Fünftel aller größeren Schwachstellen aus, die im Firefox-Browser im vorangegangenen Jahr behoben wurden.

Anzeige

Der Einsatz leistungsfähiger KI-Modelle in der Sicherheitsanalyse zeigt, wie rasant sich die technologische Bedrohungslage für Unternehmen verändert. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Sicherheit proaktiv stärken und sich effektiv gegen moderne Cyberangriffe wappnen. Cyber Security Experten-Report kostenlos herunterladen

Ausblick: Ein KI-Riese im Widerstreit

Die Ereignisse der vergangenen Woche markieren eine entscheidende Übergangsphase für die KI-Branche. Der Konflikt von Anthropic mit dem Pentagon unterstreicht eine wachsende ideologische Kluft zwischen den sicherheitsbewussten KI-Entwicklern im Silicon Valley und den Imperativen der nationalen Sicherheit.

Gleichzeitig erinnern die Ausfälle vom 11. März an die Verwundbarkeit zentralisierter Cloud-Infrastrukturen. Die Zukunft von Anthropic ist geprägt von einer doppelten Herausforderung: Die Server-Infrastruktur muss für die wachsende globale Nutzerbasis aggressiv skaliert werden, während ein beispielloser Rechtsstreit mit der US-Regierung bewältigt werden muss. Die Entscheidung über die Einstufung als Lieferkettenrisiko wird wahrscheinlich einen wichtigen rechtlichen Präzedenzfall dafür schaffen, wie KI-Unternehmen ihre Nutzungsbedingungen durchsetzen können.