Anthropic vor Abbruch der Verteidigungs-Partnerschaft

Das US-Verteidigungsministerium droht, die Zusammenarbeit mit dem KI-Unternehmen Anthropic zu beenden, da das Pentagon volle Kontrolle über Claude-Modelle für militärische Zwecke verlangt.

Anthropic unter Druck: Pentagon prüft Abbruch der Verteidigungs-Partnerschaft.

Für Deutschland und die EU geht es um zentrale Fragen der KI-Sicherheit, Rechtsrahmen und die Abhängigkeit von US-Technologie im Verteidigungsbereich. Der potenzielle Abbruch eines bis zu rund 184 Millionen Euro schweren Vertrags zwischen dem US-Verteidigungsministerium und dem in San Francisco ansässigen Unternehmen Anthropic könnte die europäische Debatte über ethische Leitplanken in KI-Entwürfen neu befeuern.

Anzeige

Die Debatte um Anthropic macht deutlich, wie schnell KI-Sicherheitsfragen und neue gesetzliche Vorgaben auch Unternehmen und Behörden betreffen. Ein kostenloses E‑Book fasst aktuelle Cyber-Security-Bedrohungen zusammen, erklärt, welche neuen Regeln (inkl. KI-Verordnung) jetzt zu beachten sind, und zeigt praktische Maßnahmen, die Sie sofort umsetzen können, um Ihre IT besser zu schützen. Jetzt kostenloses Cyber-Security E‑Book herunterladen

Das Ultimatum: Alle rechtmäßigen Verwendungen

Dieses Wochenende berichtete Axios, dass führende Regierungsvertreter ernsthaft über eine Trennung von Anthropic nachdenken. Zentraler Streitpunkt ist der Anspruch der Militärführung, dass KI-Anbieter ihre Technologie für „alle rechtmäßigen Zwecke“ bereitstellen – ein breiter Standard, der die unternehmerischen Ethik-Vorgaben von Anthropic weitgehend aushebelt. Könnte der US-Kongress oder das Verteidigungsministerium hier Zugeständnisse erzwingen?

Behördenvertreter argumentieren, private Firmen dürften nicht das Vetorecht darüber haben, wie die USA Technologie nutzen. Das Pentagon drängt auf uneingeschränkten Zugriff auf die Claude-Modelle auf geheimen Netzwerken – inklusive Anwendungen in Waffentechnik, Nachrichtendienstleistungen und Einsatzführung. Die Verhandlungen ziehen sich bereits seit Monaten hin, doch diese Woche verschärfte sich die Lage deutlich.

Die roten Linien: Autonome Waffen und Überwachung

Anthropic hat zwei unverhandelbare Linien gesetzt, die den Deal blockieren: Autonome Waffensteuerung (Systeme, die Ziele ohne signifikante menschliche Kontrolle auswählen und angreifen) sowie Massenüberwachung von US-Bürgern. Die Firma betont, dass diese Schutzmechanismen integraler Bestandteil ihrer Mission seien. Laut eigener Darstellung würden die entsprechenden Restriktionen tief ins Training der Modelle eingreifen; eine Entfernung erfordert eine grundlegende Neukonstruktion der Technologie.

Ein Sprechersiegel des Unternehmens erläuterte am Sonntag, man bleibe dem nationalen Sicherheitsauftrag verpflichtet, bleibe aber bei den konkreten Policy-Grenzen. Gespräche mit der Regierung fokussieren sich daher auf diese „harte Grenzen“ statt auf eine generelle Arbeitsverweigerung mit dem Militär.

Maduro-Revelation und Palantir-Verbindung

Die Spannung wurde durch einen Bericht der Wirtschaftszeitung The Wall Street Journal vom Freitag, dem 13. Februar, weiter angefacht. Demnach war Anthrips Technologie in einer risikereichen Militäroperation im Einsatz – Claude wurde in Zusammenarbeit mit Palantir zur Festnahme des venezolanischen Präsidenten Nicolás Maduro genutzt. Dieser Bericht verkomplizierte Anthropics Position, weil er nahelegt, dass deren Technologie bereits in aktiven Operationen eingesetzt wird.

Anthropic wies Forderungen zurück, diese konkrete Operation mit dem Pentagon besprochen zu haben. Man betont, dass aktuelle Regierungsprojekte strengen Nutzungsrichtlinien unterliegen; die Einbettung der Modelle in Plattformen Dritter wie Palantir erschwere die Durchsetzung dieser Grenzen.

Aus Sicht des Pentagon stärkt der Vorfall die Forderung nach einer vollständigen Integration kommerzieller KI in militärische Befehlsstrukturen – statt Fall-für-Fall-Entscheidungen durch Unternehmen.

Wettbewerber ziehen nach

Gleichzeitig ziehen andere große Akteure mit: OpenAI, Google und xAI sollen offenbar flexibler bei der Entfernung privater Konsumenten-Filtern für klassifizierte Arbeiten gewesen sein. Mindestens einer dieser Konkurrenten soll demnach dem „alle rechtmäßigen Zwecke“-Standard zugestimmt haben. Sollte das Pentagon Anthropic tatsächlich kündigen, könnte der Auftrag an Wettbewerber gehen, die bereit sind, militärische Anforderungen zu erfüllen.

Verteidigungsminister Pete Hegseth hatte im Januar betont, dass die Militärführung keine KI-Modelle nutzen werde, die die Kriegführung behindern. Die Äußerung wurde von Analysten als klare Hinweisrichtung verstanden – auch als indirekter Verweis auf Anthropic.

Ausblick: Eine Richtungsentscheidung für KI-Sicherheit

Der Ausgang dieses Konflikts wird eine Symbolwirkung für die gesamte KI-Industrie haben. Gelingt dem Pentagon, Anthropic zu zwingen oder zu ersetzen, würde das eine Botschaft senden: Verträge mit der Regierung könnten strengere ethische Auflagen verlangen. Gelingt es Anthropic dagegen, Standpunkte zu wahren, könnte sich ein neues Modell entwickeln, in dem private Firmen eine gewisse moralische Autorität über die Einsatzgebiete ihrer Erfindungen behalten.

Analysten sehen darüber hinaus Risiken für Anthropics Börsenpläne. Der Wegfall eines bedeutenden staatlichen Einnahmeflusses könnte Investoren verunsichern, doch die klare Sicherheitsorientierung des Unternehmens könnte zugleich kommerzielle Kunden stärken.

Zum Zeitpunkt dieses Berichts lag noch kein offizieller Kündigungsbescheid vor. Das Schweigen des Verteidigungsministeriums deutet jedoch darauf hin, dass der Spielraum für eine Einigung enger wird. Die Branche verfolgt gespannt, ob die Regierung Anthropic als Präzedenzfall nutzt oder ob militärische Bedarfslagen eine kompromissbereite Lösung erzwingen.