Anthropic: KI-Modell Claude im US-Militäreinsatz

Das KI-Modell Claude von Anthropic wurde erstmals in einer geheimen US-Militäroperation eingesetzt, was einen massiven ethischen Zielkonflikt und handfeste Vertragsrisiken für das Unternehmen auslöst.

Erstmals setzte das US-Militär ein kommerzielles KI-System in einer geheimen Kampfmission ein – und bringt damit den Entwickler in einen ethischen Zielkonflikt.

Das fortschrittliche KI-Modell Claude des Unternehmens Anthropic wurde bei einer geheimen US-Militäroperation in Venezuela eingesetzt. Diese Enthüllung markiert den ersten bekannten Fall, in dem ein kommerzielles Generative-AI-System live in einer kampfbezogenen Mission des US-Verteidigungsministeriums (DoD) zum Einsatz kam. Die Nachricht löst sofort einen schwerwiegenden Konflikt zwischen dem sicherheitsorientierten KI-Labor und der Pentagon-Führung aus.

Geheime Venezuela-Mission mit KI-Unterstützung

Bei der Operation Anfang Januar 2026, die zur Festnahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro führte, setzten US-Spezialkräfte Claude ein. Das Modell wurde laut Berichten nicht direkt in Waffensysteme integriert. Stattdessen diente es der Analyse riesiger Mengen an Geheimdienstinformationen, der Zusammenfassung komplexer Dokumente und der Mustererkennung für die Operationsplanung.

Die Nutzung wurde durch eine strategische Partnerschaft mit Palantir Technologies und Amazon Web Services (AWS) ermöglicht. AWS hostet Claude in einer hochsicheren, für „Secret“-Daten zertifizierten Cloud-Umgebung (Impact Level 6). Diese Infrastruktur erlaubt es dem Militär, das KI-Modell in streng geheimen Missionen zu nutzen.

Eklat: „Constitutional AI“ trifft auf Kriegsführung

Der Einsatz bei einem Einsatz mit Luftschlägen scheint den öffentlichen Nutzungsrichtlinien von Anthropic direkt zu widersprechen. Das Unternehmen hat sich mit seinem „Constitutional AI“-Ansatz bewusst als ethisch verantwortungsvoller Akteur positioniert. Seine Nutzungsbedingungen verbieten ausdrücklich die Verwendung für tödliche Gewalt, Waffenentwicklung oder Überwachung.

Ein Sprecher von Anthropic betonte zwar, dass alle Nutzungen von Claude – auch durch die Regierung – den eigenen Richtlinien entsprechen müssten. Doch Branchenanalysten sehen hier ein grundsätzliches Problem: In abgeschotteten, geheimen Regierungsumgebungen hat der Anbieter kaum Kontrolle darüber, wie sein Modell konkret eingesetzt wird.

Pentagon droht mit Vertragsstornierung

Die Spannungen könnten nun handfeste Konsequenzen haben. Das Pentagon prüft Berichten zufolge die Stornierung eines Prototypen-Vertrags mit Anthropic über 200 Millionen Euro. Verteidigungsminister Pete Hegseth kritisierte kürzlich KI-Modelle, die aufgrund von „Sicherheitsfiltern“ Fragen zu Kampftaktiken verweigern. Solche Tools seien in zeitkritischen Szenarien unzuverlässig.

Diese Haltung sendet ein klares Signal an die Tech-Branche: Das DoD priorisiert uneingeschränkte Funktionsfähigkeit vor ethischen Vorgaben. Konkurrenten wie xAI oder auf Verteidigung spezialisierte Firmen könnten von dieser Entwicklung profitieren.

Markt unter Spannung: Milliardenbewertung in Gefahr?

Der Vorfall fällt in eine Phase explodierender Bewertungen im KI-Sektor. Anthropic wurde zuletzt mit rund 350 Milliarden Euro bewertet. Der potenzielle Verlust lukrativer Regierungsaufträge könnte die Ertragsprognosen trüben und den Weg zur Profitabilität erschweren.

Die Situation erinnert an den „Project Maven“-Skandal bei Google 2018, der zum Rückzug des Konzerns aus einem Pentagon-Programm führte. Im Gegensatz dazu hat Anthropic die Zusammenarbeit mit der nationalen Sicherheit aktiv gesucht. Die aktuelle Krise zeigt: Der Spagat zwischen Unterstützung der Verteidigung und dem Verbot tödlicher Einsätze ist in der Praxis kaum zu halten.

Was bedeutet das für die Zukunft der KI-Kriegsführung?

Die kommenden Wochen werden richtungsweisend für die Beziehung zwischen Militär und KI-Industrie sein. Das Pentagon wird klare Anforderungen an „einsatzfähige“ KI stellen und wahrscheinlich die Abschwächung bestimmter Sicherheitssperren fordern.

Anzeige

Unternehmen und Entwickler, die KI-Systeme anbieten oder nutzen, müssen sich jetzt auf gesetzliche Vorgaben und neue Pflichten einstellen. Ein kompakter Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt Kennzeichnungspflichten, Risikoklassen, Dokumentationsanforderungen und Übergangsfristen – ideal, um regulatorische Risiken frühzeitig zu erkennen und Compliance sicherzustellen. KI-Verordnung: Kostenlosen Umsetzungsleitfaden herunterladen

Für Anthropic geht es um die Markenidentität. Gibt das Unternehmen den Forderungen nach, riskiert es einen Aufstand der eigenen, sicherheitsorientierten Belegschaft. Bleibt es hart, könnte es vom milliardenschweren Verteidigungsmarkt ausgeschlossen werden. Die Maduro-Operation könnte als der Moment in die Geschichte eingehen, in dem die Grauzone zwischen datenanalysierender Software und softwaregestützter Kriegsführung auf dem Schlachtfeld aufgelöst wurde.