Pentagon erwägt Abbruch der Zusammenarbeit mit Anthropic wegen KI-Sicherheitsfragen. Berichte über den Einsatz von Claude in einer geheimen Militäroperation in Venezuela haben die Spannungen verschärft.
Konflikt im Überblick
Das Verteidigungsministerium erwägt, die Vereinbarung mit Anthropic zu kündigen. Hintergrund sind heftige Debatten über ethische Sicherungen und Nutzungsregeln für Claude, die dem Militär eine unbeschränkte Nutzung für alle rechtmäßigen Zwecke ermöglichen würden. Der Streit fällt in einen größeren Konflikt zwischen der amerikanischen Verteidigungsverwaltung und Sicherheitssorientierten KI-Anbietern, die eine Balance zwischen Innovation und Verantwortung suchen. Aus Sicht Deutschlands und der EU gewinnt damit eine fragliche Frage an Brisanz: Wie weit darf private KI im Sicherheitsbereich gehen?
Verträge mit führenden KI-Regularien wurden demnach im Gesamtwert von bis zu rund 740 Millionen Euro vergeben – unter anderem an Anthropic, OpenAI, Google und xAI, um die Einführung künstlicher Intelligenz in Verteidigungs- und Geheimdienstprozessen zu beschleunigen. Die offene Frage lautet: Wer setzt die Grenzen, und wer trägt die Verantwortung, wenn diese Grenzen überschritten werden?
Mythos oder Wirklichkeit: Claude im Einsatz?
Der Auslöser der Debatte ist ein Bericht des Wall Street Journal vom 14. Februar, wonach Claude im Januar in einer Mission zur Festnahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. Dem Bericht zufolge handelt es sich um den ersten dokumentierten Fall, in dem ein kommerzielles Großsprachenmodell in einer aktiven, geheimen Militäroperation genutzt worden sein soll.
Nach Informationen aus Kreisen wurde Claude über eine Partnerschaft von Anthropic mit Palantir Technologies genutzt, einem Unternehmen mit weitreichenden Regierungsaufträgen. Palantirs Plattformen sind in sichere Regierungsnetzwerke integriert, was den Einsatz von KI in verschlüsselten Umgebungen ermöglicht. Konkrete Funktionen von Claude in dieser Mission wurden nicht breit kommuniziert; es gilt als wahrscheinlich, dass der Einsatz in der Entscheidungsunterstützung lag – etwa beim schnellen Zusammenfassen von Informationen, der Analyse komplexer Daten und der Unterstützung operativer Planungen. Die Einordnung von KI im Einsatz mit realen Folgen wirft jedoch erhebliche ethische und juristische Fragen auf.
Streit um Regeln und Sicherheitsvorgaben
In der Folge drängt das Verteidigungsministerium darauf, Anthropic und drei weitere führende KI-Anbieter – OpenAI, Google und xAI – dazu zu bewegen, ihren Tools eine Nutzung „für alle rechtmäßigen Zwecke“ zu ermöglichen. Das würde unter anderem sensible Bereiche wie Waffenentwicklung, Nachrichtensammlung und Bodenkämpfe einschließen. Anthropic lehnt solche Bedingungen bislang ab, was die Verhandlungen in eine Blockade geführt hat.
Anthropics öffentliche Nutzungsrichtlinien verbieten ausdrücklich den Einsatz der Technologie zur Förderung von Gewalt, Waffengebrauch oder Überwachung. Zentrale Streitpunkte sind offenbar harte Obergrenzen bei vollautonomen Waffen und bei massiver innerstaatlicher Überwachung. Ein Regierungsvertreter signalisierte, dass das Pentagon mit langen Verhandlungen „zufrieden“ sei und keine fallbezogenen Einzelverhandlungen akzeptieren wolle. Vor diesem Hintergrund sei „alles auf dem Tisch“, hieß es weiter – womit der Schritt zum Abbruch nicht ausgeschlossen ist.
Anthropic und die Verantwortung für KI
Anthropic, das Unternehmen, das seine Marke auf einem Sicherheitsansatz aufgebaut hat, steht in der Kritik, weil eine angebliche Nutzung seiner Technologien in einem Militäreinsatz die eigenen Grundsätze der verantwortungsvollen KI infrage stellt. Auf Anfragen betonte ein Sprecher, man habe keine Gespräche über den Einsatz von Claude in konkreten Operationen mit dem DoD geführt. Man halte fest, dass jede Nutzung der Modelle mit den firmeneigenen Richtlinien in Einklang stehen müsse. Die laufenden Gespräche drehten sich daher weniger um einzelne Einsätze als um die grundsätzliche Frage, wie weit kommerzielle KI im Verteidigungsbereich eingesetzt werden darf.
Kontext und Ausblick: Eine Weichenstellung für KI in der Verteidigung
Der Konflikt markiert einen Wendepunkt für die Zusammenarbeit von Privatunternehmen und militärischen Institutionen. Gleichzeitig wächst die Sorge, dass sich der Wettlauf um leistungsstarke KI in Bereiche ausdehnt, die ethische und rechtliche Fragen aufwerfen. Die Bundesregierung sowie die EU-Kommission prüfen derzeit strengere Regulierungsvorschläge für KI im Sicherheits- und Verteidigungsbereich; der Fall könnte maßgeblich beeinflussen, wie schnell kommerzielle KI künftig in sensiblen Bereichen eingesetzt wird.
Angesichts der Debatte um KI‑Einsatz und steigende gesetzliche Vorgaben sollten Unternehmen und Behörden ihre Sicherheits- und Compliance‑Strategien prüfen. Ein kostenloses E‑Book erklärt die wichtigsten Cyber‑Security‑Trends, welche Folgen die neue KI‑Regelung hat und welche praktischen Schritte jetzt nötig sind, um sensible Systeme zu schützen. Jetzt kostenlosen Cyber-Security-Guide herunterladen
Sollte das Pentagon den Vertrag mit Anthropic kündigen, könnte dies als starkes Signal wirken: Private KI-Firmen könnten gezwungen sein, strengere Nutzungsbedingungen durchzusetzen, auch wenn staatliche Akteure gewillt sind, Lieferungen kurzfristig zu beschleunigen. Umgekehrt könnte Anthropic die Verhandlungen nutzen, um weltweit Abkommen über verantwortungsbewusste KI-Nutzung zu fördern. Wie sich dieser Konflikt langfristig auf SAP, Telekom und andere DAX-Unternehmen auswirkt, bleibt offen.
Die kommenden Wochen dürften zeigen, wie Politik, Verteidigung und Industrie die Balance zwischen Innovation und Verantwortung neu justieren. Die Frage bleibt: Wer trägt letztlich die Verantwortung, wenn KI in sensible militärische Entscheidungen eingreift?





