Anthropic: US-Militär droht mit Aus für KI-Partnerschaft

Das US-Verteidigungsministerium droht Anthropic mit dem Aus für eine 200-Millionen-Euro-Partnerschaft, da das KI-Unternehmen ethische Grenzen bei Militäreinsätzen nicht aufweichen will.

Washington D.C. – Das US-Verteidigungsministerium droht der KI-Firma Anthropic mit dem Aus für eine Partnerschaft im Wert von 200 Millionen Euro. Grund ist ein Streit über ethische Grenzen beim Militäreinsatz von Künstlicher Intelligenz.

Der Konflikt eskalierte, weil Anthropic sich weigert, zentrale Sicherheitsvorkehrungen in seinem KI-Modell Claude zu entfernen. Das Pentagon fordert dagegen, die Technologie für „alle rechtmäßigen Zwecke“ nutzen zu können – eine Formulierung, die auch den Einsatz in autonomen Waffensystemen und zur Massenüberwachung in den USA umfasst. Für das auf KI-Sicherheit spezialisierte Unternehmen sind das rote Linien.

Die unüberwindbaren Gräben: Autonome Waffen und Überwachung

Anthropic, gegründet von Ex-OpenAI-Managern, verbietet in seinen Nutzungsrichtlinien ausdrücklich die Entwicklung von Waffen oder die Förderung von Gewalt. CEO Dario Amodei betonte, KI solle die Verteidigung in jeder Hinsicht unterstützen, „außer in denen, die uns mehr wie unsere autokratischen Gegner machen würden“.

Diese Haltung kollidiert frontal mit den operativen Zielen des Pentagons. Verteidigungsminister Pete Hegseth brachte die Position auf den Punkt: Man werde „keine KI-Modelle einsetzen, mit denen man keine Kriege führen kann“. Die Militärs argumentieren, sie dürften sich nicht von Unternehmensrichtlinien behindern lassen.

Erste Feldtests und wachsende Spannungen

Die Beziehung war bereits angespannt, bevor bekannt wurde, dass Claude in einer geheimen Militäroperation zum Einsatz kam. Bei der Mission zur Gefangennahme des venezolanischen Ex-Präsidenten Nicolás Maduro nutzten US-Streitkräfte die KI über eine Partnerschaft mit dem Datenanalysten Palantir.

Es war der erste bekannte Einsatz eines großen kommerziellen KI-Modells in einer klassifizierten Mission. Nach dem Einsatz, der auch kinetische Maßnahmen umfasste, kontaktierte ein Anthropic-Manager Palantir – wohl aus Unmut über die Verwendung der Software. Das Unternehmen dementiert jedoch einen Bezug zu laufenden Operationen.

Wettbewerbsdruck und Branchen-Signalwirkung

Der Streit findet in einem umkämpften Markt statt. Das Pentagon verhandelt parallel mit anderen KI-Giganten wie OpenAI, Google und xAI. Laut Berichten zeigen sich diese Konkurrenten „flexibler“ und haben die Forderung nach uneingeschränkter Nutzung bereits akzeptiert.

Anzeige

Unternehmen und Entwickler, die mit KI-Systemen arbeiten, sollten die neuen Regulierungen genau kennen – besonders nach den jüngsten Streitfällen um militärische Nutzung. Ein kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt praxisnah Risikoklassen, Kennzeichnungspflichten und Dokumentationsanforderungen. Jetzt kostenlosen KI‑Leitfaden sichern

Ein Abbruch der Partnerschaft wäre daher ein deutliches Signal an die gesamte Branche: Firmen, die ethische Leitplanken hochhalten, riskieren, bei lukrativen Verteidigungsaufträgen außen vor zu bleiben. Analysten befürchten einen Dominoeffekt, der KI-Labore dazu drängen könnte, ihre Sicherheitsstandards zugunsten von Militärbudgets aufzuweichen.

Was kommt jetzt?

Die Zukunft der Partnerschaft ist ungewiss. Das Pentagon räumt ein, dass Anthropics KI-Modelle für spezialisierte Regierungsaufgaben technisch führend sind. Doch die Geduld schwindet. Sollte keine Einigung gelingen, dürften die Gelder an konformere Anbieter fließen.

Die Entscheidung wird wegweisend sein: Sie zeigt, ob private Tech-Firmen ihre ethischen Grundsätze gegenüber staatlichen Partnern durchsetzen können – oder ob sich im Rüstungsgeschäft am Ende doch der uneingeschränkte Zugriff durchsetzt.