Der KI-Pionier Anthropic stellt sich gegen das US-Verteidigungsministerium und weigert sich, ethische Sicherheitsvorkehrungen seiner KI-Modelle für Militärzwecke zu entfernen. Die Konfrontation markiert einen historischen Machtkampf um die Rolle Künstlicher Intelligenz in der nationalen Sicherheit.
Ultimatum abgelegen – Vertrag über 200 Millionen Euro in Gefahr
Hintergrund ist eine Forderung des Pentagons nach uneingeschränktem Zugriff auf Anthropics KI-Technologie, einschließlich des leistungsstarken Claude-Modells. Das Unternehmen, das sich als besonders sicherheitsbewusst positioniert, lehnt es ab, Schutzvorkehrungen zu entfernen, die den Einsatz für Massenüberwachung oder in vollautonomen Waffensystemen verhindern. Als Reaktion droht das Pentagon mit der Kündigung eines lukrativen Vertrags im Wert von bis zu 200 Millionen Euro. Zudem könnte das Ministerium das kalte Kriegs-Gesetz Defense Production Act anwenden, um die Kooperation zu erzwingen – ein beispielloser Schritt.
Während internationale Mächte um die militärische Nutzung von KI ringen, müssen Unternehmen in Europa bereits konkrete gesetzliche Vorgaben erfüllen. Dieser kostenlose Leitfaden erklärt verständlich, welche Pflichten und Fristen die neue EU-KI-Verordnung für Ihr Unternehmen bereithält. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
„Wir können es mit unserem Gewissen nicht vereinbaren“, begründete Anthropic-CEO Dario Amodei die Entscheidung. Die geforderten Änderungen würden demokratische Werte untergraben und seien technisch verfrüht, da aktuelle KI-Modelle für Waffensysteme noch nicht zuverlässig genug seien.
Pentagon droht mit radikalen Maßnahmen
Das Verteidigungsministerium zeigt sich unnachgiebig. Ein privates Unternehmen dürfe nicht die operative Freiheit der US-Streitkräfte einschränken, die bereits an US-Gesetze gebunden seien. Neben der Vertragskündigung droht die Einstufung Anthropics als „Risiko für die Lieferkette“. Diese Markierung, normalerweise ausländischen Gegnern vorbehalten, würde praktisch jeden Pentagon-Zulieferer vom Einsatz der Anthropic-Technologie ausschließen.
Die angedrohte Anwendung des Defense Production Act wäre ein Novum. Das Gesetz aus den 1950er Jahren gibt der Regierung weitreichende Befugnisse, private Unternehmen für Verteidigungszwecke heranzuziehen. Seine Nutzung zur Entfernung ethischer KI-Sperren würde rechtliche Präzedenzfälle schaffen.
Deutliche Isolierung im Wettbewerb
Der Konflikt spitzt sich zu einem kritischen Zeitpunkt zu. Erst im Januar verkündete das Pentagon eine „KI-zuerst“-Strategie, um künstliche Intelligenz mit „Kriegsgeschwindigkeit“ einzuführen. Neben Anthropic erhielten Google, OpenAI und Elon Musks xAI große Verträge zur Militäranpassung ihrer Modelle.
Die rasante Entwicklung der Künstlichen Intelligenz bringt nicht nur ethische Fragen, sondern auch neue regulatorische Anforderungen für die IT-Sicherheit mit sich. Erfahren Sie in diesem Experten-Report, wie Geschäftsführer ihr Unternehmen 2024 proaktiv vor Cyber-Risiken schützen können. Kostenloses E-Book zu Cyber-Security-Trends herunterladen
Anthropic steht mit seiner Haltung zunehmend allein da. Nach Angaben von Insidern haben sich andere KI-Firmen bereits bereiterklärt, der Klausel für „alle rechtmäßigen Zwecke“ zuzustimmen. Dabei galt Anthropic bislang als einziger Anbieter, dessen Modelle für die klassifizierten Netzwerke des Militärs freigegeben waren.
Präzedenzfall für die gesamte KI-Branche
Die Auseinandersetzung geht weit über einen Vertragsstreit hinaus. Sie wirft grundlegende Fragen zur ethischen Verantwortung für Dual-Use-Technologien auf. Setzt sich das Pentagon durch, könnte dies einen Abschreckungseffekt auf die gesamte Branche haben. Andere KI-Labore könnten folgern, dass strikte ethische Standards finanziell nicht haltbar sind, wenn lukrative Staatsaufträge auf dem Spiel stehen.
Die Deadline des Pentagons lief heute um 17:01 Uhr Ortszeit ab. Berichten zufolge lehnte Anthropic ein letztes Angebot des Ministeriums als unzureichend ab. Sollten die Drohungen wahr werden, stünde sowohl das Militär vor der schwierigen Suche nach Ersatz für bereits integrierte Systeme als auch Anthropic vor erheblichen kommerziellen Konsequenzen.
Eines ist bereits jetzt klar: Diese Konfrontation zieht die Schlachtlinien im globalen Ringen um die Regulierung und militärische Nutzung Künstlicher Intelligenz neu. Die Entscheidung wird Richtlinien, Investitionen und ethische Rahmenbedingungen in Technologie- und Verteidigungssektoren weltweit beeinflussen – auch in Europa und Deutschland, wo die Debatte um autonome Waffensysteme ebenfalls geführt wird.





