Das US-Verteidigungsministerium stellt den KI-Entwickler Anthropic vor eine brutale Wahl: Bis Freitag müssen ethische Sicherheitsvorkehrungen im KI-Modell Claude entfernt werden – andernfalls drohen Blacklisting und Zwangsmaßnahmen. Der Konflikt um militärische KI eskaliert.
Washington D.C. – Ein Machtkampf zwischen Ethik und nationaler Sicherheit spatzt sich zu. Das Pentagon hat dem KI-Unternehmen Anthropic ein Ultimatum gestellt: Bis Ende dieser Woche müssen zentrale ethische Beschränkungen aus der KI Claude entfernt werden. Andernfalls wird das Unternehmen als Risiko eingestuft und könnte per Kriegsgesetz zur Kooperation gezwungen werden. Anthropic ist der letzte große KI-Anbieter, der sich diesem Druck widersetzt.
Während staatliche Akteure die Grenzen der Technologie austesten, müssen Unternehmen die neuen regulatorischen Rahmenbedingungen für künstliche Intelligenz genau kennen. Dieser kostenlose Leitfaden erklärt verständlich, welche Pflichten und Fristen die aktuelle EU-KI-Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern
Ultimatum: „Für alle rechtmäßigen Zwecke“ oder Konsequenzen
Im Zentrum des Streits steht eine Klausel. Das Pentagon fordert uneingeschränkte Nutzungsrechte für „alle rechtmäßigen Zwecke“. Für Anthropic ist das eine rote Linie. Das Unternehmen fürchtet den Einsatz seiner Technologie für autonome Waffensysteme und die Massenüberwachung von Bürgern. Genau dagegen hat es Schutzmechanismen in Claude eingebaut.
Die Forderung wurde in einem konfrontativen Gespräch zwischen Verteidigungsminister Pete Hegseth und Anthropic-CEO Dario Amodei am Dienstag überbracht. Die Deadline läuft am Freitag, dem 27. Februar, ab.
Drohkulisse: Blacklisting und Kriegsrecht
Das Pentagon argumentiert, private Firmen dürften nicht die Einsatzregeln von Sicherheitstechnologien diktieren. Die angedrohten Maßnahmen sind drastisch:
* Einstufung als Risiko: Anthropic könnte wie ein ausländisches Sicherheitsrisiko behandelt werden. Der laufende Vertrag über rund 180 Millionen Euro wäre damit hinfällig. Andere Rüstungsunternehmen dürften Claude nicht mehr nutzen.
* Zwangskooperation: Minister Hegseth drohte mit dem Defense Production Act. Dieses Kriegsrecht aus dem Kalten Krieg ermöglicht es der Regierung, Firmen zu verpflichten, nationale Sicherheitsaufträge anzunehmen – notfalls gegen ihren Willen.
Warum Claude so wichtig ist – und unter Druck steht
Claude ist derzeit die einzige fortgeschrittene KI in den klassifizierten Netzwerken des Pentagons. Sie ist über eine Partnerschaft mit dem Datenanalysten Palantir tief in sensible Abläufe integriert. Ein Austausch wäre aufwendig.
Der Einsatz von KI-Systemen in sensiblen Infrastrukturen bringt nicht nur ethische, sondern auch massive sicherheitstechnische Herausforderungen mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen gegen moderne Cyber-Bedrohungen wappnen und neue gesetzliche Vorgaben effizient umsetzen. Kostenlosen Cyber Security Leitfaden herunterladen
Doch die Verhandlungsposition des Pentagons wird stärker. Andere KI-Giganten wie OpenAI, Google und Elon Musks xAI haben sich bereits auf weniger restriktive Nutzungsbedingungen eingelassen. Die jüngste Freigabe von xAIs „Grok“ für geheime Projekte wird als gezieltes Druckmittel gegen Anthropic gewertet.
Der ethische Bruch: Die Maduro-Operation als Zündfunke
Der Konflikt schwelte lange, brach aber nach einer konkreten Mission offen aus. Berichten zufolge nutzte das US-Militär Claude im Januar bei der Operation zur Gefangennahme des venezolanischen Ex-Präsidenten Nicolás Maduro. Diese direkte Beteiligung an einer möglicherweise tödlichen Mission löste interne Debatten bei Anthropic aus und brachte die ethischen Grundsätze des Unternehmens auf die Probe.
Kann die Tech-Industrie ihre moralischen Leitplanken gegen die Macht des Sicherheitsapparats durchsetzen? Das Pentagon beansprucht das Recht, gekaufte Technologie gegen Gegner einzusetzen. Anthropics Widerstand spiegelt die tiefe Sorge der KI-Community vor den Folgen entfesselter Künstlicher Intelligenz – im Krieg und in der Heimat.
Was auf dem Spiel steht: Ein Präzedenzfall für die Zukunft
Die Entscheidung bis Freitag wird weit über den Einzelfall hinausweisen. Gibt Anthropic nach, wäre das ein Signal: Ethische KI-Prinzipien können staatlichem Druck nicht standhalten. Bleibt das Unternehmen hart, riskiert es seine Zukunft als US-Rüstungslieferant und könnte eine härtere Gangart der Regierung gegenüber dem gesamten Tech-Sektor auslösen.
Der Vertrag über 180 Millionen Euro steht auf dem Spiel. Doch die eigentliche Wette ist viel höher: Es geht um die künftige Regulierung von KI, die Rolle der Ethik in der Technologieentwicklung und das neue, angespannte Verhältnis zwischen Silicon Valley und dem militärisch-industriellen Komplex.





