Anthropic verklagt US-Regierung nach Sicherheits-Streit

Der KI-Entwickler Anthropic zieht gegen die US-Regierung vor Gericht, nachdem das Pentagon das Unternehmen als Sicherheitsrisiko eingestuft hat. Der beispiellose Konflikt entzündete sich an ethischen Grenzen für Militär-KI.

KI-Sicherheitsregeln als Zankapfel

Im Kern geht es um die Frage: Wer setzt die ethischen Grenzen für Künstliche Intelligenz im Militär? Das Verteidigungsministerium forderte von Anthropic, bestimmte Sicherheitsbeschränkungen aus den Nutzungsbedingungen zu streichen. Das Unternehmen sollte seine KI Claude für alle legalen Militärzwecke freigeben.

Anzeige

Seit August 2024 gelten auch in Europa neue Regeln für den Einsatz von Künstlicher Intelligenz, die Unternehmen vor große Herausforderungen stellen. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen der EU-KI-Verordnung und wie Sie Bußgelder vermeiden. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Doch Anthropic weigerte sich, zwei zentrale Sicherheitsregeln aufzugeben. Das Unternehmen hält an strikten Verboten fest: gegen vollautonome Waffensysteme und gegen Massenüberwachung amerikanischer Bürger. Die Begründung: Aktuelle KI-Modelle seien für tödliche autonome Entscheidungen nicht zuverlässig genug. Massenüberwachung verletze zudem grundlegende Verfassungsrechte.

Nach monatelangen festgefahrenen Verhandlungen eskalierte der Konflikt. Verteidigungsminister Pete Hegseth ließ Anthropic offiziell als Lieferkettenrisiko einstufen. Diese Einstufung war bisher ausländischen Gegnern vorbehalten, die man der Spionage verdächtigte. Ihre Anwendung auf ein amerikanisches Technologieunternehmen ist beispiellos.

Regierung startet Aussschluss-Offensive

Die gescheiterten Gespräche lösten eine Welle behördlicher Anordnungen aus. Ein interner Pentagon-Vermerk vom 6. März 2026 ordnet die sofortige operative Konsequenz an: Alle Anthropic-KI-Produkte müssen innerhalb von 180 Tagen aus nationalen Sicherheitssystemen entfernt werden.

Das betrifft hochsensible Infrastruktur – inklusive Systeme für Nuklearwaffen, Raketenabwehr und Cyberkriegsführung. Auch private Unternehmen, die mit dem Pentagon Geschäfte machen, müssen Anthropic-Produkte für Verteidigungsaufträge binnen sechs Monaten absetzen.

Anzeige

Der Fall Anthropic zeigt, wie schnell technologische Zusammenarbeit zu einem Sicherheitsrisiko für Unternehmen werden kann. Was Geschäftsführer heute über Cyber Security und die neuen rechtlichen Rahmenbedingungen wissen müssen, enthüllt dieser Experten-Report. Kostenlosen Cyber-Security-Report 2024 herunterladen

Die Druckkampagne geht über das Militär hinaus. Präsident Donald Trump ordnete an, dass alle Bundesbehörden die Nutzung von Anthropics Technologie sofort einstellen müssen. Ministerien wie das Finanz- und das Außenministerium folgten dieser Anweisung prompt. Die koordinierte Reaktion schließt das Unternehmen effektiv von großen Teilen der öffentlichen Beschaffung aus.

Existenzbedrohende Klage mit Milliarden-Risiko

Anthropic reagierte im März 2026 mit zwei Klagen vor Bundesgerichten in Kalifornien und Washington D.C. Die Vorwürfe: Die Risiko-Einstufung verletze das Verwaltungsverfahrensgesetz und verfassungsmäßige Rechte des Unternehmens.

Die Anwälte argumentieren, die Regierung betreibe unrechtmäßige Vergeltung, um Anthropic für seine geschützten Äußerungen zur KI-Sicherheit zu bestrafen. Die Exekutive habe ihre Befugnisse überschritten, indem sie versuche, ein Privatunternehmen durch die Instrumentalisierung von Vergaberegeln zu ethischen Zugeständnissen zu zwingen.

Die finanziellen Folgen sind existenziell. In Gerichtsdokumenten warnt Anthropic vor unmittelbaren Einnahmeausfällen in Hunderte Millionen Euro. Sollte die Regierung erfolgreich den Privatsektor von Partnerschaften abhalten, drohen langfristige Verluste in Milliardenhöhe – eine fundamentale Bedrohung für das Geschäftsmodell.

Tech-Branche schließt ungewöhnliche Allianz

Die Härte der Regierungsreaktion schockierte die gesamte Technologiebranche und führte zu ungewöhnlichen Allianzen. In seltener Solidarität reichten Dutzende prominente Forscher und Ingenieure konkurrierender KI-Organisationen – darunter Google und OpenAI – eine gemeinsame Stellungnahme ein. Sie unterstützen damit Anthropics Rechtsposition.

Die Unterzeichner argumentieren, der aggressive Einsatz der Risiko-Einstufung durch das Pentagon drohe Innovationen zu ersticken und dem amerikanischen Technologie-Ökosystem zu schaden. Experten sehen in der Regierungsstrategie einen Machtverschiebung zwischen Washington und dem Silicon Valley.

Die Trump-Administration nutze ihr riesiges Beschaffungsbudget als Hebel, um Technologieanbietern Bedingungen zu diktieren. Damit könnte eine Ära enden, in der Tech-Firmen militärischen Kunden problemlos ethische Grenzen setzen konnten.

Anthropic betont indes, weiterhin nationale Sicherheitsziele unterstützen zu wollen – auf legale Weise, die seine Sicherheitsprinzipien nicht verletzt. Der Ausgang dieses Streits wird wegweisend sein: Er entscheidet, wer künftig die ethischen Grenzen für Militär-KI setzt – die Regierung oder private Entwickler.