Der Konflikt zwischen dem KI-Entwickler Anthropic und der US-Regierung hat einen kritischen Punkt erreicht. Das Start-up weigert sich, Sicherheitsvorkehrungen seiner KI Claude für Militäranwendungen zu entfernen – und geht nun juristisch gegen das Verteidigungsministerium und die Trump-Administration vor. Dieser Präzedenzfall stellt die Grenzen zwischen Unternehmensethik und nationaler Sicherheit auf die Probe.
Seit August 2024 gelten auch in Europa neue Regeln für künstliche Intelligenz, die Unternehmen bei der Entwicklung und Nutzung vor große Herausforderungen stellen. Dieser kostenlose Leitfaden erklärt Ihnen kompakt die wichtigsten Anforderungen und Fristen der EU-KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt kostenlosen Umsetzungsleitfaden sichern
Doppelklage gegen „Risiko“-Einstufung
Am 9. März 2026 startete Anthropic eine juristische Offensive. Das Unternehmen reichte Klagen vor einem Bundesbezirksgericht in Kalifornien und einem Berufungsgericht in Washington D.C. ein. Ziel ist eine einstweilige Verfügung gegen das US-Verteidigungsministerium. Dieses hatte Anthropic kürzlich als nationales Risiko für die Lieferkette eingestuft – eine Maßnahme, die bisher nur ausländischen Gegnern vorbehalten war.
Die Klage argumentiert, die Regierung übe eine beispiellose Vergeltung aus. Der Kern des Streits: Anthropic lehnt es ab, seine KI Claude für Massenüberwachung im Inland oder den Betrieb vollständig autonomer Waffensysteme freizugeben. Die Einstufung als Risiko sei eine Bestrafung für die Einhaltung ethischer Grundsätze und verletze verfassungsmäßige Rechte.
Pentagon ordnet vollständige Entfernung an
Während Anthropic vor Gericht zieht, handelt die Regierung entschlossen. Ein interner Pentagon-Vermerk vom 6. März, unterzeichnet von CIO Kirsten Davies, ordnet an: Alle KI-Produkte von Anthropic müssen innerhalb von 180 Tagen aus Militärsystemen entfernt werden. Die Technologie stelle ein inakzeptables Risiko für Netze der Cybersicherheit und Raketenabwehr dar. Auch Auftragnehmer der Verteidigung müssen die Nutzung einstellen.
Parallel bereitet das Weiße Haus einen umfassenden Exekutivbefehl vor. Dieser würde das Verbot auf alle Bundesbehörden ausweiten und Anthropic von allen staatlichen Aufträgen ausschließen. Aus einer politischen Anweisung würde so formelles Bundesrecht.
Vorwürfe: Druck auf Privatkunden
Die Maßnahmen gehen laut Anthropic über staatliche Verträge hinaus. Vor Gericht gab Anwalt Michael Mongan am 11. März an, das Verteidigungsministerium übe aktiv Druck auf private Kunden des Start-ups aus. Diese würden aufgefordert, von Claude zu Konkurrenzprodukten zu wechseln.
Die Folge sei ein unmittelbarer, irreparabler Schaden. Universitäten und Geschäftskunden hätten bereits Kooperationen infrage gestellt oder seien abgesprungen. Diese Einmischung in den Privatsektor deute auf eine gezielte finanzielle Schwächung des Unternehmens hin – weit über reine Sicherheitsbedenken hinaus.
Während globale Tech-Konzerne über Sicherheitsfragen streiten, müssen hiesige Unternehmen vor allem die neuen gesetzlichen Rahmenbedingungen im Blick behalten. Was Geschäftsführer jetzt über Cyber-Security und die aktuelle KI-Regulierung wissen müssen, erfahren Sie in diesem Experten-Report. Kostenloses E-Book zu Cyber Security Trends 2024 herunterladen
Industrie solidarisiert sich im Tech-Streit
Der Konflikt hat Wellen durch die Tech-Branche geschlagen. Am 10. März reichten Dutzende KI-Experten von Konkurrenten wie Google und OpenAI eine gemeinsame Stellungnahme zugunsten von Anthropic ein. 37 Unterzeichner, darunter prominente Wissenschaftler, widersprechen der Darstellung einer nationalen Sicherheitsgefahr. Sie sehen einen willkürlichen Machtmissbrauch.
Analysten bewerten den Fall als Schlüsselmoment für digitale Souveränität. Die Frage lautet: Wer setzt die Grenzen für KI im Militär – die Exekutive, private Anbieter oder das Parlament? Die Spaltung im Silicon Valley wird sichtbar: Während Anthropic Militärverträge aus Ethik-Gründen ablehnt, sichert sich OpenAI genau diese.
Was kommt auf Anthropic zu?
Die unmittelbare Zukunft des Unternehmens hängt nun von den Gerichten ab. Wird die einstweilige Verfügung abgelehnt, beginnt der 180-Tage-Ausstieg. Verteidigungsauftragnehmer, die Claude für Analysen und Planung nutzen, müssten umstellen.
Langfristig dürfte der Streit Kongress-Anhörungen zur Regulierung militärischer KI-Beschaffung auslösen. Finanzanalysten warnen vor Umsatzeinbußen in dreistelliger Millionenhöhe. Der Ausgang wird zeigen, ob KI-Entwickler auch künftig strenge ethische Leitplanken aufrechterhalten können – ohne ihre Geschäftsgrundlage zu riskieren. Der Machtkampf zwischen Silicon Valley und Washington formt gerade den globalen KI-Markt neu.





