Die US-Regierung hat den KI-Entwickler Anthropic zum Sicherheitsrisiko erklärt und von Bundesaufträgen ausgeschlossen. Der Grund: Das Unternehmen weigerte sich, ethische Schutzvorkehrungen für Militäreinsätze zu entfernen. Konkurrent OpenAI sicherte sich umgehend einen neuen Vertrag mit dem Pentagon.
Seit August 2024 gelten in der EU bereits strenge Regeln für den Einsatz künstlicher Intelligenz, um ethische Risiken und Fehlentwicklungen zu vermeiden. Dieser kostenlose Leitfaden erklärt Ihnen kompakt, welche Dokumentationspflichten und Risikoklassen die neue Verordnung für Ihr Unternehmen vorsieht. EU-KI-Verordnung: Jetzt kostenloses E-Book sichern
Ethische „rote Linien“ führen zum Bruch
Der Konflikt eskalierte, als eine Frist des US-Verteidigungsministeriums verstrich. Die Pentagon-Führung forderte von Anthropic, seine KI Claude unter eine „All Lawful Use“-Klausel zu stellen. Diese hätte dem Militär freie Hand bei der Anwendung gegeben.
Doch das KI-Unternehmen blieb hart. Es pochte auf zwei ethische Grundsätze: ein Verbot des Einsatzes zur Massenüberwachung im Inland und ein Bann für die Integration in vollautonome Waffensysteme. Diese Systeme könnten tödliche Entscheidungen ohne menschliche Kontrolle treffen.
„Wir können unser Gewissen nicht beruhigen, wenn wir diese Beschränkungen aufheben“, erklärte CEO Dario Amodei. Die aktuellen KI-Modelle seien für solche hochriskanten Anwendungen noch nicht zuverlässig genug.
Das Pentagon konterte: Zwar gebe es keine aktuellen Pläne für die von Anthropic befürchteten Einsätze. Doch eine Privatfirma dürfe keine Militärstrategie vorgeben.
Harte Sanktionen und ein überraschender Deal
Die Reaktion der Trump-Administration folgte prompt. Der Präsident ordnete an, die Nutzung von Anthropic-Technologie in allen Bundesbehörden zu stoppen. Das Pentagon stufte das Unternehmen offiziell als „Risiko für die nationale Sicherheit“ ein – eine Markierung, die sonst ausländischen Gegnern vorbehalten ist.
Die Maßnahme blockiert nicht nur künftige Verteidigungsaufträge. Sie gefährdet auch ein bestehendes Projekt im Volumen von bis zu 200 Millionen Euro.
Nur Stunden nach dieser öffentlichen Abreibung meldete sich der große Rivale zu Wort: OpenAI gab eine neue Partnerschaft mit dem Pentagon bekannt. Der Deal ist pikant, denn CEO Sam Altman betonte, genau jene Prinzipien vertraglich zu verankern, für die Anthropic bestraft wurde.
„Massenüberwachung und der vollautonome Waffeneinsatz sind unsere Haupt-Rotlinien“, so Altman. Der Vertrag stelle sicher, dass die KI nicht eigenständig autonome Waffen steuere, wo die Vorschriften menschliche Kontrolle verlangten.
Die rasanten Entwicklungen im Bereich KI bringen nicht nur ethische, sondern auch neue technologische Sicherheitsrisiken für die Wirtschaft mit sich. Wie Geschäftsführer ihre Unternehmen 2024 effektiv vor Cyberbedrohungen schützen können, zeigt dieser aktuelle Experten-Report. Kostenlosen Cyber-Security-Leitfaden herunterladen
Globale Spannungen und der Kampf um die Kontrolle
Der innenpolitische Streit fällt in eine Zeit weltweit eskalierender Spannungen. Ein globaler KI-Wettrüsten ist im Gange. Internationale Bemühungen um Regeln für Militär-KI kommen kaum voran.
Sowohl die USA als auch China lehnten kürzlich eine globale Erklärung für verantwortungsvolle Militär-KI auf einem Gipfel in Spanien ab. Gleichzeitig drängt der UN-Generalsekretär auf einen verbindlichen Vertrag zu tölichen autonomen Waffen bis 2026 – ein ambitioniertes Ziel.
Der Konflikt zeigt ein grundsätzliches Problem auf: In den USA wie bei strategischen Konkurrenten wie China kann kein Privatunternehmen dem Staat Vorgaben für den Technologieeinsatz machen.
Das Pentagon treibt die KI-Integration aggressiv voran, um seinen technologischen Vorsprung zu wahren. Eine neue Strategie von Anfang 2026 soll bürokratische Hürden abbauen. Der Streit mit Anthropic beweist: Auch bei diesem Tempo wird das Militär auf Widerstand aus der Tech-Branche stoßen. Die Frage, wer die Algorithmen kontrolliert – ihre Schöpfer oder der Staat –, bleibt ungelöst.





