Anthropics KI im Einsatz – trotz Trump-Verbots

Trotz eines Präsidialerlasses setzte das US-Militär die KI Claude von Anthropic für Militäroperationen ein. Dies offenbart tiefe Konflikte über Kontrolle und Ethik fortschrittlicher KI-Systeme.

Die US-Armee setzte im Iran-Einsatz eine verbotene KI ein. Das zeigt den tiefen Graben zwischen Militär und Silicon Valley.

Washington D.C. – In einer brisanten Entwicklung nutzte das US-Militär künstliche Intelligenz des Tech-Unternehmens Anthropic während schwerer Luftangriffe auf den Iran. Das berichten mehrere Quellen übereinstimmend. Der Einsatz des KI-Modells Claude durch das US-Zentralkommando (CENTCOM) erfolgte nur Stunden, nachdem Präsident Donald Trump einen sofortigen Bann der Technologie für alle Bundesbehörden angeordnet hatte. Er begründete dies mit nationalen Sicherheitsrisiken.

Anzeige

Der Einsatz von KI in sensiblen Bereichen erfordert klare Regeln, wie sie die neue EU-KI-Verordnung seit August 2024 für Unternehmen vorschreibt. Dieser kostenlose Leitfaden erklärt Ihnen die wichtigsten Kennzeichnungspflichten und Risikoklassen verständlich. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Die Angriffe, angeblich eine gemeinsam Operation mit Israel, zielten auf wichtige iranische Stellungen. Sie fielen mit Meldungen über den Tod des iranischen Obersten Führers, Ayatollah Ali Khamenei, zusammen. Die Nutzung des KI-Systems für kritische Militäroperationen – trotz des gegenteiligen Präsidialerlasses – unterstreicht, wie tief fortschrittliche KI in moderne Kriegsführung integriert ist. Zugleich offenbart sich ein eskalierender Konflikt zwischen der Regierung und einem führenden KI-Entwickler über die ethische Nutzung seiner Technologie.

KI als unverzichtbarer Kriegsplaner

Während der Iran-Operationen kam Anthropics Claude KI Berichten zufolge für mehrere Schlüsselfunktionen zum Einsatz. Dazu gehörten Geheimdienstauswertungen, die Identifizierung potenzieller Ziele und das Durchspielen komplexer Gefechtssimulationen. Insider berichten, die KI sei in den Arbeitsabläufen des CENTCOM im Nahen Osten so fest verankert, dass eine sofortige Abschaltung trotz des Verbots schwierig war.

Es ist nicht das erste Mal, dass Claude in einer hochriskanten Militäroperation genutzt wird. Das Modell soll bereits an einer Mission im Januar in Venezuela beteiligt gewesen sein, die zur Gefangennahme von Präsident Nicolás Maduro führte. Dieser frühere Einsatz habe die Spannungen zwischen dem Pentagon und Anthropic verschärft und letztlich zum Verbot beigetragen. Die erneute Nutzung im Iran unterstreicht den hohen Wert, den Militärplaner der Technologie beimessen – ungeachtet politischer und ethischer Debatten.

Anzeige

Nicht nur im Militär, auch in der Wirtschaft verändern neue KI-Gesetze die Anforderungen an die IT-Sicherheit massiv. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen 2024 proaktiv vor Cyber-Risiken schützen können. Kostenloses E-Book zu Cyber-Security-Trends herunterladen

Bruch zwischen Pentagon und Silicon Valley

Die beispiellose Situation resultiert aus einem monatelangen Streit über Kontrolle und Sicherheitsvorkehrungen für leistungsstarke KI-Systeme. Anthropic, geführt von CEO Dario Amodei, hatte Forderungen des Pentagons nach uneingeschränktem Zugriff auf seine KI-Modelle zurückgewiesen. Das Unternehmen bestand darauf, „rote Linien“ zu wahren, um den Einsatz für Anwendungen wie Massenüberwachung im Inland oder vollautonome Waffensysteme zu verhindern.

Diese Haltung stieß auf scharfe Ablehnung der Regierung. Verteidigungsminister Pete Hegseth warf dem Unternehmen „Arroganz und Verrat“ vor. Das Militär lasse sich nicht „von den ideologischen Launen von Big Tech als Geisel nehmen“. Die Regierung stufte Anthropic daraufhin offiziell als „Risiko für die nationale Sicherheitslieferkette“ ein. Das Unternehmen kündigte an, diesen beispiellosen Schritt juristisch anzufechten.

Wer kontrolliert die KI der Zukunft?

Die Abhängigkeit von Claude für die Iran-Mission – selbst nach dem Verbot – zeigt, wie unentbehrlich KI-Werkzeuge für Sicherheitsoperationen geworden sind. Die Regierung räumte Schwierigkeiten bei einem sofortigen Übergang ein und gewährte Militärbehörden eine sechsmonatige Auslaufphase, um Alternativen zu finden.

Die Folgen sind bereits spürbar. Der Konkurrent OpenAI unter Sam Altman hat bereits eine Vereinbarung getroffen, um dem Pentagon KI-Kapazitäten für klassifizierte Netzwerke bereitzustellen. Er füllt so die Lücke, die Anthropic hinterlässt. Diese Entwicklung signalisiert die immense strategische Bedeutung fortsrittlicher KI-Modelle für militärische Überlegenheit. Die Debatte über ihre Kontrolle und ethischen Grenzen wird die Zukunft von Technologie und Kriegsführung prägen.