KI-Krieg: USA verbieten Anthropic, OpenAI springt ein

Die US-Regierung schaltet Anthropic aus, nachdem das KI-Unternehmen ethische Grenzen für Militärverträge durchsetzen wollte. OpenAI übernimmt das Geschäft unter ähnlichen Bedingungen.

Die US-Regierung hat den KI-Riesen Anthropic ausgeschaltet und dessen Militärgeschäft an den Rivalen OpenAI übergeben. Der Grund: ein Streit über ethische Grenzen für den Kriegseinsatz von Künstlicher Intelligenz.

Washington D.C. – Es ist ein beispielloser Machtkampf zwischen Silicon Valley und dem Pentagon: Die Trump-Regierung hat am Freitag eine Regierungsanweisung erlassen, die den Einsatz der KI-Technologie des Sicherheitsspezialisten Anthropic in allen Bundesbehörden verbietet. Die Entscheidung folgte auf einen wochenlangen Streit, in dem das Unternehmen sich weigerte, ethische Sicherheitsvorkehrungen für seine Militärverträge aufzuheben. Nur Stunden nach dem Verkünden des Verbots sicherte sich der Konkurrent OpenAI einen neuen Vertrag mit dem US-Verteidigungsministerium.

Anzeige

Der aktuelle Machtkampf verdeutlicht, wie rasant sich die rechtlichen Rahmenbedingungen für Künstliche Intelligenz verschärfen. Dieser kostenlose Leitfaden erklärt die neuen Anforderungen der EU-KI-Verordnung und was Unternehmen jetzt bei der Dokumentation und Risikoklassifizierung beachten müssen. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Der Bruch: Ethische „rote Linien“ als Stolperstein

Im Zentrum des Konflikts steht die Frage, wer die Verantwortung für den militärischen Einsatz von KI trägt. Anthropic, das sein Geschäftsmodell auf KI-Sicherheit aufbaut, hatte zwei klare Bedingungen gestellt: Seine Technologie darf nicht für Massenüberwachung der eigenen Bevölkerung und nicht für vollautonome Waffensysteme ohne menschliche Kontrolle genutzt werden.

Das Pentagon lehnte diese Einschränkungen ab. Es forderte stattdessen eine Klausel, die den Einsatz der KI für „alle rechtmäßigen Zwecke“ erlaubt – eine Formulierung, die Anthropic als zu vage und gefährlich ablehnte. Verteidigungsbeamte kritisierten, dass ein Privatunternehmen nicht die Operationsregeln der US-Streitkräfte diktieren dürfe. Alle Einsätze würden ohnehin vom US-Recht gedeckt.

Dabei war Anthropics KI-Modell Claude das einzige seiner Art in den geheimen Netzwerken des Pentagons. Es wurde für nachrichtendienstliche Analysen, Operationsplanung und Cyber-Einsätze genutzt.

Die Vergeltung: Verbot und Stigmatisierung

Als Anthropic nicht nachgab, schlug die Regierung hart zurück. Präsident Trump ordnete über Truth Social an, die Nutzung von Anthropic-Technologie „SOFORT EINZUSTELLEN“. Verteidigungsminister Pete Hegseth stufte das Unternehmen zudem als „Lieferkettenrisiko“ ein. Diese Maßnahme, normalerweise Firmen mit Verbindungen zu ausländischen Gegnern wie Huawei vorbehalten, soll tausende Zulieferer der Rüstungsindustrie davon abhalten, mit Anthropic zu arbeiten.

Dem Pentagon wurden sechs Monate Zeit gegeben, die tief in seine Systeme integrierte Technologie zu ersetzen – eine enorme technische Herausforderung. Anthropic kündigte an, die Einstufung gerichtlich anzufechten.

Der Wechsel: OpenAI übernimmt – unter Bedingungen

In einer überraschenden Wendung gab OpenAI-CEO Sam Altman nur Stunden nach dem Bruch mit Anthropic bekannt, sein Unternehmen habe eine Vereinbarung mit dem Pentagon getroffen. Noch überraschender: OpenAI behält sich ähnliche ethische Grenzen vor wie sein ausgeschalteter Konkurrent. Der Vertrag verbiete Massenüberwachung und stelle sicher, dass die Verantwortung für Gewalteinsätze beim Menschen liege.

Warum das Pentagon diese Bedingungen nun bei OpenAI akzeptiert, nachdem sie zum Bruch mit Anthropic führten, ist unklar. Die Doppelmoral wirft Fragen auf.

Anzeige

Ob im Verteidigungssektor oder in der Privatwirtschaft – wer KI-Systeme entwickelt oder nutzt, muss die seit August 2024 geltenden Regeln genau kennen. Erfahren Sie in diesem kostenlosen E-Book alles über Kennzeichnungspflichten und Übergangsfristen, um rechtliche Risiken und Bußgelder zu vermeiden. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen

Die Enthüllung: Verbotene KI soll trotzdem im Einsatz sein

Am Sonntag verdichtete sich der Skandal weiter: Medienberichten zufolge sollen US-Militärschläge im Nahen Osten auch nach Erlass des Verbots noch mit Anthropics KI-System Claude durchgeführt worden sein. Sollte sich dies bestätigen, zeigt es, wie abhängig militärische Operationen bereits von der Technologie sind – und wie schwer ein Verbot durchzusetzen ist.

Was bedeutet das für die Zukunft?

Der Konflikt markiert eine Zeitenwende in der Beziehung zwischen der KI-Industrie und dem Militär. Er zwingt zu einer öffentlichen Debatte darüber, wer die ethischen Leitplanken für den Einsatz dieser mächtigen Dual-Use-Technologien setzt.

In den kommenden Monaten muss das Pentagon seine Systeme umbauen, während OpenAI unter scharfer Beobachtung integriert wird. Anthropic steht vor einem massiven Reputations- und Geschäftsschaden und einem langwierigen Rechtsstreit. Das Ergebnis dieses Machtkampfs wird einen Präzedenzfall dafür setzen, wie die USA und Silicon Valley die Zukunft der KI in der nationalen Sicherheit verhandeln.