Anthropic: US-Gericht stoppt vorläufig Pentagon-Bann

Ein US-Bundesgericht erließ eine einstweilige Verfügung gegen den Ausschluss des KI-Unternehmens Anthropic von Regierungsaufträgen. Die Richterin sieht in der Einstufung als Lieferkettenrisiko mögliche staatliche Willkür.

Ein US-Bundesrichter hat die Entscheidung des Pentagon gestoppt, den KI-Konzern Anthropic von Staatsaufträgen auszuschließen. Die einstweilige Verfügung markiert einen wichtigen Etappensieg für das Unternehmen im Streit mit der US-Regierung über den ethischen Einsatz von Künstlicher Intelligenz.

US-Bezirksrichterin Rita Lin erließ die einstweilige Verfügung am Donnerstag. Sie blockiert vorübergehend die Einstufung von Anthropic als „Risiko für die Lieferkette“ durch das Verteidigungsministerium sowie eine Direktive von Präsident Donald Trump, die Behörden anweist, die KI-Technologie des Unternehmens nicht mehr zu nutzen. Die Anordnung gilt für sieben Tage, was Zeit für mögliche weitere rechtliche Schritte lässt.

Anzeige

Der Fall Anthropic zeigt, wie schnell der Einsatz moderner Technologien in rechtliche Grauzonen führen kann. Dieser kostenlose Leitfaden zur neuen EU-KI-Verordnung hilft Ihnen, die gesetzlichen Anforderungen und Risikoklassen für Ihr Unternehmen frühzeitig zu verstehen. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Gericht sieht staatliche Willkür

Der Schritt ist eine Reaktion auf die Klage von Anthropic gegen die Strafmaßnahmen der Regierung. Diese folgten auf die Weigerung des Unternehmens, den uneingeschränkten Einsatz seines KI-Modells Claude für vollautonome Waffensysteme oder Massenüberwachung im Inland zu erlauben.

Die Entscheidung der Richterin deutet darauf hin, dass die Regierung ihre Befugnisse wahrscheinlich überschritten hat. Die Maßnahmen könnten gegen geltendes Recht verstoßen und wirken willkürlich. Die einstweilige Verfügung verschafft Anthropic eine Atempause. Das Unternehmen kann seine Geschäfte mit dem Staat vorerst fortsetzen, während der größere Rechtsstreit weitergeht.

„Lieferketten-Risiko“ als umstrittene Waffe

Im Zentrum des Rechtsstreits steht die beispiellose Einstufung Anthropics als „Lieferketten-Risiko“ – ein Label, das typischerweise ausländischen Gegnern vorbehalten ist. Richterin Lin zeigte sich skeptisch gegenüber der Begründung der Regierung.

In einer Anhörung fragte sie nach der Notwendigkeit so drastischer Strafmaßnahmen. Sie deutete an, diese wirkten eher wie eine Bestrafung des Unternehmens denn wie die Abwehr legitimer Sicherheitsbedrohungen. Anthropic argumentierte, die Einstufung sei ein unrechtmäßiger Vergeltungsakt für die Ausübung der Meinungsfreiheit. Das Unternehmen hatte öffentlich seine Haltung zu KI-Sicherheit und Nutzungsbeschränkungen vertreten.

Richterin Lin unterstützte diese Position. „Nichts im geltenden Statut unterstützt die orwellsche Vorstellung, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, nur weil es eine andere Meinung als die Regierung vertritt“, heißt es in der Begründung.

Ursprung: Ethik-Kodex gegen Militär-Forderungen

Der Konflikt entzündete sich an den ethischen Richtlinien von Anthropic für sein KI-Modell Claude. Das Unternehmen untersagte in seinen Nutzungsbedingungen ausdrücklich den Einsatz für vollautonome tödliche Waffensysteme und heimische Massenüberwachung.

Das Pentagon forderte Berichten zufolge die Streichung dieser Restriktionen. Es bestand auf dem Recht, Claude für „alle legalen Zwecke“ nutzen zu dürfen. Als Anthropic hart blieb, eskalierte der Streit. Präsident Trump wies Behörden im Februar an, die Technologie nicht mehr zu nutzen. Verteidigungsminister Pete Hegseth stufte das Unternehmen formell als Lieferketten-Risiko ein.

Diese Schritte hätten Anthropic von wichtigen Militäraufträgen ausschließen und Bundesbehörden zum Umstieg auf andere KI-Lösungen zwingen können. Die Maßnahmen lösten Besorgnis in der gesamten Tech-Branche aus. Selbst Mitarbeiter von Konkurrenten wie Google und OpenAI äußerten Bedenken über den gefährlichen Präzedenzfall.

Weitreichende Folgen für KI-Industrie und Staat

Die einstweilige Verfügung hat Signalwirkung für das Verhältnis zwischen Tech-Konzernen und dem Staat. Sie unterstreicht die grundsätzliche Debatte: Wer setzt die ethischen Grenzen für den Einsatz mächtiger KI-Technologien – besonders in sensiblen Bereichen wie der nationalen Sicherheit?

Anzeige

Während die Politik über ethische Schranken streitet, müssen Unternehmen die bereits geltenden Kennzeichnungs- und Dokumentationspflichten für KI-Systeme umsetzen. Erfahren Sie in diesem kostenlosen E-Book, welche Fristen und Pflichten Sie seit August 2024 unbedingt beachten müssen. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen

Experten sehen in dem Urteil einen Appell für klarere Vergaberegeln. Vertragliche Streitigkeiten sollten durch etablierte Beschaffungsgesetze gelöst werden, nicht durch Maßnahmen, die für ausländische Gegner reserviert sind. Die Sorge in der Branche ist groß: Das Vorgehen des Pentagons könnte andere US-Firmen abschrecken, mit der Regierung bei Schlüsseltechnologien zusammenzuarbeiten.

Ausblick: Der Rechtsstreit geht weiter

Die einstweilige Verfügung ist ein wichtiger, aber nur vorläufiger Sieg für Anthropic. Es handelt sich nicht um ein Endurteil in der Sache. Die siebentägige Pause gibt der Regierung Gelegenheit, Berufung einzulegen. Die Hauptklage wird vor dem Bezirksgericht in Nordkalifornien verhandelt. Eine zweite, engere Klage liegt bereits bei einem Bundesberufungsgericht in Washington, D.C. vor.

Anthropic zeigte sich erleichtert über die schnelle Entscheidung. Ein Sprecher betonte, das Unternehmen bleibe darauf fokussiert, produktiv mit der Regierung zusammenzuarbeiten, damit alle Amerikaner von sicherer und zuverlässiger KI profitieren könnten. Der laufende Prozess wird den Dialog über KI-Ethik, staatliche Beschaffung und die Grenzen unternehmerischer Verantwortung in einer Ära rasanten technologischen Fortschritts weiter prägen.