Anthropic: US-Verteidigungsministerium stempelt KI-Firma zur Sicherheitsgefahr ab

Das US-Verteidigungsministerium stufte Anthropic als Risiko ein, nachdem das Unternehmen ethische Sperren für autonome Waffen und Massenüberwachung nicht entfernen wollte. Ein historischer Rechtsstreit beginnt.

Das Pentagon hat den KI-Entwickler Anthropic zur Bedrohung für die Lieferkette erklärt – ein beispielloser Schritt gegen ein heimisches Unternehmen. Der Grund: Das Unternehmen weigert sich, ethische Sperren für den Einsatz in autonomen Waffen und Massenüberwachung zu entfernen. Ein historischer Rechtsstreit bahnt sich an.

Ethische rote Linien kollidieren mit militärischen Ansprüchen

Der Konflikt eskalierte bei Vertragsverhandlungen über den Einsatz des KI-Modells „Claude“ in militärischen Netzen. Anthropic, das mit einem Fokus auf KI-Sicherheit gegründet wurde, bestand auf zwei nicht verhandelbaren Bedingungen: Seine Technologie darf niemals vollautonome tödliche Waffensysteme steuern oder zur Massenüberwachung amerikanischer Bürger eingesetzt werden.

Anzeige

Während Regierungen und Konzerne über den Einsatz von KI streiten, müssen Unternehmen bereits heute konkrete gesetzliche Vorgaben erfüllen. Dieser kostenlose Leitfaden erklärt verständlich, welche Kennzeichnungspflichten und Risikoklassen die neue EU-KI-Verordnung für Sie bereithält. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Das Pentagon unter Verteidigungsminister Pete Hegseth forderte hingegen eine Klausel, die „alle gesetzlich erlaubten Zwecke“ umfasst. Die Militärführung argumentiert, dass ein privater Anbieter nicht das Recht habe, militärischen Operationen zusätzliche Beschränkungen aufzuerlegen. Dies gefährde die Handlungsfähigkeit und könne Soldaten in kritischen Momenten riskieren. Nachdem Anthropic nicht von seinen Grundsätzen abrückte, brachen die Gespräche ab.

Historische Schwarze Liste und sofortige Konsequenzen

Die Einstufung als „Supply Chain Risk“ ist ein schwerwiegendes Instrument. Bisher wurde es vor allem gegen ausländische Firmen wie chinesische Telekommunikationsanbieter eingesetzt. Für Anthropic bedeutet dies ein faktisches Verbot, Technologie für US-Verteidigungsprojekte zu liefern. Ein bestehender Vertrag über 200 Millionen Euro für klassifizierte KI-Tools ist damit akut gefährdet.

Präsident Donald Trump ordnete zudem an, dass alle Bundesbehörden die Nutzung von Anthropics Technologie sofort einstellen müssen. Für das Verteidigungsministerium gilt eine sechsmonatige Übergangsfrist, um die tief in klassifizierte Systeme – wie das „Maven Smart System“ des Auftragnehmers Palantir – integrierte KI zu ersetzen.

Als Ersatz hat das Pentagon bereits einen neuen Vertrag mit dem KI-Rivalen OpenAI unterzeichnet. OpenAI akzeptierte im Gegensatz zu Anthropic den weiten Rahmen der „gesetzlich erlaubten Zwecke“ und setzt stattdessen auf technische Sicherheitsvorkehrungen.

Klageankündigung und Unterstützung aus der Cloud

Anthropic-CEO Dario Amodei kündigte an, die Entscheidung vor Gericht anzufechten. Die rechtliche Grundlage für die Einstufung diene dem Schutz vor echten Sicherheitsbedrohungen, nicht der Bestrafung eines heimischen Zulieferers nach einem Vertragsstreit, so seine Argumentation.

Praktisch betrifft das Verbot jedoch nur direkte Geschäfte mit dem Verteidigungsministerium. Der Großteil der kommerziellen Kunden bleibt unberührt. Die großen Cloud-Anbieter Microsoft, Google und Amazon stellten klar, dass Anthropics Produkte für zivile Projekte uneingeschränkt verfügbar bleiben.

Anzeige

Der Einsatz von KI-Systemen in Unternehmen bringt nicht nur ethische Fragen, sondern auch neue regulatorische Anforderungen an die Cyber-Sicherheit mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen proaktiv schützen und welche neuen Gesetze Sie 2024 kennen müssen. Kostenlosen Cyber Security Report herunterladen

Kulturkampf zwischen Silicon Valley und Pentagon

Der Streit offenbart einen tiefen Graben zwischen der sicherheitsorientierten Kultur des Silicon Valley und den operativen Erfordernissen des Militärs. Emil Michael, Technologiechef des Pentagons, kritisierte die ethischen Restriktionen von Anthropic als „irrationale Hindernisse“ für militärische Fähigkeiten. Besonders alarmiert zeigte sich das Ministerium, als Anthropic nachfragte, ob seine KI in bestimmten Militäreinsätzen genutzt worden sei – ein Bruch mit dem Prinzip der absoluten Operationssicherheit.

Ironischerweise bescherte der Konflikt Anthropic einen Publicity-Boom. Nach Bekanntwerden der Weigerung schnellten die Download-Zahlen der Claude-App in die Höhe. Viele Tech-Mitarbeiter und Datenschützer solidarisieren sich mit dem Unternehmen, das seine prinzipielle Haltung nun zu einem Markenvorteil im Zivilbereich ummünzt.

Langer Rechtsstreit und Neuordnung der Branche

Die Branche bereitet sich auf einen langwierigen Rechtskampf vor, der wegweisend für die Beschaffung von KI durch Regierungen werden könnte. Zugleich beginnt eine komplexe sechsmonatige Übergangsphase für die US-Streitkräfte.

Das Vorgehen des Pentagons zwingt andere KI-Firmen, ihre eigenen roten Linien gegenüber militärischen Anwendungen klar zu definieren. Die Entscheidung im Streit mit Anthropic wird grundlegend prägen, wie das US-Militär in Zukunft mit der kommerziellen Technologiebranche zusammenarbeitet.