KI-Entwickler opfert Hunderte Millionen Euro, um Zugriff chinesischer Staatsfirmen auf Claude zu blockieren. Die drastische Maßnahme folgt auf Enthüllungen über industrielle Spionagekampagnen und markiert eine neue Eskalation im Tech-Konflikt zwischen den USA und China.
Hunderte Millionen Euro für Sicherheit geopfert
Der KI-Entwickler Anthropic hat am 27. Februar 2026 den vollständigen Zugriff auf seine Claude-Modelle für alle mit der Kommunistischen Partei Chinas verbundenen Unternehmen gesperrt. Diese radikale Entscheidung kostet das Unternehmen nach eigenen Angaben mehrere Hundert Millionen Euro an entgangenen Umsätzen. Betroffen sind auch Organisationen, die das US-Verteidigungsministerium als chinesische Militärunternehmen einstuft.
Der Fall Anthropic zeigt, wie rasant sich die globale Sicherheitslage für digitale Technologien verschärft. Was Geschäftsführer jetzt über aktuelle Cyber-Security-Bedrohungen und die neuen gesetzlichen Rahmenbedingungen wissen müssen, erklärt dieser Experten-Report. Was Geschäftsführer über Cyber Security 2024 wissen müssen
„Diese Maßnahmen waren notwendig, um die amerikanische Technologieführerschaft zu verteidigen“, erklärte die Unternehmensführung. Anthropics Sicherheitsteams hätten zudem Cyberangriffe abgewehrt, die von chinesischen Stellen gesponsert wurden, um das Claude-System auszunutzen. Für einen privaten Technologiekonzern ist dieses proaktive Vorgehen ungewöhnlich – normalerweise scheuen Firmen Entscheidungen, die ihre Finanzen so stark belasten.
Industrielle Spionage: 16 Millionen Angriffe von drei Laboren
Die Sperre fällt mit Enthüllungen über massive Spionagekampagnen zusammen. Bereits am 23. und 24. Februar hatte Anthropic Details veröffentlicht: Drei große chinesische KI-Labore – DeepSeek, Moonshot AI und MiniMax – sollen industrielle Datenextraktionskampagnen durchgeführt haben.
Dabei nutzten sie laut Anthropic rund 24.000 gefälschte Accounts, um over 16 Millionen automatisierte Austausche mit dem Claude-Modell zu generieren. Die Angreifer wandten die sogenannte Distillation-Methode an: Ein hoch entwickeltes KI-System trainiert damit ein schwächeres, konkurrierendes Modell. Da der kommerzielle Zugang aus China bereits blockiert war, umgingen die Labore die Sperren über kommerzielle Proxy-Dienste mit komplexen Netzwerkarchitekturen.
Allein MiniMax extrahierte etwa 13 Millionen Konversationsaufzeichnungen. DeepSeek zielte gezielt auf Claudes einzigartige Fähigkeiten ab, etwa agentenbasiertes Denken oder Programmieren. Die Angreifer zwangen das Modell auch, zensurfreie Alternativen zu politisch sensiblen Anfragen zu generieren – vermutlich, um eigene Systeme auf politisch unverfängliche Antworten zu trainieren.
Konfrontation mit dem Pentagon: Keine Aufweichung der Sicherheitsregeln
Während Anthropic bereit ist, enorme finanzielle Verluste im Kampf gegen ausländische Gegner hinzunehmen, zieht das Unternehmen gegenüber dem eigenen Verteidigungsministerium eine klare rote Linie. Das Unternehmen weigerte sich, einem Ultimatum von Verteidigungsminister Pete Hegseth nachzukommen.
Das Pentagon forderte, die Sicherheitsvorkehrungen von Claude bis zum 27. Februar zu entfernen, um der US-Armee uneingeschränkten Zugriff zu ermöglichen. Bei Weigerung drohte das Ministerium damit, Anthropic als Risiko für die Lieferkette einzustufen und den Defense Production Act anzuwenden. Anthropic lehnte ab: Man könne gewissenhaft keine etablierten roten Linien überschreiten, die den Einsatz für Massenüberwachung oder autonome Waffen verbieten.
Während Großkonzerne wie Anthropic eigene Standards setzen, müssen Unternehmen in der EU bereits heute die strengen Anforderungen der neuen KI-Verordnung erfüllen. Dieser kostenlose Leitfaden erklärt verständlich, welche Dokumentations- und Kennzeichnungspflichten für Ihr Unternehmen gelten. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Unternehmensvertreter wiesen auf den Widerspruch in der Haltung der Regierung hin: Eine Bundesstelle stufe Anthropic als Sicherheitsrisiko ein, eine andere bezeichne Claude als „absolut essenziell“ für die Landesverteidigung. Anthropic betont, es sei das erste KI-Frontunternehmen gewesen, das Modelle in klassifizierten Regierungsnetzen einsetze.
Neue Standards und verschärfter Tech-Konflikt
Die Ereignisse Ende Februar 2026 markieren eine Zeitenwende in der KI-Governance. Experten sehen in Anthropics Vorgehen einen neuen Standard, wie Spitzen-KI-Unternehmen kommerzielle Expansion mit globalen Sicherheitsrisiken abwägen. Indem das Unternehmen freiwillig auf massive Einnahmen verzichtet, agiert es de facto als geopolitischer Akteur.
Der Konflikt um Modell-Distillation wird sich voraussichtlich verschärfen. Cybersicherheitsexperten warnen: Wenn ausländische Labore amerikanische Modelle „destillieren“, könnten sie dabei lebenswichtige Sicherheitsmechanismen entfernen. Die Technologie könnte so für offensive Cyberoperationen oder die Entwicklung biologischer Waffen instrumentalisiert werden. KI-Entwickler werden daher aggressivere Systeme zur Erkennung von Proxy-Netzwerken implementieren.
Gleichzeitig könnte der öffentliche Streit zwischen Anthropic und dem Pentagon zu Eingriffen des Kongresses führen. Gesetzgeber haben bereits erwogen, Bundesbehörden die Nutzung von Modellen ausländischer Gegner zu verbieten – der aktuelle Konflikt dürfte diese Bestrebungen beschleunigen. Der technologische Kalte Krieg treibt die Integration privater Sicherheitsprotokolle und staatlicher Exportkontrollstrategien voran.





