DeepSeek stellt westliche AI-Dominanz in Frage

Chinas führender KI-Konzern DeepSeek will westliche Modelle übertreffen, während neue Gesetze die Integration staatlicher Zensur in die Technologie vorschreiben. Dies verschärft internationale Sicherheitsbedenken.

Während Chinas führender AI-Konzern DeepSeek mit technologischen Durchbrüchen weltweit Aufmerksamkeit erregt, zieht Peking gleichzeitig die Zügel der Zensur an. Die widersprüchliche Strategie – aggressive Expansion nach außen, rigide Kontrolle nach innen – offenbart das ideologische Dilemma der chinesischen Technologiepolitik und verschärft internationale Sicherheitsdebatten grundlegend.

DeepSeek könnte US-Modelle überflügeln

Spannungen zwischen Washington und Peking verschärfen sich: Der Hangzhou-basierte AI-Entwickler DeepSeek will Anfang Februar ein spezialisiertes Coding-Modell präsentieren, das laut Brancheninssidern OpenAIs GPT-4.5 übertreffen könnte. Das Unternehmen nutzt dafür eine neuartige „Manifold-Constrained Hyper-Connections“-Trainingsmethode, die komplexe Programmieraufgaben effizienter bewältigt als aktuelle Marktführer.

Besonders beunruhigend für westliche Beobachter ist DeepSeeks Open-Source-Strategie. Durch kostenlos verfügbare Modelle hat das Unternehmen seine Technologie bereits in globalen Infrastrukturen verankert. Ein Skandal um den südkoreanischen Tech-Konzern Naver zeigt das Ausmaß: Dessen staatlich unterstütztes „Sovereign-AI“-Projekt integrierte unbemerkt Komponenten aus Alibabas Qwen-Modell – ein warnendes Zeichen für Länder, die unabhängige AI-Systeme aufbauen wollen.

„Die Lücke schließt sich schneller als erwartet“, warnt ein Shanghai-basierter Tech-Analyst. „Mit der kommenden V4-Architektur entstehen chinesische Modelle, die westliche nicht bloß imitieren, sondern in spezialisierten Bereichen wie Softwareentwicklung möglicherweise übertreffen.“

Anzeige

Passend zum Thema KI-Regulierung – die internationalen Unsicherheiten um exportierte Zensurstandards zeigen: Unternehmen und Entwickler müssen jetzt wissen, welche Pflichten auf sie zukommen. Ein kostenloses E‑Book zur EU‑KI‑Verordnung erklärt Kennzeichnungspflichten, Risikoklassifizierung, Dokumentationsanforderungen und Übergangsfristen praxisnah und ohne Juristendeutsch. Ideal für Teams, die KI-Systeme entwickeln oder integrieren und Bußgelder vermeiden wollen. KI‑Verordnung: Umsetzungsleitfaden jetzt herunterladen

Peking perfektioniert digitale Gedankenkontrolle

Die andere Seite der Medaille: Während DeepSeek expandiert, dreht die chinesische Regierung die Kontrollschraube brutal an. Mit sofortiger Wirkung startet die chinesische Rundfunk- und Fernsehbehörde eine vierwöchige Kampagne gegen „Magic Editing“ – AI-generierte Inhalte, die staatliche Narrative verfälschen oder revolutionäre Figuren „respektlos“ darstellen.

Besonders Deepfakes und Face-Swapping-Technologien stehen im Visier, die Führungspersonen karikieren oder sensible Geschichtsereignisse neu interpretieren könnten. Doch die Kampagne ist nur die sichtbare Seite einer technologischen Realität, die deutlich bedrängender wirkt: Internationale Tech-Beobachter dokumentieren, dass DeepSeeks aktuelle Modelle Inhalte in Echtzeit filtern – nicht durch schlichte Keyword-Blockaden, sondern durch Prompt-Intentionsanalyse.

In Tests verweigerten die Systeme etwa 85 Prozent aller Anfragen zu politisch sensiblen Themen wie Taiwans Status oder dem Tiananmen-Massaker von 1989. Häufig brachen die Verbindungen einfach ab oder lenkten auf „sichere“ Themen wie Mathematik aus.

Das Cybergesetze: Ideologie als Bauplans

Grundlage dieser Enforcement-Welle ist Chinas neues Cybergesetzengesetz, das zum 1. Januar 2026 vollständig in Kraft trat. Die Novelle transformiert AI-Regulierung zur Sicherheitsfrage auf nationalstaatlicher Ebene.

Alle AI-Service-Provider müssen fortan garantieren, dass ihre Algorithmen „sozialistische Grundwerte wahren“ und keine „nationale Sicherheit gefährden“. Das Gesetz führt strenge Haftung für Entwickler ein und verpflichtet sie zu „ethischen Überprüfungssystemen“. Rechtsexperten erkennen darin ein System, das AI-Unternehmen faktisch zu staatlichen Zensoren erklärt – mit ideologischen Sperren, die direkt in die Modellarchitektur eingebaut sind.

„Das ist kein Datenschutzgesetz“, erklärt ein Spezialist für chinesische Tech-Regulierung. „Es ist ein Souveränitäts-Instrument. Es garantiert, dass chinesische AI beim Export die ideologische DNA des Staates mitbringt. Für internationale Nutzer ist die Gefahr: Diese ‚Sicherheits‘-Features sind untrennbar mit der Modell-Funktionalität verflochten.“

Westliche Regulatoren geraten in Alarm

Die internationale Reaktion fällt deutlich aus. Europäische Behörden, die DeepSeeks Datenpraktiken seit Ende 2025 untersuchen, äußern ernsthafte Sorgen vor der „Ausfuhr“ von Zensurstandards. Das Risiko: Internationale Entwickler könnten die effizienten chinesischen Open-Source-Modelle kostengünstig adaptieren – und dabei verborgen Zensurfilter oder Verzerrungen mitschleifen, die sich nur schwer aufdecken und entfernen lassen.

In den USA intensiviert sich der Druck auf Export-Kontrollen für AI-Hardware und -Software. Congressman fordern Untersuchungen, wie US-Cloud-Services möglicherweise unbemerkt das Training rivalisierender Modelle unterstützen. Südkoreas Naver-Skandal wirkt als Weckruf: Es ist nahezu unmöglich, nationale AI-Projekte vom global dominanzierenden chinesischen Open-Source-Ökosystem zu entkoppeln.

Prüfstein im Februar: Was DeepSeek offenbart

Mit DeepSeeks Februar-Launch rückt ein Schicksalsmoment näher. Gelingt die Präsentation eines Coding-Modells, das GPT-4.5 ebenbürtig ist, würde das Pekings Strategie validieren: dass strikte Zensur und technische Exzellenz kein Widerspruch sein müssen.

Die „Magic Editing“-Kampagne verrät allerdings eine andere Wahrheit – dass kreatives AI-Potenzial innerhalb Chinas massiv beschnitten bleibt. Für den Rest der Welt lautet die zentrale Frage 2026: Wie trennt man die Effizienz chinesischer AI-Tools von den politischen Werten, die in ihnen kodiert sind? Die Chinesische Mauer filtert künftig nicht nur Informationen, die nach China gelangen – sie wird zur Schleuse für die Intelligenz, die hinausströmt.

Anzeige

PS: Arbeiten Sie mit KI‑Tools oder planen deren Einsatz? Die EU‑Regeln sind komplex, aber vermeidbare Fehler können teuer werden. Dieser kostenlose Umsetzungsleitfaden fasst die wichtigsten Schritte zusammen – von Klassifizierung bis Dokumentation – und liefert klare Checklisten für die schnelle Umsetzung. So schützen Sie Ihr Projekt vor rechtlichen Risiken und sorgen für transparente Modelle. Jetzt KI‑Act‑Leitfaden kostenlos anfordern