DeepSeek-V4: Chinesischer KI-Riese setzt auf heimische Chips

DeepSeek stellt KI-Modelle V4 Flash und Pro vor, die auf Huawei-Chips laufen und westliche Konkurrenz preislich unterbieten.

Der chinesische KI-Entwickler DeepSeek hat seine neue V4-Modellreihe vorgestellt – und setzt damit ein klares Zeichen im globalen Hardware-Wettlauf. Die Modelle laufen auf Huawei-Chips statt auf westlicher Technologie.

Die V4-Serie, bestehend aus den Varianten Flash und Pro, markiert eine strategische Wende. Statt auf Nvidia-Grafikprozessoren zu setzen, optimierte DeepSeek die Modelle für heimische Halbleiter. Damit umgeht das Unternehmen nicht nur Exportbeschränkungen, sondern unterbietet auch die Preise westlicher Konkurrenten deutlich.

Anzeige

Während neue Modelle wie DeepSeek den Markt fluten, müssen Unternehmen die rechtlichen Rahmenbedingungen der EU im Blick behalten. Dieser kostenlose Leitfaden zeigt Ihnen, welche Fristen und Kennzeichnungspflichten der AI Act für den Einsatz solcher KI-Systeme vorschreibt. EU AI Act Umsetzungsleitfaden jetzt kostenlos herunterladen

Offene Gewichte, aggressive Preise

Das Flaggschiff V4 Pro kommt auf 1,6 Billionen Gesamtparameter, von denen 49 Milliarden aktiv sind – das größte offene Modell seiner Art. Die Flash-Variante bietet 284 Milliarden Parameter mit 13 Milliarden aktiven Komponenten. Beide Modelle verarbeiten bis zu eine Million Token auf einmal.

In puncto Leistung misst sich der V4 Pro mit GPT-5.4 – vor allem bei Softwareentwicklung und komplexem Code. Die Preise sprengen den Markt: Der V4 Flash kostet umgerechnet 0,13 Euro pro Million Input-Token, der V4 Pro 0,14 Euro. Zum Vergleich: Gemini 3.1 Pro und GPT-5.4 liegen deutlich höher. Branchenbeobachter sprechen von einem Preisverfall von über 97 Prozent in den letzten Jahren.

Ein kostenloser Testzugang und eine API für kleine und mittlere Unternehmen runden das Angebot ab. Zielgruppe sind Firmen, die auf hochentwickelte Datenanalyse setzen, ohne sich an teure Ökosysteme zu binden.

Hardware-Unabhängigkeit als Strategie

Anders als frühere Generationen, die auf Nvidias H20 oder andere exportkonforme GPUs angewiesen waren, laufen die V4-Modelle auf Huawei-Chips. Dieser Schritt spiegelt einen Trend unter chinesischen Tech-Firmen wider: Sie streben nach Unabhängigkeit von westlicher Hardware, während die Exportbeschränkungen immer strenger werden.

Der Zeitpunkt ist kein Zufall. Am 24. April 2026 erreichte Nvidia einen Rekord-Börsenwert von umgerechnet 4,8 Billionen Euro – ein Plus von 84 Prozent Marktanteil bei High-End-KI-GPUs. Doch die Konkurrenz schläft nicht. Google präsentierte auf der Cloud Next 2026 seine achte TPU-Generation. Die TPU 8t schafft 121 Exaflops Rechenleistung und skaliert auf bis zu eine Million Chips. Die TPU 8i ist speziell für Inferenz optimiert und reduziert Latenzzeiten drastisch.

Wettbewerb verschärft sich

DeepSeek ist nicht allein. Am 22. April veröffentlichte Alibaba sein Qwen3.6-27B unter einer Apache-2.0-Lizenz. Trotz nur 27 Milliarden Parametern übertrifft es deutlich größere Modelle – etwa das 397-Milliarden-Parameter-Modell Qwen3.5 – bei Codierungs-Benchmarks. Mit einem SWE-bench-Wert von 77,2 nähert es sich Claude 4.5 Opus (80,9) an. Besonders beeindruckend: Das Modell läuft auf einer handelsüblichen RTX 5090 und erreicht 80 Token pro Sekunde.

OpenAI konterte am 25. April mit GPT-4.5 Omni und der stabilen Version von o3. GPT-4.5 Omni senkt die Inferenzkosten um 45 Prozent gegenüber GPT-4o und erreicht 88,7 Prozent im MMLU-Benchmark. Der Preiskrieg zwischen chinesischen und amerikanischen Anbietern beschleunigt sich rasant.

Meta setzt derweil auf AWS: Ein mehrjähriger Vertrag über zehn Millionen Graviton5-Prozessorkerne soll die Llama-Modell-Inferenz optimieren und die Kosten um 40 bis 60 Prozent senken.

Drei Königreiche der KI-Infrastruktur

Die erfolgreiche Implementierung von DeepSeek-V4 auf Nicht-Nvidia-Hardware zeigt: Der Markt für KI-Beschleuniger wird erwachsen. Nvidia investiert weiter massiv – unter anderem in die Übernahme des KI-Chip-Startups Groq für umgerechnet 18,8 Milliarden Euro Ende 2025. OpenAI soll eigenen Angaben zufolge über 18,8 Milliarden Euro in Cerebras-Chips investieren, um die Abhängigkeit von einem einzigen Zulieferer zu reduzieren.

Im Speicherbereich liefern Samsung und SK Hynix die nötige Bandbreite: Samsung hat einen funktionsfähigen chip für Sub-10nm-DRAM produziert, SK Hynix bereitet Muster für HBM4E vor. Diese Entwicklung ist entscheidend für Modelle wie DeepSeek-V4 Pro und die Vera-Rubin-NVL72-Cluster von Nvidia und Google Cloud.

Analysten sprechen von einem „Drei-Königreiche“-Szenario: Organisationen müssen zwischen westlichen proprietären Modellen (OpenAI, Google), offenen westlichen Modellen für Cloud-CPUs (Meta auf Graviton) und effizienten chinesischen Modellen (DeepSeek, Alibaba) navigieren.

Ausblick: Effizienz statt Größe

Für die zweite Jahreshälfte 2026 erwarten Experten einen Fokuswechsel: weg von schierer Modellgröße, hin zu architektonischer Effizienz und Hardware-Software-Co-Design. DeepSeek liefert mit seinem Umstieg auf heimische Chips eine Blaupause für andere regionale Player, die trotz Handelsbarrieren technologisch mithalten wollen.

Der Preisdruck durch günstige Hochleistungsmodelle wie die V4-Serie wird Premium-Anbieter zu weiteren Preissenkungen zwingen. Spezialisierte Inferenzchips – wie Googles TPU 8i oder Nvidias integrierte Groq-LPUs – dürften zum Standard für Echtzeit-KI-Anwendungen werden.

Für kleine und mittlere Unternehmen bedeutet das vor allem eines: mehr Wahlfreiheit zwischen teurer Exzellenz und günstiger Effizienz.