Nvidia und AMD investieren gemeinsam in KI-Startup RadixArk

Die Chip-Konkurrenten Nvidia und AMD beteiligen sich an einer 100-Millionen-Euro-Finanzierung für das KI-Infrastruktur-Startup RadixArk.

Die beiden Erzrivalen Nvidia und AMD steigen gemeinsam bei einem KI-Infrastruktur-Startup ein – ein seltenes Bündnis mit Signalwirkung für die gesamte Branche.

RadixArk Inc., ein auf KI-Entwickler-Infrastruktur spezialisiertes Unternehmen aus Palo Alto, hat in einer Seed-Finanzierungsrunde 100 Millionen Euro eingesammelt. Angeführt wurde die Runde von den Venture-Capital-Firmen Accel und Spark Capital. Neben Nvidia und AMD beteiligten sich auch Databricks sowie prominente Tech-Größen wie Broadcom-CEO Hock Tan, OpenAI-Mitgründer John Schulman und Hugging-Face-Co-Gründer Thomas Wolf. Die Bewertung des Startups liegt nach der Finanzierung bei rund 400 Millionen Euro.

Anzeige

Während Tech-Giganten Milliarden in die Infrastruktur investieren, stellt die neue EU-KI-Verordnung viele Unternehmen vor regulatorische Herausforderungen. Dieser kostenlose Leitfaden hilft Ihnen, die komplexen Anforderungen und Fristen des AI Acts für Ihren Betrieb rechtzeitig umzusetzen. EU AI Act in 5 Schritten verstehen

Die Technologie hinter dem Deal

RadixArk hat sich auf die Optimierung der Software-Ebene spezialisiert, die große KI-Modelle auf Hochleistungs-Hardware steuert. Das Unternehmen vermarktet zwei zentrale Open-Source-Projekte: SGLang und Miles.

SGLang fungiert als sogenannter Inference-Engine – eine Software, die KI-Modelle für Nutzeranfragen bereitstellt. Die Technologie steuert bereits Rechencluster mit über 400.000 Grafikkarten. Ihr entscheidender Vorteil: Sie löst das „Memory-Wall“-Problem. Normale KI-Modelle berechnen bei jeder Anfrage den gesamten Kontext neu – ein rechenintensiver Prozess. SGLang nutzt dagegen eine spezielle Datenstruktur (Radix Tree), um Zwischenergebnisse wiederzuverwenden und so die Rechenkosten drastisch zu senken.

Bereits vor dem offiziellen Markteintritt von RadixArk setzten Google, Microsoft und Elon Musks xAI auf die Technologie.

Speicher-Wunder für Milliarden-Parameter-Modelle

Das zweite Standbein heißt Miles – ein Projekt, das Ende 2025 veröffentlicht wurde. Es adressiert den wohl größten Engpass im aktuellen Hardware-Markt: den GPU-Speicher. Miles kann große Sprachmodelle mit bis zu einer Billion Parametern so komprimieren, dass sie auf eine einzige High-End-Grafikkarte passen. Forscher können damit riesige Modelle auf deutlich weniger Hardware trainieren als bisher nötig.

Ergänzt wird Miles durch das Framework MrlX, das das gleichzeitige Training mehrerer KI-Agenten in einer simulierten Umgebung ermöglicht. Die Agenten verbessern ihre Fähigkeiten durch gegenseitige Interaktion – ein Ansatz, der für die Entwicklung autonomer Problemlösungsfähigkeiten immer wichtiger wird.

Warum Nvidia und AMD plötzlich an einem Strang ziehen

Die gemeinsame Investition der beiden Erzrivalen ist ungewöhnlich. Nvidia dominiert den Markt für KI-Beschleuniger und setzt stark auf sein Software-Ökosystem CUDA. AMD positioniert seine Instinct-Serie als ernsthafte Alternative. Beide haben jedoch ein gemeinsames Interesse: Die Software muss ihre neuesten Chips effizient ausnutzen können.

RadixArks Fähigkeit, Berechnungen über Chips verschiedener Architekturen zu verteilen, kommt besonders AMD zugute. Für flexible Rechenzentren, in denen unterschiedliche Beschleuniger zusammenarbeiten, ist das ein entscheidender Vorteil.

Das Gründerteam bringt Know-how von beiden Seiten mit: Ying Sheng baute bei xAI die Inference-Systeme für die Grok-Modelle, Banghua Zhu war System-Spezialist bei Nvidia. Ihre Erfahrung mit der Infrastruktur für die anspruchsvollsten KI-Anwendungen gilt als entscheidend für den frühen Erfolg des Startups.

Markt im Wandel: Vom Training zur effizienten Nutzung

Die Finanzierung kommt zu einem Zeitpunkt, an dem sich der Fokus im KI-Infrastruktur-Markt verschiebt. Weg von roher Trainingsleistung, hin zu effizientem Betrieb im großen Maßstab. Für Unternehmen ist die Frage, wie sich Inference profitabel skalieren lässt, zum zentralen Thema geworden.

RadixArk konkurriert mit anderen Open-Source-Engines wie vLLM, das aus demselben Forschungsumfeld der UC Berkeley stammt. Die Unterstützung beider Chip-Hersteller verschafft dem Startup jedoch einen erheblichen Vorsprung bei der Hardware-Optimierung.

Anzeige

Neben der technischen Effizienz rücken auch die rechtlichen Rahmenbedingungen für den Einsatz von KI immer stärker in den Fokus von Unternehmen. Erfahren Sie in diesem kostenlosen E-Book, welche KI-Systeme als Hochrisiko eingestuft werden und welche Dokumentationspflichten Sie jetzt erfüllen müssen. Kostenlosen Umsetzungsleitfaden zum AI Act sichern

Ausblick: Vom Open-Source-Projekt zur Managed Platform

Mit den 100 Millionen Euro will RadixArk seine Plattform über Open-Source-Projekte hinaus zu einem verwalteten Infrastruktur-Angebot ausbauen. Geplant sind Tools und Cloud-Hosting-Dienste, mit denen Kunden KI-Modelle betreiben können, ohne sich um die zugrunde liegende Hardware kümmern zu müssen.

Das Unternehmen will außerdem die Unterstützung für weitere Modelltypen und Hardware-Architekturen ausbauen. Zielgruppe sind vor allem kleinere Cloud-Anbieter, die ihr Angebot um spezialisierte Inference-Dienste erweitern wollen.

Gelingt es RadixArk, Miles und SGLang zu einem kohärenten Enterprise-Produkt zu verschmelzen, könnte das Startup einen neuen Standard für das Zusammenspiel von KI-Hardware und -Software setzen. Die Betriebskosten für KI-Systeme ließen sich damit deutlich senken – eine entscheidende Voraussetzung dafür, dass die „KI-Revolution“ vom teuren Forschungsprojekt zur bezahlbaren Alltagstechnologie wird.