Der Wettlauf um die schnellsten KI-Systeme erhält einen neuen, offenen Standard. Das Ultra Accelerator Link (UALink) Consortium hat die Spezifikation UALink 2.0 veröffentlicht. Sie soll die Kommunikation zwischen KI-Chips in Rechenzentren standardisieren und so eine Alternative zu proprietären Lösungen schaffen. Der Zeitpunkt ist entscheidend, denn die Branche kämpft mit den enormen Bandbreitenanforderungen moderner KI-Cluster.
Der Flaschenhals bei KI-Clustern ist die Verbindung
Das größte Problem beim Training riesiger KI-Modelle ist heute oft nicht die Rechenleistung der einzelnen Chips, sondern die Geschwindigkeit, mit der sie untereinander Daten austauschen. Hier setzt UALink 2.0 an. Der Standard nutzt den neuesten Stand der Technik, etwa Silizium-Photonik-Modulatoren mit 224 Gigabit pro Sekunde (Gbps) pro Lane. Diese Geschwindigkeit, zuletzt von Samsung in 300-Millimeter-Wafer-Prozessen demonstriert, ermöglicht einen gewaltigen Sprung bei der Gesamtbandbreite.
Während neue Standards wie UALink 2.0 die technische Basis für KI-Systeme legen, müssen Unternehmen auch die rechtlichen Rahmenbedingungen im Blick behalten. Dieser kostenlose Report klärt auf, welche neuen Regeln die EU-KI-Verordnung für den Einsatz von KI-Systemen aufstellt. Welche KI-Systeme gelten als Hochrisiko? Jetzt kostenlos informieren
„Für die nächste Generation multimodaler Modelle wie Llama 4 sind solche Datenraten unverzichtbar“, erklärt ein Branchenkenner. Der Standard definiert die physikalische und Link-Schicht für die Punkt-zu-Punkt-Kommunikation zwischen Beschleunigern wie GPUs und NPUs. Das Ziel: Betreiber können Hardware verschiedener Hersteller kombinieren, ohne die niedrige Latenz geschlossener Systeme zu opfern. Genau das wird für „Open-Weight“- und Mixture-of-Experts-Architekturen (MoE) benötigt, die Daten effizient zwischen Tausenden von Prozessoren routen müssen.
Offener Standard trifft auf Nvidias Lizenz-Offensive
Die Veröffentlichung von UALink 2.0 fällt in eine Phase strategischer Neuausrichtungen. Das UALink-Konsortium, zu dem Broadcom, Intel und AMD gehören, positioniert sich traditionell als offene Alternative zu Nvidias eigenem NVLink. Doch das Kräfteverhältnis verschiebt sich.
Nvidia hat kürzlich Lizenzen für seine NVLink-Fusion-Technologie vergeben und dafür fünf Milliarden Euro in Intel und zwei Milliarden Euro in Marvell Technology investiert. Diese Deals sollen Nvidias Interconnect-Fabric in deren kundenspezische Chip-Ökosysteme integrieren. Bedeutet das ein Ende des „Interconnect-Krieges“?
„Eher eine Koexistenz“, analysieren Beobachter. UALink 2.0 sei der strategische Gegenzug, um der Open-Source-Hardware-Community eine leistungsstarke Alternative zu erhalten. Die Partnerschaft zwischen Nvidia und Marvell im Bereich Silizium-Photonik unterstreiche den Druck auf das UALink-Konsortium, seinen Standard schnell auf den Markt zu bringen.
Hardware-Roadmap: Von Nova Lake zu 2-Nanometer-Chips
Die praktische Anwendung von UALink 2.0 wird sich in den Hardware-Zyklen 2026/27 zeigen. Intels für Ende 2026 angekündigte „Nova Lake“-Architektur (Core Ultra 400) mit bis zu 52 Kernen und 288 MB L3-Cache wird Hochbandbreiten-Verbindungen wie UALink 2.0 benötigen, um den Datenfluss zur KI-Hardware zu managen. Auch modulare, Chiplet-basierte Designs wie „Panther Lake“ oder das mit Nvidia-GPUs spekulierten „Serpent Lake“ setzen auf standardisierte Links.
Der rasante technologische Fortschritt bei KI-Chips erfordert nicht nur neue Hardware, sondern auch eine Anpassung an die aktuellen Compliance-Vorgaben der EU. Sichern Sie sich diesen kostenlosen Leitfaden, um Fristen, Pflichten und Risikoklassen des AI Acts kompakt zu verstehen. EU AI Act in 5 Schritten verstehen – hier kostenloser Download
Die Fertigungskapazitäten rüsten sich ebenfalls. Samsungs 2-Nanometer-Gate-All-Around (GAA)-Prozess in Taylor, Texas, hat Berichten zufolge eine Ausbeute von 60 Prozent erreicht. Die Serienproduktion für KI-Chips von Kunden wie Tesla soll 2027 starten. Viele dieser fabless-Firmen setzen auf standardisierte Interconnects, um unabhängiger von Einzelanbietern zu werden. Die Integration von Silizium-Photonik, bei der Samsung nun Foundry-Services anbietet, wird für UALink 2.0 entscheidend sein, um den Stromverbrauch zu senken und Signalreichweiten zu erhöhen.
Wirtschaftlichkeit und Nachhaltigkeit im Fokus
Hinter dem technischen Update steckt auch eine ökonomische Logik. Angesichts stark steigender DRAM-Preise – Samsung kündigte für das zweite Quartal 2026 eine weitere Erhöhung um 30 Prozent an – steht die Kosteneffizienz von KI-Infrastruktur im Fokus. Standardisierte Verbindungen wie UALink 2.0 können durch mehr Wettbewerb auf dem Markt für Beschleuniger und Netzwerkkomponenten Kosten senken.
Gleichzeitig rückt die Ökobilanz von KI in den Mittelpunkt. Cloud-Anbieter wie Google setzen mit TPUs der siebten Generation („Ironwood“) auf eine 3,7-fach verbesserte Kohlenstoffeffizienz. UALink 2.0 unterstützt diesen Trend, indem es den Energieverbrauch pro übertragenem Bit optimiert. Durch geringeren Overhead bei der Datenbewegung hilft der Standard Betreibern, ihre Rechenressourcen effizienter zu nutzen und Nachhaltigkeitsziele einzuhalten.
Ausblick: Demokratisierung der KI-Hardware?
Die Einführung von UALink 2.0 wird etappenweise erfolgen. Erste Hardware-Implementierungen werden für Ende 2026 mit Intels Nova Lake und AMDs Zen 6 erwartet. Bis 2027 soll der Standard in Hochdichte-KI-Racks, insbesondere mit 224-Gbps-optischen Modulatoren, zum Einsatz kommen.
Langfristig könnte UALink 2.0 die KI-Hardware demokratisieren. Gelingt der breite Durchbruch, entstünde ein fragmentierterer, aber wettbewerbsintensiverer Markt. Spezialisierte Start-ups und etablierte Hersteller könnten dann mit den Branchenriesen auf Augenhöhe konkurrieren. Während KI-Modelle immer komplexer werden, bleibt der „Kampf um die Verbindung“ ein zentrales Tech-Thema. UALink 2.0 ist dabei ein entscheidender Pfeiler für die Bewegung offener Standards.




