{"id":311161,"date":"2025-05-03T00:04:23","date_gmt":"2025-05-02T22:04:23","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=311161"},"modified":"2025-05-02T00:51:14","modified_gmt":"2025-05-01T22:51:14","slug":"qwen3-alibabas-neue-open-source-ki","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2025\/05\/03\/qwen3-alibabas-neue-open-source-ki\/","title":{"rendered":"Qwen3: Alibabas neue Open Source KI"},"content":{"rendered":"<p>Ende April hat der chinesische Anbieter Alibaba seine neue Open Source KI mit dem Namen Qwen3 vorgestellt. Es sei ein neues Open-Source-KI-Spitzenmodell mit Hybrid-Reasoning, hei\u00dft es von Alibaba.<\/p>\n<p><!--more--><\/p>\n<p>Alibaba stellt mit Qwen3 die neueste Generation seiner Open-Source-Sprachmodellreihe vor und setzt laut eigenen Angaben damit neue Ma\u00dfst\u00e4be in der KI-Entwicklung. Die neue Modellreihe umfasst insgesamt acht Varianten: sechs schlanke Modelle (mit 0,6B, 1,7B, 4B, 8B, 14B und 32B Parametern) sowie zwei Mixture-of-Experts (MoE)-Modelle (30B mit 3B aktiven Parametern und 235B mit 22B aktiven Parametern). Alle Varianten sind ab sofort quelloffen und weltweit verf\u00fcgbar.<\/p>\n<h2>Hybrid-Reasoning f\u00fcr flexiblere Denkprozesse<\/h2>\n<p>Mit Qwen3 f\u00fchrt Alibaba erstmals sogenannte Hybrid-Reasoning-Modelle ein. Diese k\u00f6nnen dynamisch zwischen einem \u201eDenkmodus\" f\u00fcr komplexe Aufgaben wie Mathematik, Programmierung und logisches Schlussfolgern und einem \u201eNicht-Denkmodus\" f\u00fcr schnelle, einfache Antworten wechseln.<\/p>\n<p>\u00dcber die API l\u00e4sst sich dabei zudem steuern, wie lange das Modell im Denkmodus bleiben darf \u2013 mit einem Kontextfenster bis maximal 38.000 Token. Besonders das neue Qwen3-235B-A22B-Modell (MoE) soll laut Alibaba mit hoher Leistung bei deutlich geringeren Infrastrukturkosten im Vergleich zu anderen Modellen seiner Klasse aufwarten.<\/p>\n<h2>Starke Performance bei Sprachen, Tools und Reasoning<\/h2>\n<p>Qwen3 wurde auf einem Datensatz mit 36 Billionen Token trainiert \u2013 doppelt so viel wie beim Vorg\u00e4ngermodell Qwen2.5. Das Large Language Modell (LLM) zeigt laut Alibaba deutliche Fortschritte in den Bereichen multilinguale F\u00e4higkeiten, Tool-Nutzung, Reasoning und Mensch-Maschine-Interaktion. Zu den Highlights z\u00e4hlen:<\/p>\n<ul>\n<li>Multilinguale Kompetenz: Das Modell unterst\u00fctzt 119 Sprachen und Dialekte und liefert starke Ergebnisse bei \u00dcbersetzungen und der Verarbeitung mehrsprachiger Anfragen.<\/li>\n<li>Agentenf\u00e4higkeiten: Qwen3 unterst\u00fctzt das Model Context Protocol (MCP) sowie leistungsstarkes Function Calling und geh\u00f6rt damit zu den f\u00fchrenden Open-Source-Modellen f\u00fcr komplexe, agentenbasierte Anwendungen.<\/li>\n<li>Reasoning-Leistung: In Benchmarks zu Mathematik, Programmierung und logischem Schlussfolgern \u00fcbertrifft Qwen3 alle bisherigen Modelle der Reihe \u2013 darunter QwQ im Denkmodus und Qwen2.5 im Nicht-Denkmodus.<\/li>\n<li>Bessere Mensch-Maschine-Interaktion: Qwen3 sorgt f\u00fcr nat\u00fcrlichere kreative Texte, realistischere Rollenspiele und fl\u00fcssigere mehrstufige Dialoge, die das Nutzererlebnis deutlich verbessern.<\/li>\n<\/ul>\n<p>Mit einer neuen Modellarchitektur, eines vergr\u00f6\u00dferten Trainingsdatensatzes und optimierter Lernmethoden soll Qwen3 Bestwerte in Benchmarks wie AIME25 (mathematisches Reasoning), LiveCodeBench (Programmierkompetenz), BFCL (Tool- und Funktionsnutzung) und Arena-Hard (Instruction Tuning) erzielen.<\/p>\n<p>Die Entwicklung des Hybrid-Reasoning-Modells basiert auf einem vierstufigen Trainingsprozess: Zun\u00e4chst startet das Modell mit einem Cold Start, bei dem es lernt, komplexe Aufgaben in nachvollziehbare Denkschritte aufzuteilen (Chain-of-Thought). Darauf folgt reasoning-basiertes Reinforcement Learning, das Verschmelzen von Denk- und Nicht-Denkmodus sowie ein abschlie\u00dfendes Feintuning durch allgemeines Reinforcement Learning.<\/p>\n<h2>Freie Verf\u00fcgbarkeit, um Innovation zu f\u00f6rdern<\/h2>\n<p>Die Qwen3-Modelle sind ab sofort kostenlos \u00fcber <a href=\"https:\/\/huggingface.co\/collections\/Qwen\/qwen3-67dd247413f0e2e4f653967f\" target=\"_blank\" rel=\"noopener\">Hugging Face<\/a>, <a href=\"https:\/\/github.com\/QwenLM\/Qwen3\" target=\"_blank\" rel=\"noopener\">Github<\/a> und <a href=\"https:\/\/modelscope.cn\/collections\/Qwen3-9743180bdc6b48\" target=\"_blank\" rel=\"noopener\">ModelScope<\/a> verf\u00fcgbar. Interaktive Tests k\u00f6nnen auf <a href=\"https:\/\/chat.qwen.ai\/\" target=\"_blank\" rel=\"noopener\">chat.qwen.ai<\/a> durchgef\u00fchrt werden. Ein API-Zugang wird in K\u00fcrze \u00fcber Alibabas Model Studio bereitgestellt. Zudem wird Qwen3 bereits in Alibabas hauseigener Superassistent-App <a href=\"https:\/\/www.alizila.com\/alibaba-unveils-flagship-ai-super-assistant-application-quark\/\" target=\"_blank\" rel=\"noopener\">Quark<\/a> eingesetzt.<\/p>\n<p>Seit ihrer Ver\u00f6ffentlichung wurde die Qwen-Modellreihe mehr als 300 Millionen Mal heruntergeladen. \u00dcber 100.000 abgeleitete Qwen-Modelle wurden von Entwicklern auf Hugging Face erstellt, wodurch Qwen zu einer der am meisten genutzten Open-Source-AI-Modellreihen weltweit z\u00e4hlt, schreibt der Hersteller. Alibaba Cloud (<a href=\"http:\/\/www.alibabacloud.com\/\" target=\"_blank\" rel=\"noopener\">www.alibabacloud.com<\/a>) wurde 2009 gegr\u00fcndet und fungiert als IT-Kompetenzzentrum der Alibaba Group.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ende April hat der chinesische Anbieter Alibaba seine neue Open Source KI mit dem Namen Qwen3 vorgestellt. Es sei ein neues Open-Source-KI-Spitzenmodell mit Hybrid-Reasoning, hei\u00dft es von Alibaba.<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7459],"tags":[4903,3836],"class_list":["post-311161","post","type-post","status-publish","format-standard","hentry","category-software","tag-ki","tag-software"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/311161","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=311161"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/311161\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=311161"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=311161"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=311161"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}