Google Gemma 4: KI-Modelle jetzt vollständig Open Source

Google stellt eine neue Generation quelloffener KI-Modelle vor, die dank einer freizügigen Lizenz uneingeschränkte kommerzielle Nutzung und lokalen Einsatz ermöglichen.

Google stellt mit Gemma 4 eine neue Generation leistungsstarker, quelloffener KI-Modelle vor. Die am 2. April 2026 veröffentlichte Familie soll Entwicklern und Unternehmen fortschrittliche Reasoning- und Agenten-Fähigkeiten direkt auf ihre Hardware bringen. Der Clou: Erstmals in der Serie setzt Google auf eine vollständig freizügige Apache-2.0-Lizenz. Das ermöglicht uneingeschränkte kommerzielle Nutzung und Modifikation – ein strategischer Schwenk des Tech-Giganten.

Die Modelle basieren auf der Forschungsarchitektur des proprietären Gemini 3, bieten aber Hochleistungs-Intelligenz mit deutlich geringerem Hardware-Bedarf als vergleichbare Spitzenmodelle. In einer Zeit, in der die Nachfrage nach lokal lauffähiger, sicherer und anpassbarer KI explodiert, positioniert sich Google damit als Schlüsselanbieter.

Anzeige

Während Google mit Gemma 4 die technologischen Möglichkeiten erweitert, stellt die EU bereits klare rechtliche Weichen für den Einsatz solcher Systeme. Dieser kostenlose Leitfaden zeigt Ihnen kompakt die wichtigsten Fristen und Pflichten der neuen EU-KI-Verordnung für Unternehmen. EU AI Act in 5 Schritten verstehen

Strategischer Lizenzwechsel: Volle Kontrolle für Entwickler

Der Wechsel zur Apache-2.0-Lizenz ist die größte Neuerung. Frühere Gemma-Generationen wurden als „Open-Weight“-Modelle vermarktet, hatten aber Nutzungsbeschränkungen. Jetzt erhalten Entwickler volle Kontrolle über Daten und Infrastruktur.

„Diese Lizenz soll eine Grundlage für digitale Souveränität bieten“, erklärt Richard Seroter, Chief Evangelist bei Google Cloud. Organisationen können die Modelle damit lizenzkostenfrei in eigenen Rechenzentren oder privaten Clouds einsetzen – ein entscheidender Faktor für Branchen wie Gesundheitswesen, Finanzen oder Rechtsdienstleistungen.

Analysten sehen in dem Schritt eine klare Antwort auf die wachsende Dominanz chinesischer Open-Source-Modelle wie DeepSeek oder Qwen. Mit der freizügigen Lizenz positioniert Google Gemma 4 als amerikanische Alternative für Entwickler, die Transparenz und Anpassbarkeit priorisieren. Das Gemma-Ökosystem verzeichnet bereits über 400 Millionen Downloads. Der Lizenzwechsel dürfte diesen Trend beschleunigen.

Vier Modelle, maßgeschneiderte Leistung

Gemma 4 kommt in vier Größen, jeweils optimiert für unterschiedliche Hardware:
* Effective 2B (E2B) & Effective 4B (E4B): Für Android-Geräte und Laptop-GPUs.
* 26-Milliarden-Parameter-MoE-Modell: Ein „Mixture of Experts“-Design, das bei der Inferenz nur etwa 3,8 Milliarden aktive Parameter nutzt. Es kombiniert die Leistung großer Modelle mit der Geschwindigkeit kleinerer.
* 31-Milliarden-Parameter-Dense-Modell: Das Flaggschiff, das Platz drei auf der globalen Arena AI Text Leaderboard-Liste für Open-Modelle belegt.

Die Effizienz ist beeindruckend. Laut Google-Forschern zielte die Entwicklung auf maximale „Intelligenz pro Parameter“. Erste Tests zeigen: Das 31B-Modell erreicht 89,2 Prozent im AIME 2026-Mathematik-Benchmark und 84,3 Prozent im wissenschaftlichen GPQA Diamond-Test. In bestimmten Logik- und Reasoning-Aufgaben kann es damit Modelle übertreffen, die 20-mal größer sind.

Multimodal und agentenfähig

Gemma 4 bringt native Multimodalität in die gesamte Familie. Die Modelle verarbeiten Text, Bilder und Audio in einem integrierten Ansatz. Die kleineren „Effective“-Modelle sind speziell für On-Device-Aufgaben wie Spracherkennung oder die Interpretation von Diagrammen optimiert.

Ein Schwerpunkt liegt auf der Unterstützung agentenhafter Workflows. Durch native Function-Calling- und JSON-Ausgabe-Fähigkeiten können die Modelle effektiv mit Drittanbieter-Tools und APIs interagieren. So entstehen autonome Agenten für mehrstufige Planungen und komplexe Logik – etwa ein lokaler Coding-Assistant, der nicht nur Code vorschlägt, sondern auch Architekturänderungen plant.

Der Kontextfenster wurde massiv erweitert. Die edge-optimierten Modelle bieten 128K Tokens, die größeren bis zu 256K. Damit verarbeiten sie ganze Software-Repositories oder Dokumentensammlungen in einer einzigen Anfrage.

Anzeige

Der Einsatz leistungsstarker KI-Modelle in Unternehmen bringt nicht nur Chancen, sondern auch neue rechtliche Risiken und Compliance-Vorgaben mit sich. Erfahren Sie in diesem Experten-Report, welche KI-Systeme als Hochrisiko gelten und wie Sie die Anforderungen des AI Acts rechtssicher umsetzen. Kostenlosen Umsetzungsleitfaden zum EU AI Act sichern

Marktimplikationen: Hybrid-Strategien und lokale KI

Die Einführung von Gemma 4 wird Wellen schlagen. Analysten wie Chirag Dekate von Gartner erwarten, dass CIOs zunehmend auf einen Mix aus proprietären und Open-Modellen setzen werden. Die Kosten effizienz und Anpassbarkeit von Gemma 4 macht es für Unternehmen attraktiv, die ihre Abhängigkeit von teuren API-Abonnements verringern wollen.

„Google baut sich eine Führungsposition in der ‚lokalen KI‘ auf“, sagt Holger Mueller von Constellation Research. Die Tatsache, dass sogar die größten Gemma-4-Modelle auf einer einzigen GPU laufen können, adressiert den Bedarf von Sektoren mit hohen Anforderungen an Latenz und Datenschutz.

Ein weiterer kritischer Faktor ist die Android-Integration. Gemma 4 wird die Basis für das kommende Gemini Nano 4 bilden. Apps, die heute mit Gemma 4 entwickelt werden, sind damit nativ mit künftigen KI-fähigen Mobilgeräten kompatibel – eine nahtlose Skalierung über Milliarden von Smartphones hinweg.

Die Modelle sind nativ auf über 140 Sprachen trainiert, was ihren Einsatz in globalen Organisationen erleichtert. Verfügbar sind sie sofort über Plattformen wie Hugging Face, Kaggle und Vertex AI. Mit über 100.000 Varianten früherer Generationen dürfte die neue Lizenz eine Welle community-getriebener Innovation auslösen. Der „Gemmaverse“ expandiert.