Google, Microsoft und xAI unterziehen sich KI-Tests vor Veröffentlichung

Tech-Giganten unterziehen ihre KI-Modelle künftig staatlichen Sicherheitstests. EU verschiebt indes strenge Regeln für Hochrisiko-KI.

Ein Novum in der Branche.

Das Center for AI Standards and Innovation (CAISI) wird künftig die Modelle von Google, Microsoft und xAI vor deren öffentlicher Freigabe auf nationale Sicherheitsrisiken untersuchen. Die Behörde hat bereits 40 Tests an verschiedenen KI-Systemen durchgeführt. Im Fokus stehen Schwachstellen in der Cybersicherheit sowie das Potenzial der Modelle für die Entwicklung biologischer oder chemischer Waffen.

Anzeige

Angesichts der neuen Sicherheitsprüfungen für KI-Modelle rücken auch für Unternehmen die rechtlichen Rahmenbedingungen und Cybersicherheits-Anforderungen immer stärker in den Fokus. Dieser kostenlose Report klärt auf, welche rechtlichen Pflichten und Bedrohungen Unternehmer jetzt im Zusammenhang mit neuen KI-Gesetzen kennen müssen. Kostenlosen Cyber-Security-Report für Unternehmer sichern

Den Weg bereitet hatte OpenAI, das sein Modell ChatGPT-5.5 vor der Veröffentlichung bereits der Regierung zur Prüfung vorlegte. Nun folgen die anderen Branchengrößen. Das Weiße Haus denkt laut über weitere Schritte nach – bis hin zu einer formellen Zulassungspflicht für KI-Modelle, ähnlich der Arzneimittelprüfung durch die FDA. Allerdings gibt es intern offenbar Uneinigkeit: Man wolle keine Politik, die einzelne Unternehmen bevorzugt oder benachteiligt.

EU verschiebt strenge KI-Regeln

Während die USA auf ein technisches Prüfverfahren setzen, justiert die Europäische Union ihren regulatorischen Kurs nach. Nach Kritik aus der Industrie haben EU-Parlament und Rat einen Aufschub für die Regeln zu Hochrisiko-KI-Systemen vereinbart. Die Frist für eigenständige Hochrisiko-KI-Produkte verschiebt sich um 16 Monate auf Dezember 2027. Für KI in physischen Produkten wie Spielzeug oder Maschinen gilt nun August 2028.

Mehrere große europäische und internationale Industrieunternehmen hatten gewarnt, dass Überregulierung Innovationen ersticken könnte. Bestimmte Verbote bleiben jedoch auf der Überholspur: Die Regeln gegen KI-generierte nicht-einvernehmliche sexuelle Inhalte und Kindesmissbrauchsmaterial sollen bereits Dezember 2026 in Kraft treten. Mittelständische und kleine Unternehmen dürfen mit Ausnahmen oder vereinfachten Verfahren rechnen. Die formelle Verabschiedung wird noch vor August 2026 erwartet.

OpenAI bringt drei neue Audio-Modelle

Parallel zu den regulatorischen Entwicklungen überschlagen sich die Produktankündigungen. OpenAI hat diese Woche seine Realtime API um drei Audio-Modelle erweitert: GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper. Das Flaggschiff GPT-Realtime-2 bietet Reasoning-Fähigkeiten auf dem Niveau der GPT-5-Klasse und einen Kontext von 128.000 Tokens. Bei Audio-Benchmarks verbesserte es sich um über 13 Prozent.

Bereits Anfang Mai brachte OpenAI GPT-5.5 und GPT-5.5-Cyber auf den Markt. Letzteres enthält den „Trusted Access for Cyber“ (TAC) – eine Funktion für autorisierte Sicherheitsforscher zur Analyse von Schwachstellen und Malware mit geringeren Ablehnungsraten. Ab Juni 2026 verlangt das Unternehmen dafür eine phishing-resistente Authentifizierung.

Google bringt Gemini 3.1 Flash-Lite an den Start

Google hat die allgemeine Verfügbarkeit von Gemini 3.1 Flash-Lite bekannt gegeben. Das Modell ist auf Geschwindigkeit und Kosteneffizienz optimiert – erste Anwender berichten von deutlichen Einsparungen. Zudem integriert Google in seine KI-Übersichten nun „Expert Advice“ aus Foren und sozialen Medien wie Reddit, um menschlichere Perspektiven in die Suchergebnisse einzubringen.

Milliarden-Investments in KI-Infrastruktur

Die Infrastruktur für die immer leistungsfähigeren Modelle wächst rasant. Anthropic hat die gesamte Kapazität von SpaceX‘ terrestrischem Rechenzentrum Colossus 1 gesichert – eine Anlage mit über 300 Megawatt Leistung. Das Unternehmen prüft zudem den Einsatz von SpaceX‘ geplanten orbitalen Rechenzentren. Der Grund: massives Wachstum. Die Unternehmensführung spricht von einem ersten Quartal 2026, das deutlich über dem Vorjahresniveau lag.

Auch in China fließt das Geld. Moonshot AI, Entwickler der Kimi-Modelle, hat zwei Milliarden Dollar eingesammelt – bei einer Bewertung von rund 20 Milliarden Dollar. Die Finanzierungsrunde führte Meituans Long-Z Investments an. Der Kimi K2.6 ist inzwischen eines der meistgenutzten großen Sprachmodelle auf Drittanbieter-Plattformen. Moonshot AI meldet einen annualisierten wiederkehrenden Umsatz von 200 Millionen Dollar.

Anzeige

Finanzexperten sind sich einig, dass Künstliche Intelligenz der Megatrend unserer Zeit ist, wie die jüngsten Milliarden-Investments eindrucksvoll unterstreichen. Wer jetzt die richtigen Big-Data-Aktien im Depot hält, könnte von dieser technologischen Revolution langfristig stark profitieren. Kostenlosen Report zu den Top 10 KI-Aktien herunterladen

Ausblick: Reifende globale KI-Regulierung

Die Entwicklung deutet auf einen reifenden globalen Regulierungsrahmen hin. Während die EU auf einen Rechtsrahmen mit gestaffelten Fristen setzt, favorisieren die USA ein technisches, kollaboratives Prüfverfahren durch CAISI.

In den kommenden Monaten dürften weitere Unternehmen dem Testabkommen beitreten. Die Integration von KI in kritische Infrastrukturen – wie diese Woche mit dem erfolgreichen orbitalen Einsatz des NASA-IBM-Modells Prithvi – wird den Druck auf die Regulierungsbehörden erhöhen, Sicherheit und Innovationstempo in Einklang zu bringen. Die Wirksamkeit von CAISIs 40 bisherigen Evaluierungen wird dabei zum Prüfstein für Politik und Tech-Führungskräfte gleichermaßen.