KI-Überwachung: US-Regierung zwingt Microsoft und Google zu Sicherheitstests

Microsoft, Google und xAI lassen KI-Modelle vor Veröffentlichung von Bundesbehörden prüfen. Neues Abkommen stärkt Rolle des CAISI.

Microsoft, Google DeepMind und xAI stimmten zu, ihre fortschrittlichsten KI-Modelle vor der Veröffentlichung von Bundesbehörden prüfen zu lassen. Die am 5. Mai 2026 bekanntgegebenen Abkommen übertragen dem Center for AI Standards and Innovation (CAISI) die zentrale Rolle für diese Sicherheitsbewertungen.

Damit weitet die Trump-Administration ihre Zusammenarbeit mit der Tech-Branche deutlich aus. Bereits 2024 hatten OpenAI und Anthropic ähnliche Vereinbarungen getroffen. Der Schritt signalisiert einen Kurswechsel: Nachdem die Regierung im Frühjahr 2025 frühere KI-Sicherheitsverordnungen zurückgenommen hatte, zeichnet sich nun eine Rückkehr zu stärkerer Regulierung ab.

Anzeige

Während Behörden die Sicherheit neuer Software prüfen, stehen viele Heimanwender vor ganz anderen Hürden bei der Systemaktualisierung. IT-Experten zeigen nun einen legalen Weg auf, wie Sie moderne Betriebssysteme auch auf offiziell inkompatibler Hardware sicher nutzen. Den legalen Windows-11-Trick jetzt gratis sichern

Früher Zugriff für nationale Sicherheit

Das Hauptziel der neuen Abkommen: Die US-Regierung erhält frühzeitigen Zugang zu KI-Architekturen, um Risiken für die nationale Sicherheit zu identifizieren. CAISI wird gegnerische Tests durchführen und die Wirksamkeit der implementierten Sicherheitsvorkehrungen prüfen. Im Fokus stehen unerwartete Verhaltensweisen und potenzielle Schwachstellen, die von feindlichen Akteuren ausgenutzt werden könnten.

Microsoft bestätigte zudem eine parallele Vereinbarung mit dem britischen KI-Sicherheitsinstitut UK-AISI. Die internationale Zusammenarbeit zielt auf die gemeinsame Entwicklung von Testrahmen, Datensätzen und technischen Arbeitsabläufen ab.

CAISI, das seit Mitte 2025 unter seinem aktuellen Namen operiert, hat bereits mehr als 40 Bewertungen durchgeführt – darunter mehrere an noch unveröffentlichten Modellen. Direktor Chris Fall bezeichnete die unabhängige Messwissenschaft als „unverzichtbar für KI-Arbeit im öffentlichen Interesse“.

Mythos als Weckruf

Branchenanalysten sehen den Auslöser für die verschärfte Gangart in den Fähigkeiten neuer KI-Modelle. Insbesondere die Veröffentlichung von Anthropics Mythos-Modell – auch bekannt als Claude Mythos – wirkte als Katalysator. Frühe Tests enthüllten, dass Mythos eigenständig Tausende von Cybersicherheitslücken in Betriebssystemen und Webbrowsern identifizieren kann. In einem konkreten Fall entdeckten Forscher mit dem Modell 271 Fehler im Firefox-Browser.

Die Leistungsfähigkeit solcher Modelle veranlasste das Weiße Haus, über eine Exekutivanordnung nachzudenken, die eine formelle KI-Arbeitsgruppe aus Tech-Führungskräften und Regierungsvertretern einrichten würde. Die Bedrohung durch KI-gestützte Zero-Day-Exploits oder den Einsatz durch ausländische Geheimdienste hat offenbar zu einer vorsichtigeren Haltung geführt.

Anthropic reagierte mit der Initiative Project Glasswing, die rund 100 Millionen Euro an Krediten für defensive KI-Forschung bereitstellt. Gleichzeitig geriet das Unternehmen jedoch wegen Lieferkettenrisiken ins Visier des Pentagon.

Agent 365: Microsofts Antwort auf Schatten-KI

Während die Regierung auf Modellebene reguliert, stattet Microsoft Unternehmen mit Werkzeugen für die Kontrolle auf Organisationsebene aus. Am 4. Mai 2026 gab Microsoft die allgemeine Verfügbarkeit von Agent 365 bekannt. Die Plattform ermöglicht IT-Administratoren die Governance von KI-Agenten über mehrere Umgebungen hinweg – einschließlich AWS Bedrock und Google Cloud.

Agent 365 adressiert die wachsende Bedrohung durch Shadow AI, bei der Mitarbeiter unbefugte KI-Tools in Unternehmensnetzwerken einsetzen. Administratoren können Berechtigungen festlegen, Aktivitäten überwachen und Compliance-Richtlinien durchsetzen. Eine neue Funktion, integriert mit Microsoft Defender und Intune, erkennt lokale Agenten – etwa solche, die das OpenClaw-Framework nutzen. Microsoft erwartet, dass die Plattform bis Juni 2026 18 verschiedene Agententypen unterstützt.

Parallel dazu startete Microsoft am 5. Mai 2026 Copilot Cowork. Diese Plattform erlaubt es Nutzern, komplexe, wiederkehrende Arbeitsabläufe an KI-Agenten zu delegieren, die im Hintergrund arbeiten. Der Dienst umfasst Integrationen mit Plattformen wie Miro, Monday.com und S&P Global Energy sowie neue mobile Apps für iOS und Android.

Sicherheitslücken und Systemstabilität

Der Vorstoß für mehr KI-Kontrolle fällt mit erheblichen Sicherheitsproblemen zusammen. Sicherheitsforscher berichten, dass Microsoft Edge Benutzerpasswörter im Klartext im Systemspeicher speichert. Der Forscher Tom Jøran Sønstebyseter Rønning entdeckte die Schwachstelle. Angreifer mit Administratorzugriff könnten in Mehrbenutzerumgebungen Anmeldedaten abgreifen. Microsoft bezeichnet dies als Designentscheidung – andere Chromium-basierte Browser teilen diese Schwachweise nicht.

Die Linux-Community reagiert derweil auf einen kritischen Kernel-Fehler namens CopyFail. Die Sicherheitslücke, die bis 2017 zurückreicht, ermöglicht Root-Zugriff durch einen sehr kleinen Exploit. Die US-Cybersicherheitsbehörde CISA setzte den 15. Mai 2026 als Frist für Bundesbehörden, um notwendige Patches einzuspielen.

Windows-11-Nutzer berichten von ungewöhnlichem Verhalten nach aktuellen Updates. Microsoft bestätigte, dass mehrere Neustarts nach dem April-Update 2026 beabsichtigt sind: Das System erneuert Secure-Boot-Zertifikate, die im Juni 2026 auslaufen. Während das Update für die langfristige Sicherheit notwendig ist, verursacht es Probleme bei Tausenden älterer Geräte, denen entsprechende BIOS-Updates ihrer Hersteller fehlen.

Anzeige

Die aktuellen Probleme nach System-Updates zeigen, wie wichtig schnelle Selbsthilfe für PC-Nutzer geworden ist. Mit diesem kostenlosen Experten-Report beheben Sie Update-Fehler und Druckerprobleme unter Windows 11 ab sofort einfach selbst. Gratis-Ratgeber zur Windows-11-Fehlerbehebung anfordern

Ausblick: Freiwilligkeit als erster Schritt

Die freiwilligen Abkommen zwischen der US-Regierung und KI-Laboren stellen einen vorläufigen Schritt zu einem formalen Regulierungsrahmen dar. Zwar entbehren sie der Rechtsverbindlichkeit, doch sie schaffen einen Präzedenzfall für Transparenz, den die Administration durch künftige Exekutivanordnungen oder Gesetze festschreiben könnte.

In den kommenden Monaten dürfte sich der Fokus auf die geplante KI-Arbeitsgruppe des Weißen Hauses und die Umsetzung strengerer Teststandards verlagern. Microsoft wird seine Agent-365-Fähigkeiten im Laufe des Sommers 2026 ausbauen. Die gesamte Branche beobachtet unterdessen die Auswirkungen von Modellen wie Mythos auf die Cybersicherheitslandschaft. Je autonomer KI-Systeme werden, desto mehr bleibt die Balance zwischen rascher Innovation und nationaler Sicherheit ein zentraler Streitpunkt für Politik und Technologieführer.