Google Cloud setzt auf autonome KI-Agenten für die Cybersicherheit

Google Cloud stellt auf der Cloud Next 2026 ein neues Sicherheitsrahmenwerk vor, das mit autonomen KI-Agenten Bedrohungen in Echtzeit abwehrt.

Die Sicherheitsbranche steht vor einem Wendepunkt: Menschliche Abwehrkräfte sind gegen automatisierte Bedrohungen zunehmend machtlos. Google Cloud reagiert mit einem „Agentic Defense“-Rahmenwerk.

Auf der Cloud Next 2026 in Las Vegas präsentierte Google Cloud diese Woche eine umfassende Sicherheitsstrategie. Das Konzept setzt auf autonome KI-Agenten, die komplexe Sicherheitsaufgaben übernehmen – von der proaktiven Bedrohungssuche bis zur Echtzeit-Erkennung. Der Zeitpunkt ist kein Zufall: Die Zahl der maschinengesteuerten Angriffe explodiert.

Anzeige

Während KI-gesteuerte Angriffe immer schneller werden, müssen Unternehmen ihre IT-Infrastruktur proaktiv gegen neue Bedrohungsszenarien absichern. Dieses kostenlose E-Book enthüllt, wie Sie Sicherheitslücken schließen und gleichzeitig neue gesetzliche Anforderungen an die Cybersicherheit erfüllen. IT-Sicherheit stärken ohne teure Investitionen: Gratis-E-Book herunterladen

Die Zahlen belegen den Ernst der Lage. Google-Chef Thomas Kurian berichtete, dass die unternehmenseigenen KI-Modelle inzwischen 16 Milliarden Tokens pro Minute über direkte API-Nutzung verarbeiten – ein deutlicher Sprung von 10 Milliarden im Vorquartal. Diese Rechenleistung wird nun gezielt für die Sicherheitsbranche eingesetzt. Der Grund: Angreifer haben die Zeit zwischen erstem Systemzugriff und sekundärer Ausbeutung von acht Stunden auf gerade einmal 22 Sekunden verkürzt.

Spezialisierte KI-Agenten für das Security Operations Center

Das Herzstück der neuen Verteidigungsstrategie ist die Integration spezialisierter KI-Agenten in Google Security Operations. Anders als frühere generative KI-Tools, die vor allem Warnmeldungen zusammenfassten, sollen diese Agenten aktiv im Security Operations Center (SOC) mitarbeiten. Google-Cloud-COO Francis deSouza betonte, dass traditionelle Sicherheits-Playbooks gegen vollständig agentische Angriffe und multimodale Phishing-Versuche nicht mehr ausreichen.

Drei Hauptagenten wurden diese Woche im privaten Vorschau-Modus vorgestellt:

  • Der Threat-Hunting-Agent durchsucht Googles riesige Bedrohungsdatenbank nach neuartigen Angriffsmustern und versteckten Angreiferverhalten, die herkömmliche regelbasierte Abwehrsysteme oft übersehen.
  • Der Detection-Engineering-Agent identifiziert automatisch Lücken in der Sicherheitsabdeckung eines Unternehmens und generiert dauerhafte Erkennungsregeln. Das macht aus der manuellen, zeitaufwendigen Erstellung von Erkennungsmechanismen eine automatisierte Wissenschaft.
  • Der Third-Party-Context-Agent versorgt Sicherheitsteams mit sofortigen Kontextdaten aus externen Geheimdienstquellen.

Diese Werkzeuge sind Teil einer breiteren Bewegung hin zur „agentischen Automatisierung“. Interne Daten zeigen, dass die Agenten Analyseaufgaben, die bisher 30 Minuten dauerten, auf etwa 60 Sekunden reduzieren können. Das erlaubt menschlichen Analysten, sich auf strategische Entscheidungen zu konzentrieren.

Wiz-Integration und Multi-Cloud-Sicherheit

Ein bedeutender Teil von Googles Sicherheits-Roadmap hängt mit der Übernahme des Cloud-Sicherheitsunternehmens Wiz zusammen. Die Integration von Wiz‘ Cloud- und KI-Sicherheitsplattform mit Googles bestehender Bedrohungsdaten-Suite soll einen optimierten, Multi-Cloud-Ansatz für die Verteidigung bieten.

Ein zentrales Ergebnis dieser Zusammenarbeit ist die AI Application Protection Platform (AI-APP). Sie bietet autonome Sicherheit über hybride und Multi-Cloud-Umgebungen hinweg. Die Plattform zielt speziell auf die „KI-Entwicklungszersiedelung“ ab, indem sie KI-generierten Code inline scannt. Unterstützt wird dies durch eine neue AI-Bill-of-Materials (AI-BOM)-Funktion, die alle KI-Komponenten inventarisiert – einschließlich spezifischer Modelle, Frameworks und IDE-Plugins – um die Risiken von „Shadow AI“ zu mindern.

Wiz-Mitbegründer Yinon Costica betonte, dass Cyber-Verteidiger oft über reichhaltigere, organisationsspezifischere Kontextinformationen verfügen als Angreifer. Durch die Einspeisung dieser spezifischen Kontextdaten in leistungsstarke Allzweckmodelle wie Gemini 3.1 Pro will die Plattform bessere Verteidigungsergebnisse erzielen als Angreifer mit generischen Werkzeugen. Die Erweiterung umfasst auch die Unterstützung für verschiedene Agent Studios, darunter die von AWS und Salesforce.

Dark-Web-Intelligence und Modellhärtung

Die Geschwindigkeit des Bedrohungszyklus zwingt Google dazu, KI weiter „links“ im Erkenntnisgewinnungsprozess einzusetzen. Sandra Joyce, Vice President von Google Threat Intelligence, warnte, dass KI die technischen Hürden für Cyber-Angreifer rapide senkt und Schwachstellenscans sowie Code-Schreiben demokratisiert.

Als Gegenmaßnahme hat Google eine neue Dark-Web-Intelligence-Funktion gestartet, derzeit in der Vorschau. Sie nutzt Gemini-Modelle, um kriminelle Foren und Marktplätze zu durchsuchen. Der Dienst kann über 10 Millionen Beiträge pro Tag verarbeiten. Interne Tests zeigen, dass die KI Millionen täglicher externer Ereignisse mit 98-prozentiger Genauigkeit analysieren kann. Das ist eine deutliche Verbesserung gegenüber herkömmlichen Überwachungstools, die aufgrund einfacher Stichwortsuche oft Fehlalarmraten zwischen 80 und 90 Prozent aufweisen. Indem Gemini darauf trainiert wird, kriminellen Slang und mehrsprachige Nuancen zu interpretieren, kann das System innerhalb von Minuten nach der Aktivierung ein einzigartiges Bedrohungsprofil für ein Unternehmen erstellen.

Anzeige

Die zunehmende Automatisierung von Angriffen betrifft nicht nur Cloud-Infrastrukturen, sondern auch die rechtlichen Anforderungen an die IT-Compliance. Dieser kostenlose Umsetzungsleitfaden zum EU AI Act verschafft Ihnen den Überblick über Risikoklassen und Dokumentationspflichten, den Ihre IT-Abteilung jetzt dringend braucht. EU AI Act in 5 Schritten verstehen: Kostenloser Download

Neben der externen Überwachung konzentriert sich Google auf die „Modellhärtung“ , um die KI-Agenten selbst zu schützen. Dabei werden synthetische Datensätze und automatisierte Red-Teaming-Übungen eingesetzt, um Gemini-Modelle zu trainieren, schädliche Anweisungen oder „indirekte Prompt-Injection“-Angriffe zu erkennen und zu ignorieren. Diese Angriffe treten auf, wenn ein Angreifer bösartige Befehle in Daten versteckt, die die KI später verarbeitet. Zur Kontrolle dieser Risiken führte Google „Agent Identity“ und „Agent Gateway“ ein, um sicherzustellen, dass Agent-zu-Agent-Interaktionen nachvollziehbar, prüfbar und einer Echtzeit-Richtliniendurchsetzung unterliegen.

Interne Adoption und Branchenkontext

Die schnelle Einführung dieser Sicherheitstools spiegelt Googles eigene Transformation wider. CEO Thomas Kurian verriet, dass 75 Prozent des gesamten neuen Codes bei Google inzwischen KI-generiert und anschließend von Ingenieuren genehmigt werden – ein Anstieg von 50 Prozent im Herbst 2025. Diese interne Abhängigkeit dient als Testfeld für dieselben agentischen Technologien, die Kunden angeboten werden.

Während Google weiterhin seine Gemini-Modelle in seine Produktpalette integriert, hat es sich entschieden, kein separates, cybersicherheitsspezifisches Spitzenmodell zu veröffentlichen. Führungskräfte erklärten, dass hochwertige Allzweckmodelle wie Gemini 3.1 Pro sich in verschiedenen Bereichen, einschließlich komplexer Codierung und Bedrohungsanalyse, als ausreichend leistungsfähig erwiesen haben. Dies unterscheidet sich von einigen Branchenkollegen, die spezialisierte Varianten ihrer Flaggschiffmodelle für defensive Anwendungsfälle entwickelt haben.

Der Vorstoß zur autonomen Verteidigung wird als operative Notwendigkeit und nicht als Luxus dargestellt. Da Angreifer zunehmend KI nutzen, um Eindringzeiten zu beschleunigen, schließt sich das Fenster für menschliche Reaktionen. Durch den Wechsel zu einer „agentischen“ Haltung will Google Unternehmen die Möglichkeit geben, mit „Maschinengeschwindigkeit“ zu reagieren.

Ausblick

Mit dem Ende der Cloud Next 2026 verlagert sich der Fokus auf die öffentliche Veröffentlichung der derzeit in der Vorschau befindlichen Agenten. Die Branche wird die Wirksamkeit der Wiz-Integration und die Auswirkungen der AI-BOM auf die Unternehmenssicherheit in den kommenden Monaten beobachten. Für bestehende Nutzer von Google Security Operations hat eine bedeutende Übergangsphase begonnen: Legacy-Instanzen werden am 30. April 2027 eingestellt, was Unternehmen dazu zwingt, innerhalb des nächsten Jahres auf die neue Google-Cloud-Infrastruktur zu migrieren.

Der Übergang zum „Agentic Era“ deutet auf eine Zukunft hin, in der sich die Rolle des Sicherheitsexperten vom manuellen Triage zur Verwaltung und Steuerung von KI-Agenten verschiebt. Die Herausforderung für Unternehmen wird darin bestehen, die Kontrolle zu behalten und sicherzustellen, dass die KI-Tools selbst nicht zu neuen Angriffsvektoren werden.