Googles Sicherheitsexperten schlagen Alarm: Kriminelle und Staaten nutzen Künstliche Intelligenz zunehmend für raffinierte Cyberangriffe und Industriespionage. Die neue Bedrohung trifft besonders Unternehmen mit eigenen KI-Modellen.
Googles Threat Intelligence Group (GTIG) veröffentlichte am Mittwoch eine aktuelle Analyse, die einen gefährlichen Trend bestätigt: Angreifer sind von bloßen Experimenten mit KI zur systematischen Integration in ihre Angriffe übergegangen. Besonders im Visier stehen wertvolle proprietäre KI-Modelle, die durch sogenannte Distillation-Angriffe ausgespäht werden sollen.
Modell-Diebstahl: Die neue Form der Industriespionage
Im Zentrum der Warnung steht eine raffinierte Methode zum geistigen Diebstahl. Bei „Model Extraction“ oder „Distillation“ nutzen Angreifer systematisch den Zugang zu einem leistungsstarken KI-Modell – dem „Lehrer“. Durch hunderttausende gezielte Abfragen sammeln sie dessen Antworten, um damit ein kleineres, eigenes „Schüler“-Modell zu trainieren.
Das Ziel ist klar: Sie wollen die Fähigkeiten teurer proprietärer Systeme nachbauen, ohne die enormen Entwicklungs- und Rechenkosten tragen zu müssen. Google meldete kürzlich eine konkrete Kampagne, bei der über 100.000 Prompts genutzt wurden, um die interne Logik der Gemini-Modelle zu extrahieren.
„Diese Angriffe stellen eine Form von geistigem Diebstahl dar, die ein erhebliches Geschäftsrisiko für KI-Entwickler bedeutet“, warnt John Hultquist, Chefanalyst bei Google. Zwar seien normale Nutzer derzeit nicht in Gefahr, doch für Anbieter von KI-as-a-Service sei dies eine direkte Herausforderung. Googles Rat: Unternehmen müssen ihre API-Zugriffsprotokolle streng auf verdächtige Abfragemuster überwachen.
Staaten nutzen KI für effizientere Cyberangriffe
Die Bedrohung geht weit über Industriespionage hinaus. Laut dem Bericht integrieren staatlich unterstützte Gruppen KI bereits in ihre Angriffsabläufe, um effizienter zu werden. Die Aktivitäten konzentrieren sich auf Akteure aus Russland, China, Iran und Nordkorea.
- Iran setzt auf Social Engineering: Die Gruppe APT42 nutzt generative KI, um Ziele auszuspähen und täuschend echte Phishing-Köder zu erstellen. Durch Large Language Models (LLMs) werden die Betrugsversuche besser lokalisiert und sind für herkömmliche Sicherheitssysteme schwerer zu erkennen.
- Nordkorea forscht mit KI: Gruppen wie UNC2970 setzen LLMs für technische Recherche und Schwachstellenanalyse ein. Die KI hilft ihnen, schneller Schadsoftware zu entwickeln und Lücken in Zielsystemen zu finden. Auch die berüchtigte Lazarus-Gruppe, verantwortlich für einen Rekord-Crypto-Diebstahl im Februar 2025, rüstet laut Bericht mit KI auf.
- China automatisiert die Spionage: Die mit China in Verbindung stehende Gruppe APT31 experimentiert mit „agentischen“ KI-Fähigkeiten. Diese halbautonomen Agenten automatisieren Aufklärungsmissionen und ermöglichen es, Angriffe in größerem Maßstab durchzuführen.
Die nächste Stufe: Malware mit direkter KI-Anbindung
Besonders besorgniserregend ist ein neuer Trend: Malware, die live auf KI-Modelle zugreift. Google identifizierte neue Schadprogramm-Familien wie HONESTCUE und COINBAIT, die während ihrer Ausführung API-Aufrufe an generative KI-Modelle tätigen.
HONESTCUE ruft dynamisch die Gemini-API auf, um etwa Code-Snippets zu generieren oder seine schädliche Nutzlast in Echtzeit zu verschleiern. Diese Technik verändert ständig die Signatur der Malware und macht die Erkennung durch traditionelle Virenscanner nahezu unmöglich.
Der COINBAIT-Phishing-Kit nutzt hingegen KI-generierte Oberflächen, um Login-Daten zu stehlen. Er erstellt täuschend echte Nachbildungen von Kryptobörsen. Allerdings hinterlassen die automatisierten KI-Coding-Tools manchmal Fingerabdrücke wie ausführliche Entwickler-Logs – eine Schwachstelle, die sich Verteidiger zunutze machen können.
Die neue Welle KI-gestützter Angriffe zeigt, wie schnell Unternehmen ins Visier geraten. Ein kostenloser Leitfaden erklärt, welche Schutzmaßnahmen jetzt Priorität haben, wie Sie Ihre APIs und Mitarbeiter gegen Phishing, Modell-Diebstahl und agentische Malware absichern und welche einfachen Kontrollen sofort greifen. Kostenlosen Cyber-Security-Guide herunterladen
KI gegen KI: Der Wettlauf um die Sicherheit
Der Übergang vom Experimentieren zur Integration markiert einen Wendepunkt. Die „Industrialisierung des Hackings“ mit KI-Tools erfordert nun auch KI-gestützte Abwehrmaßnahmen.
Google setzt in der Verteidigung bereits auf eigene KI-Systeme wie Big Sleep und CodeMender. Diese Tools sollen proaktiv Schwachstellen in Code identifizieren und Patches vorschlagen, bevor Angreifer sie ausnutzen können. Die jetzt entdeckten Distillation-Kampagnen seien bereits unterbunden und die betroffenen Konten gesperrt worden.
Die Kernaussage des Berichts: KI hat Angreifern zwar noch keine radikal neuen Fähigkeiten verschafft, aber sie macht bestehende Bedrohungen häufiger, raffinierter und produktiver. Das Wettrüsten im Cyberspace hat eine neue Dimension erreicht.





