Ein internationales Forscherkonsortium schlägt Alarm: Autonome KI-Agenten werden ohne ausreichende Sicherheitstests und Transparenz in kritische Systeme integriert. Diese Warnung bestätigt sich durch eine Welle aktueller Cyberangriffe und behördlicher Warnungen.
Die Studie „AI Agent Index“ von Wissenschaftlern der Universitäten Cambridge, Stanford und MIT offenbart ein gefährliches Informationsdefizit. Von 30 untersuchten prominenten KI-Agenten lieferten 25 keinerlei öffentliche Daten zu internen Sicherheitstests. Bei 23 Agenten fehlten zudem unabhängige Prüfberichte. Die größten Risiken gehen dabei nicht vom zugrundeliegenden Sprachmodell aus, sondern von den spezifischen Planungs-, Erinnerungs- und Werkzeugnutzungsfähigkeiten der Agenten – Verhaltensweisen, die Entwickler kaum evaluieren oder offenlegen.
Besonders brisant: 21 der 30 Agenten geben gegenüber Dritten nicht zu erkennen, dass es sich um KI handelt. Ihre Online-Aktivitäten sind damit von menschlichen nicht zu unterscheiden. „Diese Systeme operieren mit einem hohen Grad an Autonomie, aber ohne entsprechende Sicherheitsvorkehrungen“, so ein Forscher. Das schaffe eine reale Bedrohung durch unbeabsichtigte oder böswillige Aktionen.
Cybersicherheit: Theorie wird zur Praxis
Die theoretischen Risiken der Studie manifestieren sich bereits in der Realität. Die niederländische Datenschutzbehörde (AP) warnte erst am 17. Februar vor gravierenden Sicherheitslücken bei experimentellen autonomen Agenten wie OpenClaw. Diese könnten zu Datenlecks, Account-Übernahmen und unbefugtem Fernzugriff führen. Die AP verglich die Systeme mit „Trojanischen Pferden“.
Ciscos „State of AI Security 2026“-Report bestätigt diesen Trend. Demnach verbreiten sich mächtige KI-Agenten unkontrolliert in kritischen Geschäftsprozessen und schaffen so eine riesige neue Angriffsfläche. Palo Alto Networks‘ Unit 42 berichtet, dass Angreifer KI nutzen, um ihre Attackengeschwindigkeit im vergangenen Jahr zu vervierfachen. Ein Vorfall aus dem September 2025 zeigt das Ausmaß: Staatliche Akteure setzten KI-Agenten ein, die autonom 80 bis 90 Prozent der Aufgaben in einer groß angelegten Spionagekampagne gegen rund 30 Organisationen ausführten.
Angesichts der wachsenden Zahl von KI-gestützten Angriffen sollten Unternehmen ihre Abwehrmaßnahmen jetzt praktisch stärken. Das kostenlose E‑Book „Cyber Security Awareness Trends“ fasst aktuelle Bedrohungen zusammen, zeigt konkrete Schutzmaßnahmen für Unternehmen und erklärt, wie sich KI‑Risiken in der IT‑Strategie adressieren lassen. Jetzt kostenloses Cyber‑Security‑E‑Book anfordern
Governance-Lücke: Schatten-KI in Unternehmen
Die schnelle Einführung der Agenten hat eine strukturelle Sicherheitskrise ausgelöst. Ein aktueller Branchenreport zeigt: Über 80 Prozent der IT-Teams testen Agenten aktiv oder setzen sie bereits ein. Doch nur 14,4 Prozent der Organisationen gaben an, dass alle ihre Agenten die volle Freigabe der Sicherheitsabteilungen hatten. Es entsteht ein massives „Schatten-KI“-Problem.
88 Prozent der Unternehmen bestätigten oder vermuteten im letzten Jahr einen Sicherheitsvorfall im Zusammenhang mit KI-Agenten. Hier klafft eine gefährliche Lücke zwischen Führungsebene und technischer Realität: Während 82 Prozent der Manager auf bestehende Schutzmaßnahmen vertrauten, zeigten interne Daten, dass weniger als die Hälfte der KI-Agenten aktiv überwacht oder gesichert wird.
Ein Kernproblem ist das Identitätsmanagement. Viele Firmen behandeln KI-Agenten wie menschliche Nutzer und setzen zu 45 Prozent auf gemeinsame API-Schlüssel. Wird ein Agent kompromittiert, öffnet dies Tür und Tor für Angreifer im gesamten Netzwerk.
Appell: Transparenz und neue Sicherheitsmodelle
Die Forscher des AI Agent Index fordern dringend mehr Transparenz von den Entwicklern und gezielte Forschung zu den spezifischen Risiken agentenbasierter Systeme. Sicherheitsexperten raten Unternehmen zu einem strategischen Wandel: Die Abwehr muss sich von rein menschlichen Bedrohungen hin zur Sicherung einer schnell wachsenden Welt autonomer KI-Agenten verlagern.
Diese müssen als eigenständige, identitäts-tragende Entitäten mit strenger Überwachung behandelt werden. Während die EU mit dem AI Act regulatorisch vorangeht, bleiben die globalen Ansätze fragmentiert. Der zweite Internationale KI-Sicherheitsbericht vom Februar 2026 unterstreicht die wachsenden Risiken durch böswillige Nutzung und Systemversagen. Die Erkenntnis ist klar: Ohne einen fundamentalen Wandel in Sachen digitaler Sicherheit und KI-Governance wird der immense Nutzen der Systeme von einem ebenso massiven, unkontrollierbaren Risiko überschattet.




