Mehr und mehr Forschungsberichte zeigen die Risiken von Agentic AI-Lösungen, die in Unternehmen oder in Privathaushalten Einzug halten, auf. Weit verbreitete KI-Tools wie Microsoft Copilot Studio können unbeabsichtigt sensible Daten offenlegen und nicht autorisierte Finanztransaktionen durchführen, wie Tenable in einer Studie herausgefunden hat.
Tenable, das Unternehmen für Exposure-Management, hat die Tage neue Forschungsergebnisse veröffentlicht, die den erfolgreichen Jailbreak von Microsoft Copilot Studio dokumentieren. Die Ergebnisse verdeutlichen, dass die Demokratisierung von KI gravierende, bislang oft übersehene Risiken für Unternehmen mit sich bringt.
Unternehmen setzen zunehmend auf sogenannte „No-Code"-Plattformen, um es Mitarbeitenden zu ermöglichen, eigene KI-Agenten zu erstellen. Die Grundidee ist harmlos: effizientere Abläufe ohne den Einsatz von Entwicklern. Doch so gut diese Absicht ist – Automatisierung ohne strenge Governance kann die Tür zu schwerwiegenden Fehlfunktionen und erheblichen Risiken öffnen.
Tenable wollte es genauer wissen
Um zu demonstrieren, wie leicht sich KI-Agenten manipulieren lassen, erstellte Tenable Research in Microsoft Copilot Studio einen KI-Travel-Agent. Dieser war in der Lage, neue Buchungen anzulegen und bestehende zu ändern – vollständig ohne menschliches Eingreifen. Dem KI-Travel-Agent wurden Demo-Daten zur Verfügung gestellt, darunter Namen, Kontaktdaten und Kreditkarteninformationen von Demo-Kunden. Zudem erhielt er strikte Anweisungen, vor jeder Auskunft oder Änderung von Buchungen die Identität der Kundinnen und Kunden zu verifizieren.
Mithilfe einer Technik namens Prompt Injection gelang es Tenable Research, den Workflow des KI-Agenten zu kapern, eine kostenlose Reise zu buchen und dabei sensible Kreditkartendaten abzugreifen.
Die Forschungsergebnisse könnten weitreichende geschäftliche Auswirkungen haben, darunter:
- Datenlecks und Compliance-Risiken: Tenable Research brachte den Agenten dazu, die Identitätsprüfung zu umgehen und Kreditkartendaten anderer Kunden offenzulegen. Der Agent, der für den Umgang mit sensiblen Informationen konzipiert war, ließ sich problemlos vollständige Kundendatensätze entlocken.
- Umsatzverluste und Betrug: Da der Agent über weitreichende Bearbeitungsrechte verfügte, die ursprünglich für die Änderung von Reisedaten gedacht waren, konnte er auch zur Manipulation kritischer finanzrelevanter Buchungsfelder missbraucht werden. Tenable Research wies den Agenten erfolgreich an, den Preis einer Reise auf 0 US-Dollar zu setzen – und damit ohne Autorisierung kostenlose Leistungen anzubieten.
„AI Agent Builder wie Copilot Studio demokratisieren die Entwicklung leistungsstarker Tools, aber auch die Möglichkeit, Finanzbetrug zu begehen – und schaffen so erhebliche Sicherheitsrisiken, oft ohne dass sich Unternehmen dessen bewusst sind", erklärt Keren Katz, Senior Group Manager of AI Security Product and Research bei Tenable. „Dieses Potenzial kann sehr schnell zu einer realen Gefahr für Unternehmen werden."
KI-Governance ist geschäftskritisch
Eine zentrale Erkenntnis ist, dass KI-Agenten häufig über zu weit gefasste Berechtigungen verfügen, die sich Nicht-Entwicklerinnen und Nicht-Entwicklern nur schwer erschließen. Um dem entgegenzuwirken, müssen Governance und Sicherheitsrichtlinien vor dem Produktiveinsatz klar definiert und verbindlich verankert sein. Um Datenlecks zu vermeiden, empfiehlt Tenable:
- Proaktive Transparenz: Vor dem Produktiveinsatz exakt erfassen, auf welche Systeme und Datenspeicher ein Agent zugreifen kann.
- Least-Privilege-Prinzip: Schreib- und Änderungsrechte auf das absolut notwendige Minimum für den jeweiligen Use Case beschränken.
- Aktives Monitoring: Aktionen von Agenten kontinuierlich überwachen, um Anzeichen von Datenlecks oder Abweichungen von der vorgesehenen Geschäftslogik frühzeitig zu erkennen.
Zusätzliche Ressourcen



MVP: 2013 – 2016




Nein! – Doch! – Ohh!
War gestern auf einem Vortrag. Ich bin erschrocken über die Art und Weise, mit der Jungunternehmer, die 3 Jahre Fernstudium für Digitale Transformation absolviert haben, in Wirtschaftsforen und Symposien den letzten verbliebenen Unternehmen begeistert zeigen, wie toll man mit WebAI-Tools wie Make hunderte Software-APIs (von Office 365 , Gmail , WordPress, über LinkedIn bis hin zu Navision/MS Dynamics oder SAP-Hana) Workflows automatisieren lassen kann.
Es ist beeindruckend und inspirierend, was mit solchen Meta-Tools möglich ist.
Was mich umtreibt ist dieser blinde Technikglaube ohne jegliche Technikfolgenabschätzung und weit entfernt von "what could possibly go wrong"-Sichtweisen.
Was WhatsApp, Facebook und Instagram & Co für die freiwillige Privatdatenausspähung "erreicht" haben, werden AI-Tools für die freiwillige Mithilfe bei Wirtschaftsspionage leisten.
Ich bin schon zurückhaltend, einem webbasierten Steuerformulartool per API Lesezugriff auf ein Finanzkonto zu geben ….warum sollte ich das für 30 Tool des beruflichen Alltags tun? Nicht direkt, weil ich den jeden Tag 5000 neuen AI-Webplattformen nicht traue, sondern vor allem, weil ich schon den API-Programmieren nicht traue, die von der Schule weg auch heute noch nur auf Funktion zu programmieren anstatt auf Sicherheit.
Stimme zu, das kann gefährlich werden. AI, egal vom wem, sollte immer mit bedacht benutzt werden und sicher nicht für alles und jeden.