KI-Sicherheitskrise: Angreifer zielen jetzt auf gesamte Geschäftsabläufe

Sicherheitsforscher warnen vor gezielten Angriffen auf KI-gestützte Geschäftsprozesse. Der Fokus verschiebt sich von der Modellsicherheit hin zu Schwachstellen in automatisierten Workflows und APIs.

KI-Tools werden zum Einfallstor für Cyberangriffe auf Unternehmen. Eine zunächst auf schädliche Browser-Erweiterungen beschränkte Sicherheitskrise weitet sich aus. Neue Analysen zeigen: Angreifer nehmen jetzt die gesamten KI-gestützten Geschäftsprozesse ins Visier. Der Fokus verschiebt sich von der Modellsicherheit hin zu den Schwachstellen in den KI-Workflows selbst.

Die Enthüllungen zwingen die Branche zu einer kritischen Neubewertung. Wie sichern Unternehmen generative KI-Tools, die zunehmend in Kernprozesse eingebettet sind? Experten warnen: Wer sich nur auf die Sicherheit der großen Sprachmodelle (LLMs) konzentriert, begeht einen folgenschweren Fehler. Die eigentliche Gefahr lauert im komplexen Geflecht aus Anwendungen, Datenquellen und automatisierten Aufgaben, die mit ihnen verbunden sind.

Der Auslöser: Betrügerische Browser-Erweiterungen

Die Alarmglocken schrillten Anfang Januar 2026. Cybersicherheitsforscher entdeckten zwei beliebte Chrome-Erweiterungen, die sich als legitime KI-Assistenten tarnten. Mit über 900.000 Nutzern schöpften sie systematisch gesamte Chat-Verläufe von Plattformen wie ChatGPT und DeepSeek ab.

Die Malware sammelte nicht nur KI-Prompts und Antworten, sondern auch die URLs aller geöffneten Browser-Tabs. So gelangten sensible Unternehmensdaten, proprietärer Code und interne Netzwerkdetails in falsche Hände. Diese „Prompt-Piraterie“ offenbarte eine gravierende Sicherheitslücke. Angreifer nutzten das vertrauenswürdige Umfeld des Chrome Web Stores, um Malware zu verbreiten, die viele traditionelle Sicherheitskontrollen umging.

Anzeige

Unternehmen stehen unter Druck: Kriminelle nutzen betrügerische Browser‑Extensions und gezielte Scans öffentlicher LLM‑Dienste, um vertrauliche Daten und automatisierte Prozesse auszunutzen. Der kostenlose E‑Book‑Report „Cyber Security Awareness Trends“ erklärt praxisnah, wie Sie KI‑Workflows, API‑Verbindungen und Endgeräte absichern – inklusive konkreter DLP‑, IAM‑ und Zero‑Trust‑Maßnahmen sowie Checklisten zur schnellen Risikominderung. Ideal für Geschäftsführer und IT‑Verantwortliche. Jetzt Cyber‑Security‑Report herunterladen

Die Eskalation: Angriffe auf offene KI-Dienste

Während Unternehmen noch mit der Erweiterungs-Bedrohung rangen, kam neue Brisanz ans Licht. Das Cybersecurity-Unternehmen GreyNoise dokumentierte am 12. Januar zwei weitreichende Kampagnen. Dabei wurden fast 100.000 Angriffssitzungen auf öffentlich zugängliche LLM-Dienste registriert – auch von OpenAI, Anthropic, Google und Meta.

Was steckt dahinter? Angreifer kartieren systematisch die APIs und die Infrastruktur, die KI-Modelle mit Geschäftssystemen verbinden. Es geht nicht mehr nur um das Abfangen von Chat-Daten. Diese Erkundungsangriffe sind der Vorläufer für ausgefeiltere Attacken. Sie zielen darauf ab, KI-gesteuerte Automatisierung zu manipulieren, Datenquellen zu vergiften oder die vertrauensvollen Verbindungen zwischen KI-Agenten und Firmendatenbanken auszunutzen.

Der Paradigmenwechsel: Sicherheit für den KI-Workflow

Die Doppelbedrohung hat das Sicherheitsdenken grundlegend verändert. Der Fokus muss sich vom Schutz des KI-Modells auf die Sicherung des gesamten KI-Workflows verlagern. KI-Assistenten, die Dokumente aus SharePoint zusammenfassen, E-Mails entwerfen oder auf CRM-Daten zugreifen, schaffen dynamische Verbindungen zwischen bisher isolierten Anwendungen. Genau diese Workflows sind das neue Ziel.

Diese Bedrohungslandschaft entlarvt die Grenzen traditioneller Sicherheitstools. Sie wurden für stabile, vorhersehbare Software-Umgebungen entwickelt. KI-Systeme unterscheiden jedoch nicht zwischen vertrauenswürdigem Code und nicht vertrauenswürdiger Nutzereingabe. Das macht sie anfällig für Prompt-Injection-Angriffe. Ein Angreifer muss kein Netzwerk mehr hacken, wenn er einen KI-Assistenten mit einem raffinierten Prompt in einem Dokument dazu bringen kann, Daten für ihn abzuschöpfen.

Die Antwort der Unternehmen: Zero-Trust für KI

Als Reaktion auf diese Entwicklung plädieren Sicherheitsexperten für einen mehrschichtigen, Zero-Trust-Ansatz bei der KI-Integration. Microsoft betonte am 14. Januar die Notwendigkeit, strenge Sicherheitsprinzipien auf den Browser anzuwenden – er ist das primäre Endgerät für die KI-Interaktion.

Für Unternehmen bedeutet das konkret: Strenge Positivlisten für Browser-Erweiterungen, um die Installation ungeprüfter Tools zu verhindern. Zentrales Management, um konsistente Sicherheitsrichtlinien auf allen Geräten durchzusetzen. Zudem werden Data Loss Prevention (DLP)-Kontrollen empfohlen, um die Weitergabe sensibler Informationen an KI-Plattformen zu überwachen und zu blockieren.

Das Prinzip der geringsten Rechte ist entscheidend. KI-Agenten sollten nur Zugriff auf die spezifischen Daten und Systeme erhalten, die für ihre Aufgabe nötig sind. Jeder KI-Agent muss wie ein neuer Nutzer oder Dienst behandelt werden: streng verwaltet und auf anomales Verhalten überwacht.

Ausblick: Sicherheit muss mit der Innovation Schritt halten

Die Ereignisse der letzten Wochen zeigen es deutlich: Die rasante Einführung generativer KI hat die Entwicklung angemessener Sicherheitsrahmen überholt. Die ersten Angriffe über Erweiterungen waren kein Einzelfall, sondern das erste sichtbare Symptom eines tiefer liegenden Problems: der Unsicherheit KI-gestützter Arbeitsabläufe.

Die Branche arbeitet bereits an Sicherheitslösungen der nächsten Generation für das KI-Zeitalter. Dazu gehören dynamische Plattformen, die KI-Nutzung in Echtzeit sichtbar machen und anomales Verhalten in Workflows erkennen. Identity- und Access-Management-Systeme (IAM) müssen sich weiterentwickeln, um autonome KI-Agenten zu verwalten – mit aufgabenbezogenen, kurzlebigen Berechtigungen statt breiter, statischer Zugangsdaten. Letztlich ist eine Kultur des „Security-by-Design“ unerlässlich. Unternehmen müssen robuste Sicherheitsvorkehrungen von Anfang an in ihre KI-Integrationen einbauen.

Anzeige

PS: Die neue Rechts- und Bedrohungslandschaft betrifft nicht nur Technikteams. Viele Unternehmen unterschätzen nun auch regulatorische Pflichten rund um KI und Dokumentation. Unser kostenloser Leitfaden verbindet Compliance‑Hinweise mit praxisnahen Schutzmaßnahmen – von IAM‑Strategien bis zu DLP‑Checks, die KI-Agenten sicher steuern. Perfekt für Entscheidungsträger, die Haftungsrisiken und Missbrauch verhindern wollen. Kostenlosen KI‑Security‑Leitfaden anfordern