Claude Desktop: Kalender-Einladung als Einfallstor für Hacker

Eine Sicherheitsschwachstelle in Anthropics KI-Assistent erlaubt Angreifern die vollständige Kontrolle über Rechner, doch das Unternehmen sieht keinen Anlass für eine Korrektur.

Eine kritische Sicherheitslücke in Anthropics KI-Assistent ermöglicht System-Übernahme ohne Nutzerinteraktion – doch das Unternehmen sieht keinen Handlungsbedarf.

Ein einfacher Google-Kalender-Termin reicht aus, um Rechner mit der KI-Software Claude Desktop komplett zu übernehmen. Sicherheitsforscher der Firma LayerX entdeckten eine Zero-Click-Lücke, die es Angreifern ermöglicht, schädlichen Code auszuführen, sobald der Nutzer den KI-Assistenten bittet, seinen Kalender zu prüfen. Die Schwachstelle erhielt den höchsten Gefahrenscore von 10.0 und betrifft über 10.000 Nutzer.

So funktioniert der stille Angriff

Das Risiko liegt im Design der Claude Desktop Extensions (DXT). Im Gegensatz zu abgeschotteten Browser-Erweiterungen laufen diese mit vollen Systemrechten. Das erlaubt der KI, verschiedene Werkzeuge zu verknüpfen – etwa einen Kalender mit einer lokalen Anwendung, die Code ausführen kann.

Der Angriffsweg ist simpel: Ein Angreifer schickt eine Google-Kalender-Einladung. Im Beschreibungsfeld versteckt er schädliche Befehle, etwa zum Herunterladen einer Malware-Datei. Fragt der Nutzer Claude später, sich um seinen Terminkalender zu kümmern, interpretiert die KI den versteckten Text als Anweisung und führt sie – ohne Warnung oder Bestätigung – mit Systemrechten aus. Die Folge: Vollständige Kompromittierung des Rechners.

Anthropic sieht kein Sicherheitsproblem

LayerX meldete den Fund am 9. Februar 2026 an Anthropic, den Entwickler von Claude. Das Unternehmen lehnte es jedoch ab, einen Patch bereitzustellen. Ein Sprecher begründete dies damit, dass das beschriebene Szenario außerhalb des aktuellen Bedrohungsmodells liege. Die Attacke setze voraus, dass Nutzer lokale Entwicklungswerkzeuge installiert und diesen explizit Rechte erteilt hätten. Die gleiche Vorsicht wie bei anderer Drittanbieter-Software sei angebracht.

Diese Haltung offenbart ein grundsätzliches Dilemma der KI-Sicherheit: Je mächtiger und autonomer die Assistenten sind, desto tiefer müssen sie in Daten und Systeme eingreifen dürfen. Dieser tiefe Zugriff schafft jedoch Angriffsflächen, die traditionelle Sicherheitsmaßnahmen oft nicht abdecken. Bei Claude handelt es sich laut Experten nicht um einen typischen Bug, sondern um ein „Workflow-Versagen“: Die autonome Entscheidungsfindung der KI führt zu einer unsicheren Aktion.

Wachsende Risiken durch KI-Erweiterungen

Die aktuelle Lücke ist kein Einzelfall. Bereits im Januar 2026 warnten Forscher vor bösartigen Chrome-Erweiterungen, die populäre KI-Tools – darunter Claude – imitierten, um Nutzerdaten abzugreifen. Hunderttausende Nutzer hatten die Fälschungen heruntergeladen.

Bereits im November 2025 wurden in offiziellen Claude-Erweiterungen Befehlsinjektions-Schwachstellen behoben. Damals konnten bösartige Webseiten eine Code-Ausführung auslösen, sobald ein Nutzer die KI bat, im Web zu suchen. Diese Vorfälle unterstreichen die dringende Notwendigkeit eines neuen Sicherheitsparadigmas für KI-gesteuerte Werkzeuge.

Was Nutzer jetzt tun sollten

Sicherheitsexperten raten Anwendern dringend, installierte Claude Desktop Extensions zu überprüfen – besonders solche mit hohen Berechtigungen, die an externe Datenquellen wie E-Mail oder Kalender angebunden sind. Nicht essentielle Erweiterungen sollten deaktiviert oder deinstalliert werden.

Anzeige

Wer sich gegen solche KI‑gestützten Angriffswege schützen möchte, findet praktische Schutzmaßnahmen im kostenlosen E‑Book „Cyber Security Awareness Trends“. Es erklärt aktuelle Angriffsvektoren (inkl. KI‑Workflows), neue rechtliche Vorgaben und leicht umsetzbare Maßnahmen für Unternehmen und Privatnutzer. Jetzt kostenloses Cyber‑Security‑E‑Book herunterladen

Zudem empfehlen sie, KI-Assistenten standardmäßig davon abzuhalten, lokale Befehle auszuführen. Das Prinzip der minimalen Rechtevergabe und die explizite Nutzerzustimmung für jede Aktion, die eine Vertrauensgrenze überschreitet, sind entscheidende Schutzmaßnahmen. Der Vorfall zeigt: Mit den Fähigkeiten der Künstlichen Intelligenz wachsen auch ihre potenziellen Risiken.