Snyk-Report: Jede dritte KI-Agenten-Fähigkeit ist fehlerhaft

Eine neue Studie enthüllt, dass über ein Drittel der untersuchten KI-Agenten-Fähigkeiten Sicherheitsprobleme aufweisen, darunter aktive Schadsoftware. Dies stellt eine neue Art von Supply-Chain-Risiko dar.

Ein bahnbrechender Sicherheitsreport enthüllt alarmierende Schwachstellen im boomenden Ökosystem autonomer KI-Agenten. Die Studie des Sicherheitsspezialisten Snyk warnt vor einer neuen Art von Supply-Chain-Krise, die Entwickler und Unternehmen bedroht.

Toxische Fähigkeiten: Das neue Sicherheitsrisiko

Die am Donnerstag veröffentlichte „ToxicSkills“-Studie analysierte 3.984 KI-Agenten-Fähigkeiten auf Plattformen wie ClawHub. Diese Module erlauben es Agenten – etwa in Tools wie OpenClaw oder Claude Code – mit externer Software zu interagieren. Die Ergebnisse sind erschütternd: 36,8 Prozent der geprüften Fähigkeiten wiesen mindestens eine Sicherheitslücke auf. Bei 13,4 Prozent handelte es sich um kritische Probleme.

Noch bedrohlicher: Die Forscher identifizierten 76 aktive Schadpayloads, die gezielt Credentials stehlen, Backdoors installieren oder Daten abfließen lassen. Acht dieser schädlichen Skills waren zum Zeitpunkt der Veröffentlichung noch öffentlich verfügbar – eine unmittelbare Gefahr für alle Nutzer.

Anzeige

Passend zum Thema KI‑Sicherheit: Die EU‑KI‑Verordnung verlangt klare Risikoklassifizierung, Kennzeichnungspflichten und umfassende Dokumentation – Versäumnisse können für Entwickler und Anbieter teuer werden. Ein kostenloser Umsetzungsleitfaden erklärt praxisnah, welche Pflichten jetzt gelten, wie Sie KI‑Systeme richtig klassifizieren und welche Übergangsfristen zu beachten sind. Besonders nützlich für Teams, die autonome Agenten entwickeln oder in Produktivumgebungen einsetzen. Kostenlosen KI‑Verordnung-Leitfaden herunterladen

KI-Supply-Chain unter Beschuss

„Wir erleben einen fundamentalen Wandel“, erklärt Manoj Nair, Chief Innovation Officer bei Snyk. Die Angriffsvektoren verlagern sich von traditioneller Software zu den Skills, die KI-Agenten nutzen. Ähnlich wie in den frühen Tagen von npm oder PyPI entstehen in den Repositories Brutstätten für ungeprüften Code.

Besonders tückisch: 91 Prozent der schädlichen Skills kombinieren Prompt-Injection-Techniken mit klassischer Malware. Diese Hybrid-Angriffe umgehen die Sicherheitsbarrieren der KI und greifen gleichzeitig die Host-Infrastruktur an. Ein kompromittierter Skill kann so aus einem hilfreichen Coding-Assistenten eine autonome Insider-Bedrohung machen.

Schatten-Agenten und die Folgen für Unternehmen

Das Problem verschärft sich durch „Shadow Agents“ – KI-Tools, die Entwickler ohne Wissen der IT-Abteilung nutzen. Diese Agenten operieren oft mit weitreichenden Berechtigungen und integrieren ungeprüfte Drittanbieter-Skills. In einer Zeit, in laut Berichten jedes vierte Unternehmen bereits autonome KI-Systeme einsetzt, entsteht so eine massive Angriffsfläche.

Snyk reagiert mit einem Open-Source-Tool namens mcp-scan. Es soll Entwicklern helfen, schädliche Muster in Agenten-Fähigkeiten zu erkennen, bevor sie in Produktivumgebungen gelangen. Die Tool nutzt eine neue Threat-Taxonomie, die während der ToxicSkills-Forschung entwickelt wurde.

Sicherheitslücke gefährdet KI-Boom

Die Veröffentlichung kommt Tage vor der angekündigten Vorstellung von Snyks „AI Security Foundation“. Branchenbeobachter erwarten Details zur Security-Orchestrierung für Agenten bei einem virtuellen Event am 11. Februar.

Doch die Zeit drängt. Snyk-CEO Peter McKay warnt: „Das Tempo der KI-Innovation erzeugt unkontrollierbare Risikostufen.“ Unternehmen müssten über traditionelle App-Security hinausgehen und ein „AI Security Fabric“ etablieren, das das Verhalten autonomer Agenten von der ersten Prompt bis zum Deployment überwacht.

Die Konsequenz? Sicherheitsteams werden „AI Bill of Materials“-Initiativen priorisieren, um vollständige Transparenz über alle eingesetzten KI-Komponenten zu erhalten. Experten prognostizieren, dass große KI-Plattformen bald strengere Scanning- und Verifizierungsprotokolle einführen müssen. Bis dahin gilt: Jeden Drittanbieter-Skill mit äußerster Vorsicht behandeln und auf die von Snyk dokumentierten Schwachstellen prüfen.

Anzeige

PS: Seit August 2024 ist die EU‑KI‑Verordnung in Kraft – viele Unternehmen übersehen Kennzeichnungs‑ und Dokumentationspflichten und riskieren Bußgelder. Der kostenlose Leitfaden liefert praxisnahe Checklisten zu Risikoklassen, Nachweispflichten und Übergangsfristen sowie sofort umsetzbare Schritte zur Compliance. Ideal für Verantwortliche, die autonome Agenten oder Drittanbieter‑Skills einsetzen und rechtssichere Prozesse etablieren müssen. Jetzt kostenlosen Umsetzungsleitfaden zur KI‑Verordnung sichern