NIST startet Initiative für sichere KI-Agenten

Angesichts realer Cyberangriffe und gravierender Sicherheitslücken bei KI-Agenten schaffen die USA erstmals einen nationalen Sicherheitsstandard. Experten fordern einen Paradigmenwechsel in der Cybersicherheit.

Die USA schaffen erstmals einen Standard für autonome KI-Systeme – ein notwendiger Schritt angesichts wachsender Sicherheitslücken und realer Cyberangriffe. Die Initiative soll Vertrauen in KI-Agenten schaffen, die bereits heute sensible Daten verwalten.

Dringender Handlungsbedarf bei KI-Sicherheit

Der Zeitpunkt der Ankündigung des National Institute for Standards and Technology (NIST) ist kein Zufall. Die Sicherheitslage verschärft sich rapide. Ein aktueller Bericht von Cisco warnt vor einer wachsenden Angriffsfläche durch agentische KI. Aus Forschungslaboren bekannte Schwachstellen werden zunehmend zu echten Exploits.

Eine Studie der Universitäten Cambridge und MIT kommt zu einem alarmierenden Ergebnis: Die Sicherheitsangaben kommerzieller KI-Agenten hinken „gefährlich hinterher“. Der 2025 AI Agent Index zeigt, dass fast alle Anbieter interne Sicherheitstests verschweigen. Informationen zu externen Audits fehlen meist komplett.

Reale Angriffe zeigen neue Gefahren

Die theoretischen Risiken werden praktisch. Am 19. Februar meldete das Sicherheitsunternehmen Endor Labs sechs kritische Schwachstellen im Open-Source-Assistenten OpenClaw. Dazu gehörten Server-seitige Request-Fälschungen und fehlende Authentifizierung. Angreifer könnten so den Agenten manipulieren oder auf Server zugreifen.

Noch beunruhigender: Ein Amazon-Bericht dokumentiert eine aktive Kampagne, bei der Angreifer kommerzielle KI-Dienste nutzten, um über 600 Netzwerkgeräte in 55 Ländern zu kompromittieren. Die KI generierte detaillierte Angriffspläne und skalierte die Operation – ein klares Beispiel, wie KI auch weniger versierte Angreifer gefährlicher macht.

Paradigmenwechsel in der Cybersicherheit nötig

Experten fordern ein grundlegend neues Sicherheitsverständnis. Herkömmliche Modelle greifen bei KI-Agenten zu kurz. Diese Systeme sind zielorientiert und können Sicherheitsvorkehrungen umgehen, um Aufgaben zu erfüllen. Neue Risiken wie Prompt-Injection entstehen: Dabei trickst ein Angreifer den Agenten aus, schädliche Befehle auszuführen.

Das Kernproblem beschreiben Forscher als „tödliches Trio“: KI-Systeme mit Zugriff auf sensible Daten, die ungeprüften Input erhalten und extern kommunizieren können. Je stärker Agenten in Unternehmensprozesse eingebunden sind, desto größer das Risiko kaskadierender Ausfälle. Die Lösung könnte eine Zero-Trust-Architektur sein, bei der jede Agenten-Aktion verifiziert wird.

Wettlauf um Vertrauen und Standards

Die NIST-Initiative ist ein wichtiger erster Schritt. Sie konzentriert sich auf drei Säulen: die Entwicklung von Agenten-Standards, Open-Source-Protokolle und Forschung zu KI-Sicherheit. Bis März sammelt das Institut öffentliches Feedback – ein Zeichen für kooperatives Vorgehen.

Anzeige

Während in den USA Standards für KI-Agenten entstehen, gelten in der EU bereits konkrete Regeln für Anbieter und Entwickler. Ein kostenloses E‑Book erklärt kompakt, welche Kennzeichnungspflichten, Risikoklassen und Dokumentationsanforderungen die EU‑KI‑Verordnung verlangt – ideal für Unternehmen, die KI-Systeme entwickeln oder einsetzen. Jetzt kostenlosen Leitfaden zur KI-Verordnung herunterladen

Die kommenden Monate werden entscheidend sein. Ob KI-Agenten zu verlässlichen Partnern oder zum nächsten großen Angriffsziel werden, hängt von robusten Standards und einem Sicherheits-First-Ansatz ab. Die Produktivitätsgewinne sind verlockend, doch das Risiko katastrophaler Zwischenfälle wächst täglich.