KI-Agenten: Sicherheitsbranche reagiert auf Identitätskrise

Cybersicherheitsfirmen entwickeln dringend neue Sicherheitsstandards für KI-Agenten, da traditionelle Zugriffskontrollen versagen. Das Human-in-the-Loop-Modell etabliert sich als neuer Sicherheitsstandard.

KI-Agenten werden zur Gefahr für Unternehmen, weil sie ohne menschliche Kontrolle agieren. Cybersicherheitsfirmen und Standardisierungsgremien entwickeln deshalb dringend neue Sicherheitsmodelle, die speziell für nicht-menschliche Identitäten ausgelegt sind.

Die Woche der Wende: Neue Sicherheitsstrategien

Die vergangene Woche markiert einen Wendepunkt. Am 16. Februar 2026 stellte der Cybersicherheitsanbieter Check Point eine umfassende Vier-Punkte-Strategie vor, um Unternehmens-KI abzusichern. Kernstück ist die Übernahme von Cyata, um Identitäten und Berechtigungen von KI-Agenten zu verwalten. Ebenfalls am Montag startete Adversa AI SecureClaw, das erste Open-Source-Sicherheits-Plugin für OpenClaw-KI-Agenten, das OWASP-Sicherheitsstandards einhält.

Diese Ankündigungen folgen auf frühere Initiativen von Branchengrößen. Ende Januar 2026 präsentierte Teleport sein Agentic Identity Framework, das KI-Agenten als vertrauenswürdige Identitäten behandelt. Am 10. Februar erweiterte Cisco sein Sicherheitsportfolio, um Unternehmen bei der sicheren Einführung von agentenbasierter KI zu unterstützen.

Das Grundproblem: Alte Sicherheitsmodelle versagen

Das zentrale Sicherheitsrisiko entsteht, weil traditionelle Identitäts- und Zugriffsverwaltung (IAM) für Menschen gemacht wurde – nicht für nicht-deterministische, ständig aktive KI-Agenten. Unternehmen, die heute Agenten einsetzen, greifen oft auf statische Zugangsdaten oder hartkodierte Passwörter zurück. Das führt zu Identitätsfragmentierung und systemischen Risiken.

Die Gefahr ist real. Eine Umfrage von Teleport unter über 200 IT-Infrastruktur-Experten ergab: 69 Prozent glauben, dass die breite KI-Einführung erhebliche Änderungen am Identitätsmanagement erfordert. Vorfälle aus dem Jahr 2025, bei denen Agenten angeblich Nutzerdaten oder Produktionsdatenbanken löschten, dienen als warnende Beispiele. Sie zeigen: Fehlende Zugriffskontrollen können irreparablen Schaden anrichten.

Human-in-the-Loop: Der neue Sicherheitsstandard

Als Antwort etabliert sich das „Human-in-the-Loop“ (HITL)-Modell. Es stellt die Beziehung zwischen Mensch und KI-Agent auf eine neue Grundlage. Keine sensible Aktion kann mehr ohne explizite, Echtzeit-Freigabe durch einen menschlichen Nutzer abgeschlossen werden.

In diesem Rahmen ist der KI-Agent nur ein Antragsteller für Berechtigungen, kein Besitzer von Zugangsdaten. Der Mensch wird zur letzten Autorisationsinstanz. Das verhindert unautorisierte Aktionen selbst dann, wenn der Agent kompromittiert wird. Dieses Modell gilt als essenziell, um Vertrauen aufzubauen und Compliance in regulierten Branchen wie Finanzen oder Gesundheitswesen zu gewährleisten.

Investitionen und Standards folgen dem Bedarf

Die Dringlichkeit des Themas spiegelt sich in Investitionen und staatlichen Initiativen wider. Am 11. Februar 2026 kündigte die Plattform für nicht-menschliche Identitätssicherheit, GitGuardian, eine neue Finanzierungsrunde über 50 Millionen Euro an. Das Geld soll die Arbeit an der Absicherung von KI-Agenten vorantreiben. Unternehmen, die bisher Hunderte Dienstkonten verwalteten, stehen bald vor Tausenden autonomer KI-Agenten – jeder mit eigenen, sicheren Zugangsdaten.

Parallel greifen Behörden ein. Das US-amerikanische National Institute of Standards and Technology (NIST) veröffentlichte am 5. Februar ein Konzeptpapier zur Identität und Autorisierung von KI-Agenten. Es schlägt ein Projekt vor, um praktische Leitfäden für robuste Identitätskontrollen in Unternehmen zu entwickeln. Das Signal ist klar: Es braucht klare Standards für KI-Sicherheit.

Anzeige

Unternehmen, die agentenbasierte KI einsetzen, stehen bereits unter regulatorischem Druck – von Kennzeichnungspflichten bis zu Risikoklassifizierungen. Ein kostenloser Umsetzungsleitfaden zur EU-KI-Verordnung erklärt praxisnah, welche Pflichten auf Entwickler und Anwender zukommen und wie Sie Ihre Systeme korrekt klassifizieren und dokumentieren. Jetzt kostenlosen Leitfaden zur KI-Verordnung herunterladen

Die Zukunft: Balance zwischen Autonomie und Kontrolle

Die Zukunft der agentenbasierten KI wird von einer Balance zwischen Autonomie und menschlicher Aufsicht geprägt sein. Das Ziel ist nicht, die KI-Einführung zu bremsen, sondern durch starke Governance Vertrauen aufzubauen. Die neue Generation von Sicherheitsframeworks will jedem KI-Agenten eine First-Class-Identität geben – mit kryptografischem Schutz, temporären Zugangsdaten und einem vollständigen Audit-Trail seines Verhaltens.

Experten erwarten eine Evolution vom strikten „Human-in-the-Loop“-Modell hin zu einem flexibleren „Human-on-the-Loop“-Ansatz. Menschen würden dann nicht mehr jede einzelne Aktion freigeben, sondern Agenten überwachen, Richtlinien setzen und nur im Ausnahmefall eingreifen. So könnten Unternehmen den Einsatz von KI-Agenten sicher skalieren und ihr immenses Potenzial für Produktivität und Innovation nutzen – während die letztendliche Kontrolle in menschlicher Hand bleibt.