Die EU schafft mit einem neuen Sicherheitsstandard für künstliche Intelligenz einen globalen Maßstab. Die Norm soll KI vor einer neuen Generation von Cyberangriffen schützen.
Brüssel – Europa setzt im globalen Wettlauf um sichere künstliche Intelligenz einen entscheidenden Meilenstein. Das Europäische Institut für Telekommunikationsnormen (ETSI) hat heute den neuen Sicherheitsstandard EN 304 223 veröffentlicht. Diese erste europaweit gültige Norm definiert grundlegende Cybersicherheitsanforderungen für KI-Systeme und soll sie vor hochkomplexen digitalen Bedrohungen schützen. Die Veröffentlichung kommt zu einem kritischen Zeitpunkt, da Unternehmen KI zunehmend in kritische Infrastrukturen und Kernprozesse integrieren.
Die formelle Anerkennung durch die nationalen Normungsorganisationen schafft einen robusten Rahmen für Entwickler und Betreiber von KI. Die Norm bietet klare, praktische Leitlinien für die Absicherung von KI über den gesamten Lebenszyklus hinweg – vom Entwurf bis zur Außerbetriebnahme. Sie dient als zentraler Maßstab für die Einhaltung des umfassenderen EU-KI-Gesetzes und positioniert Europa als Vorreiter in der KI-Governance.
Seit August 2024 gelten neue Regeln für KI-Systeme in der EU – viele Unternehmen riskieren Bußgelder, weil Kennzeichnungspflichten und Dokumentationsanforderungen nicht erfüllt werden. Ein kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt praxisnah, wie Sie Ihre KI-Systeme richtig klassifizieren, dokumentieren und rechtskonform betreiben – konkret, ohne juristischen Ballast. Ideal für Entwickler, Betreiber und Compliance‑Verantwortliche, die EN 304 223 technisch mit dem EU‑KI‑Gesetz verbinden müssen. KI‑Verordnung: Gratis‑Leitfaden herunterladen
Lebenszyklus-Ansatz gegen KI-spezifische Gefahren
Der Kern des neuen Standards ist ein umfassender Sicherheitsansatz, der den gesamten Lebensweg einer KI abdeckt. Er formuliert 13 Schlüsselprinzipien, die auf fünf Phasen verteilt sind: sicheres Design, sichere Entwicklung, sichere Bereitstellung, sichere Wartung und sichere Außerbetriebnahme. So soll Sicherheit von Anfang an mitgedacht und nicht nachträglich aufgesetzt werden.
Besonderes Augenmerk liegt auf Risiken, die spezifisch für KI sind. Dazu zählen Data Poisoning (das Vergiften von Trainingsdaten), Model Obfuscation (das Verschleiern von Modellfunktionen) und indirekte Prompt-Injection-Angriffe. Diese Bedrohungen können den Lernprozess einer KI korrumpieren, zu fehlerhaften oder bösartigen Ergebnissen führen und sensible Daten preisgeben. Der Standard verbindet etablierte Cybersicherheits-Praktiken mit neuen, auf KI zugeschnittenen Maßnahmen.
Klare Verantwortung in der Lieferkette
Ein Dauerkonflikt bei der unternehmerischen KI-Nutzung ist die Frage der Verantwortung für Sicherheitsrisiken. Der ETSI-Standard schafft hier Klarheit, indem er drei primäre technische Rollen definiert: Entwickler, Systembetreiber und Datenverwalter. Diese Aufgabentrennung ist besonders in komplexen Szenarien entscheidend, etwa wenn ein Unternehmen ein Open-Source-Modell für einen speziellen Einsatzzweck anpasst und gleichzeitig betreibt.
Zudem legt der Standard großen Wert auf die Sicherheit der Lieferkette. Organisationen, die undokumentierte KI-Modelle von Drittanbietern nutzen, müssen diese Entscheidung nun formal rechtfertigen und alle Sicherheitsrisiken dokumentieren. Das soll den Einsatz undurchsichtiger „Black-Box“-Lösungen unattraktiv machen. Für mehr Transparenz müssen Entwickler kryptografische Prüfsummen für Modellkomponenten bereitstellen. Bei Modellen, die mit öffentlichen Daten trainiert wurden, ist die Quelle und der Zeitpunkt der Datenerfassung zu dokumentieren.
Technische Grundlage für das EU-KI-Gesetz
Die neue Norm EN 304 223 bildet eine zentrale technische Säule für das historischen EU-KI-Gesetz. Während das Gesetz den rechtlichen Rahmen mit risikobasierten Verpflichtungen setzt, liefert der Standard die detaillierten technischen Spezifikationen zur Umsetzung. Unternehmen erhalten so einen glaubwürdigen Weg, ihre Sorgfaltspflichten nachzuweisen.
Das Timing der Veröffentlichung ist entscheidend. Erste Regelungen für allgemeine KI-Modelle sind bereits seit August 2025 in Kraft. Die strengeren Vorgaben für Hochrisiko-KI-Systeme folgen im August 2026. Der neue Sicherheitsstandard gibt der Industrie damit ein konkretes Werkzeug an die Hand, um sich auf diese Fristen vorzubereiten und von Grund auf sichere KI-Systeme zu entwickeln.
Branche begrüßt Klarheit und fordert mehr Transparenz
Branchenexperten sehen in dem Standard einen großen Schritt zur Professionalisierung der KI-Sicherheit. Er adressiere eine fundamentale Lücke im Markt, indem er Verantwortlichkeiten klar definiere, so die Einschätzung. Bisher konnten Zuständigkeiten verschwimmen, wenn ein Modell von einem externen Entwickler an ein internes Betriebsteam übergeben wurde.
Die Forderung nach Rechtfertigung für Black-Box-Modelle wird die Branche voraussichtlich zu mehr Transparenz zwingen. Anbieter müssen künftig detailliertere Dokumentationen und Sicherheitsgarantien für ihre KI-Produkte liefern. Für Unternehmen in der EU bedeutet dies: Sie müssen ihre KI-Governance, Lieferkettenpolitik und Entwicklungsprozesse überprüfen und an die neuen Anforderungen anpassen.
Nächster Schritt: Spezifische Regeln für Generative KI
Die Veröffentlichung von EN 304 223 ist erst der Anfang. ETSI kündigte bereits einen kommenden Technischen Bericht (TR 104 159) an, der die Prinzipien des Standards speziell auf den Bereich der generativen KI anwenden wird. Diese künftige Leitlinie soll präskriptivere Vorgaben für Probleme wie Deepfakes, Desinformation, Urheberrechtsverletzungen und Vertraulichkeitsrisiken liefern.
Mit der Einführung von EN 304 223 setzt Europa einen Maßstab, der weltweit zum De-facto-Benchmark für KI-Cybersicherheit werden könnte. Die Botschaft ist klar: In der sich rasant entwickelnden Welt der KI darf Innovation nicht auf Kosten von Sicherheit und Vertrauen gehen.
PS: Die neue ETSI‑Norm EN 304 223 ergänzt die EU‑KI‑Verordnung technisch – nutzen Sie die Übergangsfristen, um Ihre Systeme rechtskonform aufzusetzen. Unser kompakter Gratis‑Leitfaden zur KI‑Verordnung fasst Kennzeichnungspflichten, Risikoklassen und konkrete Umsetzungsschritte zusammen, damit Entwickler und Betreiber schnell prüfen können, ob Handlungsbedarf besteht. Gratis‑Leitfaden zur KI‑Verordnung sichern





