Die EU ringt um mehr Zeit für die Umsetzung ihrer strengen KI-Regeln. In Trilog-Verhandlungen wird über eine Verschiebung der Fristen für Hochrisiko-KI bis Ende 2027 beraten.
Die Verhandlungen über das sogenannte „Digitale Omnibus“-Paket zur KI-Verordnung sind in eine entscheidende Phase getreten. Seit gestern beraten Vertreter des Europäischen Parlaments, des Rates und der Kommission darüber, ob Entwickler anspruchsvoller KI-Systeme mehr Zeit für die Umsetzung der technischen Vorgaben erhalten sollen. Der ursprüngliche Stichtag, der 2. August 2026, rückt näher. Die Gespräche zielen darauf ab, Vollzugsbefugnisse zu harmonisieren und sicherzustellen, dass notwendige technische Standards vorliegen, bevor die anspruchsvollsten Pflichten greifen. Bis zum 28. April wird eine politische Einigung auf einen konsolidierten Text erwartet.
Während die EU über Fristverlängerungen für Hochrisiko-Systeme berät, gelten viele Anforderungen des AI Acts bereits seit August 2024. Dieser kostenlose Leitfaden hilft Ihrer IT- und Rechtsabteilung, bei Fristen, Pflichten und Risikoklassen den Überblick zu behalten. EU AI Act in 5 Schritten verstehen – jetzt kostenlos herunterladen
Fristen im Fokus: Hochrisiko-KI könnte länger Zeit bekommen
Das zentrale Anliegen des neuen Pakets ist es, Bedenken auszuräumen, dass die ursprünglichen Übergangsfristen für Hochrisiko-KI zu knapp bemessen sind. Diese wird etwa in kritischer Infrastruktur oder öffentlichen Dienstleistungen eingesetzt. Der Vorschlag sieht vor, die Frist für die Einhaltung der Vorgaben für Systeme aus Anhang III – darunter KI in Bildung, Beschäftigung und Strafverfolgung – auf Dezember 2027 zu verschieben.
Der Rat der EU hat seine Position zu diesen Änderungen bereits im März signalisiert. Man will einen „Compliance-Vakuum“ vermeiden, in dem Regeln gelten, bevor Entwickler auf harmonisierte Standards zugreifen können. Für die Robotik- und Automatisierungsbranche sind diese Verschiebungen besonders relevant. Während die ursprüngliche Verordnung Regeln für Hochrisiko-KI in regulierten Produkten wie Industrieanlagen oder Medizingeräten für August 2027 vorsah, deuten die neuesten Vorschläge auf eine mögliche Verlängerung bis August 2028 hin. Trotz dieser potenziellen Aufschübe betonen Rechtsexperten, dass der 2. August 2026 ein fester Termin für Transparenzpflichten und die Aktivierung der vollen Durchsetzungsbefugnisse bleibt.
Was bereits gilt: Verbotene Praktiken und General-Purpose KI
Während über Fristen verhandelt wird, sind mehrere Teile der KI-Verordnung bereits in Kraft. Seit dem 2. Februar 2025 gilt ein vollständiges Verbot für KI-Systeme mit „unannehmbarem Risiko“. Dazu gehören manipulative Techniken, Social Scoring durch Behörden und das ungezielte Sammeln von Gesichtsbildern aus dem Internet oder von Überwachungskameras. Auch prädiktive Polizeisysteme, die Personen allein auf Basis persönlicher Daten bewerten, sind seitdem vom Markt.
Zudem gelten seit dem 2. August 2025 Pflichten für Anbieter von General-Purpose AI (GPAI)-Modellen. Diese müssen detaillierte technische Dokumentationen führen, EU-Urheberrechte einhalten und Zusammenfassungen der Trainingsdaten bereitstellen. Die EU-Kommission veröffentlichte im Juli 2025 einen endgültigen Verhaltenskodex für GPAI. Für Modelle mit „systemischem Risiko“ gelten zusätzlich strenge Evaluierungen und Meldepflichten bei Vorfällen an das Europäische KI-Büro.
Die Herausforderung: Technische Standards für Robotik und Automatisierung
Eine zentrale Hürde ist die Entwicklung harmonisierter Standards, die die rechtlichen Vorgaben in konkrete technische Benchmarks übersetzen. Organisationen wie CEN und CENELEC arbeiten seit Ende 2024 an diesen Normen für Risikomanagement, Datenqualität und Cybersicherheit. Für die Robotikindustrie sind sie die Brücke zwischen abstrakten Sicherheitszielen und der technischen Realität automatisierter Systeme.
Hochrisiko-KI-Systeme – dazu zählen oft fortschrittliche Robotik in Gesundheitswesen oder Transport – müssen eine Konformitätsbewertung durchlaufen, bevor sie auf den Markt kommen. Dabei muss ein robustes Risikomanagement und die Möglichkeit menschlichen Eingreifens nachgewiesen werden. Die Verfügbarkeit dieser Standards ist Voraussetzung für eine wirksame Durchsetzung. Daher startete das KI-Büro Ende März einen siebenmonatigen Prozess zur Erarbeitung eines spezifischen Verhaltenskodex für die Kennzeichnung KI-generierter Inhalte.
Die neuen EU-Regeln stellen besonders Unternehmen, die KI-Systeme entwickeln oder nutzen, vor komplexe Dokumentationsfragen. Erfahren Sie im kostenlosen Umsetzungsleitfaden zum EU AI Act, welche KI-Systeme als Hochrisiko gelten und wie Sie die rechtlichen Anforderungen rechtzeitig erfüllen. Kostenlosen KI-Verordnung Report sichern
Durchsetzung: Hohe Strafen und die Rolle des KI-Büros
Das Durchsetzungssystem der KI-Verordnung folgt einem hybriden Modell zwischen nationalen Behörden und dem zentralen Europäischen KI-Büro. Bis zum 2. August 2025 mussten die Mitgliedstaaten nationale Ansprechpartner benennen. Berichten vom März zufolge haben dies jedoch erst acht von 27 Ländern vollständig umgesetzt.
Ab dem 2. August 2026 sind die Vollzugsbefugnisse der Kommission voll aktiv. Das KI-Büro kann dann GPAI-Modelle überwachen und grenzüberschreitende Untersuchungen koordinieren. Die finanziellen Risiken bei Nichteinhaltung sind immens: Verwaltungsstrafen können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes betragen. Für Start-ups und KMU sieht die Verordnung „regulatorische Sandkästen“ vor – kontrollierte Testumgebungen unter Aufsicht der Behörden.
Ausblick: Transparenzregeln kommen sicher, Detailfragen klären sich
Während sich die Fristen für Hochrisiko-KI möglicherweise verschieben, werden die Kernregeln für Transparenz und Governance diesen August verbindlich. Unternehmen, die bereits am freiwilligen „KI-Pakt“ der EU teilgenommen haben, könnten im Vorteil sein. Sie haben mit internen Audits für das neue Regelwerk bereits begonnen.
In den kommenden Monaten werden die Fertigstellung des Verhaltenskodex für KI-generierte Inhalte und die ersten harmonisierten Standards die entscheidenden Meilensteine für die Branche sein. Für Entwickler in Robotik und Automatisierung bleibt der Fokus auf „Compliance by Design“ – die Integration von menschlicher Aufsicht und Datennachverfolgung als Kernbestandteile der Technologiearchitektur.





