Datenschutz-Wächter stellen KI-Entwickler an den Pranger

Eine globale Allianz von Datenschutzbehörden stellt klar, dass die Erstellung nicht einvernehmlicher intimer KI-Bilder und Deepfakes bereits gegen bestehende Datenschutzgesetze verstößt.

61 Datenschutzbehörden weltweit warnen KI-Entwickler: Deepfakes und intime KI-Bilder verletzen bereits heute geltendes Recht. Die globale Aktion markiert eine Zeitenwende in der Technologieregulierung.

Einheitlicher Schlag gegen KI-Missbrauch

In einer beispiellosen gemeinsamen Erklärung vom 23. Februar 2026 stellen sich Datenschutzbehörden aus vier Kontinenten geschlossen gegen den Missbrauch generativer KI. Die Kernbotschaft: Die Erstellung nicht einvernehmlicher intimer Bilder und täuschend echter Deepfakes verstößt gegen bestehende globale Datenschutzvorschriften. „Diese Technologien verarbeiten personenbezogene Daten – damit unterliegen sie bereits heute strengen Regeln“, betonen die Behörden.

Anzeige

Die rasante Entwicklung generativer KI stellt Unternehmen vor enorme rechtliche Herausforderungen, da viele Anwendungen bereits jetzt unter bestehende Datenschutzgesetze fallen. Dieser kostenlose Leitfaden erklärt verständlich, welche Anforderungen und Fristen Sie bei der Nutzung von KI-Systemen unbedingt beachten müssen. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern

Die Initiative der Global Privacy Assembly umfasst europäische, nordamerikanische und asiatische Aufsichtsbehörden. Sie reagiert damit auf die rasante Verbreitung von Bild- und Video-Generatoren in öffentlich zugänglichen Plattformen. Besondere Sorge gilt der Erstellung diffamierender oder schädlicher Inhalte ohne Wissen der Betroffenen.

„Die Erstellung nicht einvernehmlicher intimer Bilder ist nicht nur ethisch verwerflich, sondern in vielen Rechtsordnungen bereits strafbar“, heißt es in der Erklärung. Die koordinierte Aktion soll verhindern, dass Tech-Unternehmen regulatorische Lücken zwischen verschiedenen Jurisdiktionen ausnutzen.

Drei klare Forderungen an die Industrie

Die Aufsichtsbehörden formulieren konkrete Erwartungen an KI-Entwickler:

Technische Schutzmaßnahmen stehen an erster Stelle. Unternehmen müssen wirksame Systeme implementieren, die die Generierung missbräuchlicher Inhalte von vornherein verhindern. Besonderes Augenmerk liegt auf dem Schutz vulnerabler Gruppen wie Kindern vor Cybermobbing und Ausbeutung.

Transparenz ist die zweite Säule. Entwickler müssen klar kommunizieren, was ihre Systeme können – und was nicht. Akzeptable Nutzungsbedingungen und Konsequenzen bei Verstößen müssen deutlich erkennbar sein.

Effektive Beschwerdemechanismen komplettieren die Forderungen. Betroffene müssen einfach und schnell die Löschung schädlicher KI-generierter Inhalte verlangen können. Das Recht auf Vergessenwerden und Berichtigung gilt auch für künstlich erzeugte Darstellungen.

Bestehendes Recht statt neuer Gesetze

Die Aktion schließt eine zeitliche Lücke in der globalen Regulierung. Während umfassende Rahmenwerke wie der EU-Künstliche-Intelligenz-Akt erst im August 2026 voll wirksam werden, zeigen die Behörden: Das aktuelle Datenschutzrecht bietet bereits jetzt ausreichend Handhabe.

Anzeige

Während die globale Regulierung von KI-Systemen zunimmt, rückt auch die allgemeine IT-Sicherheit immer stärker in den Fokus der Aufsichtsbehörden. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen mit effektiven Strategien gegen aktuelle Bedrohungen schützen, ohne Ihr Budget zu sprengen. Kostenlosen Cyber-Security-Leitfaden herunterladen

„KI-Systeme verarbeiten personenbezogene Daten – damit fallen sie eindeutig unter die Datenschutz-Grundverordnung und ähnliche Gesetze weltweit“, erklärt ein europäischer Datenschutzexperte. Dieser Ansatz verschafft Aufsichtsbehörden sofortige Durchsetzungsmöglichkeiten. Sie müssen nicht erst beweisen, dass ein System als „hochriskant“ einzustufen ist, sondern nur, dass personenbezogene Daten unrechtmäßig verarbeitet wurden.

Erste Ermittlungen laufen bereits

Die Erklärung folgt konkreten Ermittlungen. Anfang Februar 2026 leitete das britische Information Commissioner’s Office eine investigation gegen das KI-System Grok von X und xAI ein. Grund waren Berichte über die Generierung nicht einvernehmlicher sexualisierter Bilder, darunter Darstellungen Minderjähriger.

Die britische Behörde prüft, ob die Unternehmen personenbezogene Daten rechtmäßig und transparent verarbeitet haben. Auch die technischen Schutzvorkehrungen gegen die Erstellung manipulierter Bilder stehen im Fokus. Dieser Fall zeigt exemplarisch, wie Datenschutzbehörden ihre Befugnisse bereits jetzt gegen KI-Plattformen einsetzen.

Was bedeutet das für die Zukunft?

Die einheitliche Haltung von 61 Aufsichtsbehörden markiert das Ende der Schonfrist für generative KI. Unternehmen müssen ihre Compliance-Programme grundlegend überdenken. Datenschutz und KI-Regulierung können nicht länger getrennt voneinander betrachtet werden.

„Privacy-by-Design muss direkt in die Entwicklung von Machine-Learning-Modellen integriert werden“, fordern Experten. Künftig sind verstärkt koordinierte, länderübergreifende Untersuchungen zu erwarten. Internationale Arbeitsgruppen tauschen bereits Durchsetzungsstrategien und technisches Know-how aus.

Für KI-Entwickler ist die Botschaft klar: Die experimentelle Phase ist vorbei. Die Einhaltung globaler Datenschutzstandards ist jetzt verbindliche Voraussetzung für den Betrieb – nicht erst, wenn spezifische KI-Gesetze in Kraft treten.