xAI: Irlands Datenschutzbehörde ermittelt gegen Grok-Chatbot

Die irische Datenschutzbehörde untersucht X wegen mutmaßlicher Verstöße bei der Erstellung nicht einvernehmlicher KI-Bilder. Es ist die jüngste Maßnahme in einer globalen Regulierungswelle gegen den Missbrauch von Grok.

Irlands Datenschutzkommission (DPC) hat eine neue Untersuchung gegen die Plattform X eingeleitet. Sie prüft, ob bei der Erstellung nicht einvernehmlicher Deepfake-Bilder europäische Datenschutzregeln verletzt wurden. Diese Ermittlung markiert eine neue Eskalationsstufe im globalen Regulierungssturm um Elon Musks KI-Firma xAI und ihren Chatbot Grok.

Neuer EU-Vorstoß unter der DSGVO

Die irische Behörde, die als führende EU-Datenschutzaufsicht für X fungiert, hat das Unternehmen am Montag über die Untersuchung informiert. Konkret geht es um die Frage, ob X bei der Erstellung und Verbreitung „potenziell schädlicher“ nicht einvernehmlicher intimer oder sexualisierter Bilder europäisches Datenschutzrecht eingehalten hat. Betroffen sein sollen auch Daten von Kindern.

Diese Prüfung erfolgt unter der strengen Datenschutz-Grundverordnung (DSGVO) der EU. Sie stellt eine neue Front in der weltweiten Offensive gegen den Missbrauch generativer KI-Technologien dar. Für X bedeutet sie eine weitere rechtliche Herausforderung in einer wachsenden Liste regulatorischer Problemen.

Internationale Regulierungswelle rollt an

Die irische Untersuchung ist nur der jüngste Schritt in einer internationalen Reaktion auf die Grok-Kontroverse. Bereits Ende Januar 2026 leitete die Europäische Kommission ein formelles Verfahren gegen X nach dem Digital Services Act (DSA) ein. Dabei wird geprüft, ob die Plattform vor der Integration von Grok angemessene Risikobewertungen vornahm.

Auch Großbritannien zieht nach. Die Regierung kündigte an, KI-Chatbots in den Geltungsbereich ihrer Online-Sicherheitsgesetze aufzunehmen. Damit soll eine Gesetzeslücke geschlossen werden, die der Grok-Fall offenlegte. Die Medienaufsicht Ofcom ermittelt bereits seit dem 12. Januar, ob X seiner Pflicht zur Verhinderung illegaler Inhalte nachkam.

Die Regulierungswelle reicht weit über Europa hinaus. Indien verabschiedete am 10. Februar 2026 einige der weltweit schärfsten Regeln gegen Deepfakes. Sie schreiben eine deutliche Kennzeichnung aller KI-generierten Inhalte vor und verlangen extrem kurze Löschfristen von nur zwei bis drei Stunden für schädliche synthetische Medien. Länder wie Frankreich, Brasilien, Malaysia und Indonesien ergreifen ebenfalls Maßnahmen – von offiziellen Warnungen bis zu temporären Blockaden.

Systematischer Missfall löst Skandal aus

Der globale Aufschrei begann Ende 2025 und eskalierte Anfang 2026. Der Grund: Die Bildgenerierungsfunktion von Grok wurde systematisch missbraucht. Nutzer auf X konnten mit einfachen Textbefehlen die KI anweisen, Bilder von Personen – überwiegend Frauen und Mädchen – digital zu verändern und nicht einvernehmliche sexualisierte Deepfakes zu erstellen.

Das Ausmaß ist gewaltig. Recherchen des Center for Countering Digital Hate zeigten, dass Grok in weniger als zwei Wochen über drei Millionen sexualisierte Bilder generierte. Mehr als 23.000 davon schienen Kinder darzustellen. Die öffentliche Natur der Grok-Antworten auf X verstärkte den Schaden, da sich die manipulierten Bilder rasend schnell auf der Plattform verbreiteten.

Als Reaktion auf den ersten öffentlichen Druck schränkte xAI die Bildbearbeitungsfunktion im Januar auf zahlende Abonnenten ein. Behörden kritisierten diesen Schritt als unzureichend und „beleidigend“ für die Opfer.

Wendepunkt für Haftung von KI-Plattformen

Der Grok-Skandal entwickelt sich zum Präzedenzfall für neue Online-Sicherheits- und Datenschutzgesetze weltweit. Er zeigt einen entscheidenden Wandel im regulatorischen Fokus: Statt einzelne Nutzer zu bestrafen, sollen nun die Plattformen zur Verantwortung gezogen werden, die mächtige KI-Tools entwickeln und bereitstellen.

Dieser Vorfall beschleunigt globale Bestrebungen nach strengeren Regeln. Gefordert werden formale Transparenz, robuste Erkennungsmechanismen und klare Verantwortungsrahmen für generative KI. Die Ära, in der sich KI-Plattformen als bloße Vermittler nutzergenerierter Inhalte darstellen konnten, neigt sich dem Ende zu.

Anzeige

Die Grok-Affäre zeigt, wie schnell KI-Projekte zu massiven Sicherheits- und Compliance-Risiken werden können. Ein kostenloses E-Book fasst aktuelle Cyber-Security-Bedrohungen, neue Gesetze (inkl. KI-Verordnung) und praxisnahe Schutzmaßnahmen zusammen – ideal für Entscheider und IT-Verantwortliche, die Risiken ohne große Investitionen minimieren wollen. Jetzt kostenlosen Cyber-Security-Guide herunterladen

Ausblick: Milliardenstrafen und ein neues KI-Verständnis

Die zahlreichen laufenden Ermittlungen bergen das Risiko schwerwiegender Konsequenzen für X. Denkbar sind hohe Geldstrafen in Milliardenhöhe, insbesondere unter den drakonischen Bußgeldregeln der DSGVO. Die Ergebnisse dieser regulatorischen Schritte werden wahrscheinlich ein grundlegendes Umdenken erzwingen, wie generative KI-Modelle in öffentlich zugängliche Plattformen integriert werden.

Experten erwarten eine Zukunft, in der KI-Systeme rigorosen Risikobewertungen vor der Freigabe, verpflichtenden Inhaltskennzeichnungen und weitaus ausgefeilteren Sicherheitsvorkehrungen unterliegen. Die koordinierte Prüfung, der sich Grok und X gegenübersehen, ist ein klares Signal an die gesamte Tech-Branche: Der rasanten Entwicklung generativer KI muss ein ebenso robustes Engagement für Sicherheit, Privatsphäre und ethische Verantwortung folgen.