KI-Entwickler unter Beschuss: Städte und Opfer klagen an

Die US-Stadt Baltimore erhebt eine wegweisende Klage gegen xAI wegen Deepfake-Pornografie. Parallel formiert sich juristischer und politischer Druck, um KI-Entwickler für Missbrauch ihrer Tools haftbar zu machen.

Die Ära der vermeintlichen Immunität für KI-Entwickler ist vorbei. Diese Woche formierte sich eine breite Front aus Städten, Opfern und Politikern, die Tech-Konzerne für Schäden durch generative KI haftbar machen wollen.

Baltimore verklagt xAI – eine Premiere

Die US-Stadt Baltimore geht juristisch in die Offensive. Sie reichte am 24. März 2026 eine wegweisende Klage gegen xAI und dessen Mutterkonzern X Corp ein. Es ist das erste Mal, dass eine große amerikanische Stadt direkt einen KI-Entwickler verklagt – wegen der Erstellung nicht einvernehmlicher Deepfake-Pornografie.

Anzeige

Die EU-KI-Verordnung ist bereits in Kraft und setzt neue Maßstäbe für die Haftung und Dokumentation. Dieser kostenlose Leitfaden erklärt verständlich, welche neuen Pflichten und Risikoklassen für Ihr Unternehmen jetzt gelten. EU-KI-Verordnung kompakt: Gratis E-Book herunterladen

Die Stadt wirft xAI vor, seinen KI-Assistenten Grok als sicheren Allzweckhelfer vermarktet zu haben. In Wahrheit, so die Klage, könne das Tool ungefiltert sexuell explizite und erniedrigende Bilder echter Personen, auch Minderjähriger, generieren. Nutzer könnten damit praktisch Menschen auf Fotos „entkleiden“. Bürgermeister Brandon Scott spricht von massiven Privatsphäre-Verletzungen und psychischen Schäden bei Einwohnern.

Der geniale Schachzug: Baltimore stützt sich nicht auf klassisches Persönlichkeitsrecht, sondern auf lokale Verbraucherschutzbestimmungen. Damit will die Stadt das mächtige Schild umgehen, das Tech-Plattformen oft durch den US-Communications Decency Act genießen. Gelingt das, könnte es einen Präzedenzfall schaffen. Andere Kommunen könnten folgen.

Opfer wehren sich – vor Gericht und im Parlament

Während Baltimore institutionell klagt, wurde in einer anderen Verhandlung das menschliche Leid spürbar. In Pennsylvania erhielten am 25. März zwei Teenager Bewährungsstrafen. Sie hatten 2024 hunderte KI-generierte Nacktbilder von Mitschülern erstellt. Über 100 Betroffene und Eltern waren im Gerichtssaal. Opfer schilderten das Trauma, den eigenen, manipulierten Gesichtern in pornografischem Material zu begegnen.

Parallel läuft eine Bundesklage dreier Teenager aus Tennessee gegen xAI. Sie werfen dem Unternehmen vor, sein Grok-Tool sei zur Erstellung von Missbrauchsabbildungen mit ihrem Gesicht genutzt worden. Die Klage behauptet, xAI habe Sicherheitsstandards zugunsten schneller Markteinführung aufgegeben.

Die Botschaft ist klar: Die Opfer zielen nicht mehr nur auf die direkten Täter ab, sondern zunehmend auf die Hersteller der „digitalen Waffen“. „Nur finanzieller Druck bringt die Konzerne dazu, ihre Sicherheitsvorkehrungen zu verbessern“, so eine Anwältin der Kläger.

Auch im britischen Parlament wurde Druck gemacht. Abgeordnete konfrontierten Manager von TikTok, Google, Meta und X mit deren Versagen im Umgang mit Deepfakes. Im Fokus: Ein gefälschtes Video, das den Abgeordneten George Freeman zeigte, wie er angeblich die Partei wechselt. Freeman kritisierte, die Melde- und Löschprozesse der Plattformen seien zu langsam und wirkungslos. Die Selbstregulierung der Branche funktioniere nicht.

Gesetzesinitiativen: USA schaffen neue Rechtsgrundlagen

Die Klagewelle wird durch neuen legislativen Schwung untermauert. Eine parteiübergreifende Gruppe im US-Kongress unterstützt nun den DEFIANCE Act. Das Gesetz soll Opfern nicht einvernehmlicher Deepfakes ein zivilrechtliches Klagerecht auf Bundesebene geben. Es baut auf dem „Take It Down Act“ auf, der Plattformen bereits verpflichtet, entsprechende Inhalte binnen 48 Stunden zu löschen.

Anzeige

Da die gesetzlichen Anforderungen an Technologie und Datenschutz weltweit steigen, riskieren Unternehmen ohne klare Compliance-Strategie hohe Bußgelder. Erfahren Sie in diesem kostenlosen Praxis-Leitfaden, wie Sie Kennzeichnungspflichten und Dokumentationsanforderungen der neuen KI-Regeln rechtssicher umsetzen. Jetzt kostenlosen KI-Umsetzungsleitfaden sichern

Der DEFIANCE Act würde es Einzelpersonen erlauben, direkt Schadensersatz und gerichtliche Entfernungsanordnungen zu erwirken – ohne sich allein auf die Moderations-Teams der Tech-Konzerne verlassen zu müssen. Die Befürworter argumentieren: Mit fortschreitender KI-Technologie muss auch der staatliche Schutz vor digitaler Gewalt wachsen.

Branche am Scheideweg: Das Ende der Unschuld?

Die Ereignisse markieren ein „perfektes Sturm“-Szenario für die KI-Branche. Jahrelang operierten Entwickler unter der Annahme, nicht für den Missbrauch ihrer Tools verantwortlich zu sein. Die Klage aus Baltimore konzentriert sich jedoch auf Produktdesign und Verbraucherschutz. Sollten Gerichte entscheiden, dass ein KI-Tool von Haus aus schädliche Funktionen wie „Entkleiden“ ermöglicht, könnte die Haftung weit über das reine Hosten von Inhalten hinausgehen.

Marktbeobachter sehen bereits Auswirkungen. Während etablierte Player wie Google und Meta strengere Filter eingeführt haben, stehen Newcomer wie xAI im Verdacht, mit „ungefilterten“ Ausgaben Nutzer locken zu wollen. Die Klageflut und internationale Untersuchungen – etwa der EU-Kommission – könnten nun einen branchenweiten „Safety-First“-Ansatz erzwingen. Die Kosten für Prozesse und mögliche Schadensersatzforderungen in sechsstelliger Höhe könnten für Startups ohne robuste Sicherheitsvorkehrungen existenzbedrohend werden.

Die kommenden Monate werden richtungsweisend sein. Wird der DEFIANCE Act Gesetz? Werden weitere Städte dem Beispiel Baltimores folgen? Die Gerichtsentscheidungen werden die Grenzen des „synthetischen Sprechens“ neu definieren und abwägen, ob der Komfort generativer KI das Grundrecht auf Privatsphäre und Würde aufwiegt. Für die Opfer senden die Ereignisse dieser Woche ein klares Signal: Die Zeit der falschen Sicherheiten ist vorbei.