Die KI-Firma OpenAI sperrte das ChatGPT-Konto der Tumbler-Ridge-Attentäterin bereits im Juni 2025 – meldete die verdächtigen Aktivitäten damals aber nicht der Polizei. Diese Enthüllung wirft grundlegende Fragen zur Verantwortung von Tech-Plattformen auf.
KI erkannte Gewaltfantasien – doch es folgte keine Meldung
Bereits acht Monate vor dem tödlichen Amoklauf in der kanadischen Gemeinde Tumbler Ridge hatte OpenAI die Nutzerin identifiziert. Wie das Unternehmen am Freitag bestätigte, markierten seine Sicherheitssysteme im Juni 2025 das Konto der damals 18-jährigen Jesse Van Rootselaar. Die Jugendliche hatte den Chatbot genutzt, um detaillierte Szenarien mit Waffengewalt zu generieren – ein klarer Verstoß gegen die Richtlinien zur „Förderung gewalttätiger Aktivitäten“.
Die Interaktionen wurden automatisch erkannt und an menschliche Prüfer weitergeleitet. OpenAI sperrte das Konto daraufhin dauerhaft. Doch einen Schritt unternahm das Unternehmen nicht: Es informierte nicht die Strafverfolgungsbehörden. Eine Entscheidung, die intern diskutiert wurde, wie Berichte des Wall Street Journal und kanadischer Medien nahelegen.
Warum schwiegen die Algorithmus-Wächter?
OpenAI begründet das Schweigen mit seiner strengen Melderichtlinie. Demnach werden Nutzer nur dann der Polizei gemeldet, wenn ein „unmittelbares und glaubwürdiges Risiko“ schwerer körperlicher Schäden für andere besteht. Im Juni 2025 – acht Monate vor der Tat – sah das Unternehmen diese Schwelle nicht erreicht. Man wollte Übermeldungen vermeiden, die Polizeiressourcen binden und in Privatsphäre eingreifen.
Doch genau dieser Maßstab steht nun in der Kritik. Ist er zu hoch, wenn KI-Tools klare Gewaltideationen erkennen, auch ohne konkretes Datum oder Ziel? Nach dem Angriff am 10. Februar, bei dem die Attentäterin acht Menschen tötete, kontaktierte OpenAI proaktiv die Royal Canadian Mounted Police (RCMP) und stellte alle Kontodaten zur Verfügung.
Digitale Spur der Gewalt über mehrere Plattformen
Die Sperrung bei ChatGPT ist nur ein Teil der digitalen Vorgeschichte der Tat. Ermittler zeichnen das Bild einer Person, die auf mehreren Online-Plattformen rote Linien überschritt.
Bereits diese Woche wurde bekannt, dass auch die Gaming-Plattform Roblox Van Rootselaar gesperrt hatte. Sie hatte dort ein Massakerszenario in einem Einkaufszentrum simuliert. Zudem, so berichtet CityNews, war die Jugendliche auf Websites mit Gewalt- und Gore-Inhalten unterwegs. Dort soll sie detailliert psychotische Episoden und eine Obsession für vergangene Amokläufe dokumentiert haben.
Die RCMP priorisiert nun die digitale Forensik. „Wir müssen die Gedankenwelt der Täterin und die Eskalation verstehen“, erklärt Staff Sgt. Kris Clark.
Globale Debatte: KI-Verantwortung und Meldeplicht
Der Fall heizt die internationale Debatte um die Sicherheitsverantwortung von KI-Unternehmen neu an. Wo verläuft die Grenze zwischen Privatsphäre und der Pflicht zu warnen, wenn Algorithmen immer komplexere Narrative verstehen und generieren können?
Experten erwarten, dass dieser Vorfall Gesetzgeber weltweit veranlassen wird, Meldepflichten für KI- und Social-Media-Firmen zu überdenken. Bislang liegt es oft im Ermessen der Plattformen, zwischen Fantasie, Rollenspiel und echter Schadensabsicht zu unterscheiden.
Wer die Verantwortung von KI‑Anbietern verstehen will, sollte wissen, welche Pflichten die EU seit dem AI‑Act vorsieht. Der kostenlose Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt verständlich Kennzeichnungspflichten, Risikoklassen und Dokumentationsanforderungen – und zeigt, was Entwickler, Plattformbetreiber und Anwender jetzt rechtlich beachten müssen. EU‑KI‑Verordnung: Kostenlosen Umsetzungsleitfaden herunterladen
In Tumbler Ridge trauert die Gemeinde unterdessen weiter. Bei einer Mahnwache wurde der Opfer gedacht, während die Ermittler versuchen, die Warnsignale zusammenzusetzen, die über die digitale Landschaft verstreut lagen.





