OpenAI sperrte den Account der kanadischen Amokläuferin Jesse Van Rootselaar bereits im Juni 2025 – sieben Monate vor dem Massaker mit acht Toten. Das Unternehmen bestätigte, dass seine Systeme Inhalte zur „Vorbereitung gewalttätiger Aktivitäten“ erkannt hatten. Eine Meldung an die Behörden unterblieb jedoch, da die Schwelle für eine „unmittelbare und glaubwürdige Gefahr“ nicht erreicht worden sei.
Die Enthüllung wirft neue Fragen zur Rolle von KI-Plattformen bei der Verhinderung von Gewalttaten auf. Nach der Bluttat vom 10. Februar nahm OpenAI von sich aus Kontakt zur kanadischen Polizei RCMP auf. Diese prüft nun den gesamten digitalen Fußabdruck der Täterin.
KI-Algorithmen schlugen Alarm – doch es reichte nicht
Laut OpenAI wurde Van Rootselaars Account durch eine Kombination aus automatischen Tools und menschlicher Überprüfung gesperrt. Die Nutzerin hatte demnach Szenarien mit Schusswaffengewalt erörtert. Doch die Aktivitäten erreichten nicht den internen „höheren Schwellenwert“ für eine Strafverfolgungsmeldung.
Das Unternehmen verteidigt diese hohe Hürde mit Privatsphäre-Bedenken. Falsche Alarmierungen könnten Nutzer unnötig traumatisieren, etwa durch unangekündigte Polizeibesuche. „Wir müssen das richtige Gleichgewicht zwischen Sicherheit und Privatsphäre finden“, so die implizite Aussage.
Digitale Spur führt zu weiterer Plattform
Die ChatGPT-Aktivitäten waren kein Einzelfall. Medienberichten zufolge wurde auch Van Rootselaars Account auf der Gaming-Plattform Roblox gesperrt. Dort soll sie ein Einkaufszentrum-Massaker simuliert haben – ein weiteres alarmierendes Puzzleteil in ihrer digitalen Vorgeschichte.
Für die Ermittler sind diese Daten jetzt entscheidend. Sie sollen Aufschluss über die Planung und Motivation geben. Die RCMP untersucht akribisch alle elektronischen Geräte und Online-Aktivitäten der Täterin.
Debatte über KI-Sicherheit erhält neuen Zündstoff
Der Fall befeuert die globale Debatte über KI-Governance und Plattform-Verantwortung. Wann müssen Tech-Konzerne eingreifen, wenn ihre KI für Gewaltfantasien genutzt wird? OpenAI kündigte eine Überprüfung seiner Meldekriterien an.
Die Diskussion um Meldepflichten und Kennzeichnungspflichten dürfte für viele Unternehmen praktisch relevant werden: Die seit August 2024 geltende EU‑KI‑Verordnung verlangt klare Klassifikation, Dokumentation und Risikomanagement für KI-Systeme. Ein kostenloser Umsetzungsleitfaden erklärt praxisnah, welche Pflichten jetzt gelten, welche Übergangsfristen beachtet werden müssen und wie Anbieter ihre Systeme rechtssicher dokumentieren. Jetzt kostenloses KI-Verordnungs-E-Book herunterladen
Die Entscheidung hat weitreichende Folgen für die gesamte Branche. Strengere Meldepflichten könnten Leben retten, aber auch in die Privatsphäre eingreifen. Ein zu hoher Schwellenwert könnte hingegen Warnsignale ignorieren. Gesetzgeber weltweit beobachten die Entwicklungen nun genau.
Die Tragödie von Tumbler Ridge wird zum Lehrstück für den Umgang mit leistungsstarker KI. Sie zeigt die komplexe Gratwanderung zwischen Innovation, Freiheit und gesellschaftlicher Sicherheit im digitalen Zeitalter.





