OpenAI zögerte bei Warnung vor kanadischem Amokläufer

OpenAI erkannte gewalttätige Inhalte eines Nutzers Monate vor einem Amoklauf, entschied sich aber gegen eine Meldung an die Polizei. Der Vorfall entfacht eine Debatte über KI-Sicherheit und Unternehmensverantwortung.

Ein interner Sicherheitsstreit bei dem KI-Riesen offenbart die Grauzone zwischen Nutzer-Privatsphäre und öffentlicher Sicherheit – mit tödlichen Konsequenzen.

OpenAI hat eingeräumt, dass seine Sicherheitsteams erwogen hatten, die kanadische Polizei über einen Nutzer zu informieren, der später einen tödlichen Amoklauf verübte. Das Unternehmen bestätigte am Freitag, dass es das Konto des Nutzers bereits Monate vor der Tat wegen gewalttätiger Inhalte identifiziert, aber eine Meldung an die Behörden intern abgelehnt hatte. Diese Enthüllung entfacht eine heftige Debatte über KI-Sicherheit und Unternehmensverantwortung.

Interne Warnungen blieben folgenlos

Auslöser ist ein Bericht des Wall Street Journal, der eine intensive interne Diskussion bei dem in San Francisco ansässigen KI-Unternehmen detailliert. Demnach meldeten OpenAIs Missbrauchserkennungssysteme das Konto des 18-jährigen Jesse Van Rootselaar bereits im Juni 2025 – etwa acht Monate vor der Tragödie in British Columbia.

Die Interaktionen des Nutzers mit ChatGPT sollen Beschreibungen von Waffengewalt enthalten haben, die automatische Sicherheitsprotokolle auslösten. Menschliche Sicherheitsanalysten leiteten eine Überprüfung ein. Rund ein Dutzend Mitarbeiter stritten sich daraufhin hitzig darüber, ob die Royal Canadian Mounted Police (RCMP) informiert werden sollte.

Während einige Mitarbeiter eine sofortige Meldung an die Behörden befürworteten, entschied die Führungsebene letztlich, dass die Inhalte keinen „unmittelbaren und glaubwürdigen Risiko für schwerwiegende körperliche Schäden“ darstellten. Dies ist der strenge interne Standard von OpenAI, um die Privatsphäre von Nutzern freiwillig zu brechen und Strafverfolgungsbehörden einzuschalten. Das Unternehmen sperrte das Konto zwar wegen Verstoßes gegen die Nutzungsrichtlinien, informierte die Polizei damals aber nicht.

Eine Gemeinde in Trauer

Die Entscheidung steht nun nach den Ereignissen vom 10. Februar 2026 in Tumbler Ridge, British Columbia, unter scharfer Beobachtung. Den Behörden zufolge tötete Van Rootselaar acht Menschen in einer Gewaltserie, die in einem Familienhaus begann und an einer örtlichen Schule endete.

Laut RCMP erschoss die Angreiferin zunächst ihre Mutter und ihren Stiefbruder, bevor sie die Tumbler Ridge Secondary School zum Ziel nahm. Zu den Opfern an der Schule gehörten fünf Schüler und eine Unterrichtsassistentin. Die Gewalt endete, als sich die Schützin selbst das Leben nahm.

Die Tragödie markiert einen der tödlichsten Schulamokläufe in der kanadischen Geschichte und hat die kleine Gemeinde mit rund 2.000 Einwohnern in den Ausläufern der Rocky Mountains zutiefst erschüttert.

OpenAIs Reaktion und Rechtfertigung

Nach der Schießerei gab OpenAI eine Erklärung ab, in der es den Opfern und der Gemeinde sein Beileid aussprach. Ein Unternehmenssprecher teilte mit, dass OpenAI nach Bekanntwerden der Identität der Schützin proaktiv die RCMP kontaktiert habe, um Informationen über die früheren Kontaktivitäten der Person und den Entscheidungsprozess aus dem Vorjahr bereitzustellen.

Das Unternehmen verteidigte seine Entscheidung vom Juni 2025, indem es seine Richtlinien für die Zusammenarbeit mit Strafverfolgungsbehörden erläuterte. OpenAI-Vertreter erklärten, dass die Inhalte des Nutzers zwar verstörend genug für eine Plattformsperre gewesen seien, ihnen aber die spezifischen Details fehlten – wie ein konkreter Plan, ein Ziel oder ein Zeitplan –, die eine proaktive Meldung an die Polizei nach den aktuellen Sicherheitsrichtlinien rechtlich und ethisch gerechtfertigt hätten.

Datenschutzbefürworter und Technologieanalysten weisen darauf hin, dass Unternehmen wie OpenAI in einem komplexen regulatorischen Umfeld agieren, in dem sie Datenschutzgesetze und öffentliche Sicherheit abwägen müssen. Dieser Vorfall beleuchtet jedoch die „Grauzone“, in der KI-Modelle gefährliche Gedanken lange vor ihrer Umsetzung in physische Gewalt erkennen können.

Branchenweite Folgen zu erwarten

Die Enthüllung dürfte Forderungen nach strengeren Vorschriften für den Umgang von KI-Unternehmen mit „Warnsignalen“ verstärken. Im Gegensatz zu sozialen Medien, wo Bedrohungen oft öffentlich sind, finden KI-Interaktionen in privaten, eins-zu-eins-Sitzungen statt. Das schafft eine einzigartige Herausforderung für die Moderation.

Anzeige

Die Debatte um OpenAIs Umgang mit Warnsignalen zeigt, wie dringend klare Regeln für KI nötig sind. Wenn Ihr Unternehmen KI-Systeme entwickelt oder nutzt, erklärt ein kompakter Umsetzungsleitfaden die neuen Kennzeichnungspflichten, Risikoklassen und Dokumentationsanforderungen – plus praktische To‑dos für die Umsetzung. Jetzt kostenloses E‑Book zur EU-KI-Verordnung herunterladen

Sicherheitsexperten deuten an, dass der aktuelle Branchenstandard – der oft eine unmittelbare, spezifische Lebensgefahr erfordert, bevor Behörden eingeschaltet werden – für KI-Systeme unzureichend sein könnte. Diese können Nutzer in langwierige, detaillierte Rollenspiele oder Planungsszenarien verwickeln.

Die RCMP bestätigte, dass sie die von OpenAI bereitgestellten digitalen Beweise im Rahmen ihrer laufenden Ermittlungen zu Motiv und Vorgeschichte der Schützin überprüfen. Unterdessen steht die Tech-Branche erneut unter Druck, die Schwelle neu zu bewerten, ab der digitale Wahnvorstellungen als reale Gefahren behandelt werden müssen.