OpenAI sperrte Attentäter-Konto Monate vor Tat

OpenAI sperrte das Konto des späteren Attentäters bereits sieben Monate vor der Tat, meldete es jedoch nicht an Behörden. Der Fall löst eine Debatte über die Verantwortung von KI-Plattformen aus.

OpenAI hat das Konto des Tumbler-Ridge-Attentäters bereits im Juni 2025 gesperrt. Die KI-Firma sah damals jedoch keine akute Gefahr und schaltete die Behörden nicht ein. Dieser Fall wirft grundlegende Fragen zur Verantwortung von KI-Plattformen auf.

Kontosperre ohne Meldung an Behörden

Der KI-Konzern bestätigte am Samstag, dass er ein Konto des späteren Attentäters Jesse Van Rootselaar vor sieben Monaten gesperrt hatte. Die Systeme hatten Interaktionen erkannt, die auf die „Förderung gewalttätiger Aktivitäten“ hindeuteten. Dennoch sah das Sicherheitsteam im Sommer 2025 keinen „unmittelbaren und glaubwürdigen“ Plan für eine Gewalttat. Eine Meldung an Strafverfolgungsbehörden unterblieb daher.

Erst nach dem tödlichen Angriff am 10. Februar, bei dem acht Menschen starben, kontaktierte OpenAI von sich aus die Royal Canadian Mounted Police (RCMP). Das Unternehmen sicherte seine Unterstützung bei den Ermittlungen zu und sprach den Angehörigen sein Beileid aus.

Die Grauzone der Bedrohungseinschätzung

Der Fall offenbart ein zentrales Dilemma für KI-Sicherheitsteams: Wo endet bedrohliche Fantasie und wo beginnt ein meldepflichtiger Gewaltplan? OpenAI folgte seiner eigenen Richtlinie, die eine Eskalation nur bei akuter, unmittelbarer Gefahr vorsieht. Die Inhalte des gesperrten Kontos überschritten diese Schwelle nach internem Urteil damals nicht.

Die kanadische Polizei bestätigte den Eingang der Informationen. Die Ermittler nehmen nun die digitale Spur des Täters genauer unter die Lupe. Dazu gehören soziale Medien, Online-Aktivitäten und Inhalte auf seinen elektronischen Geräten. Van Rootselaar war den Behörden bereits zuvor durch Maßnahmen nach dem Mental Health Act aufgefallen.

Debatte über KI-Verantwortung neu entfacht

Der Vorfall dürfte die ohnehin hitzige Debatte über die Aufsichtspflicht von Tech-Plattformen weiter anheizen. Können und müssen interne Richtlinien zur Meldung von Bedrohungen verschärft werden? Regulierer und Öffentlichkeit stellen zunehmend die Angemessenheit solcher internen Schwellenwerte in Frage.

Für OpenAI und andere KI-Entwickler bedeutet dies verstärkten politischen und öffentlichen Druck. Die Diskussion wird sich darauf konzentrieren, ob die Kriterien für eine Weiterleitung an Strafverfolger überarbeitet werden müssen. Der Fall könnte als Katalysator für neue Industriestandards oder staatliche Regulierung dienen.

Anzeige

Unternehmen und Entwickler stehen vor konkreten Pflichten durch die EU-KI-Verordnung – viele sind noch unklar, welche Dokumentation und Risikobewertungen nötig sind. Ein kostenloses E‑Book fasst die Anforderungen, Kennzeichnungspflichten und Übergangsfristen kompakt zusammen und zeigt, welche Schritte jetzt zu gehen sind. EU-KI-Verordnung: Kostenlosen Umsetzungsleitfaden herunterladen

Die Schnittstelle zwischen Künstlicher Intelligenz und öffentlicher Sicherheit bleibt ein dynamisches Feld. Während die Ermittlungen in Kanada weiterlaufen, steht fest: Die Rolle von KI-Plattformen bei der Verhinderung realer Gewalt wird noch lange ein kritisches Thema bleiben.