Die kanadische Regierung hat Vertreter von OpenAI zu einem Krisentreffen einbestellt. Anlass sind Enthüllungen, dass das Unternehmen Monate vor einem tödlichen Anschlag bedrohliche Online-Aktivitäten eines späteren Amokläufers kannte – aber nicht die Behörden informierte. Der Fall wirft grundlegende Fragen zur Verantwortung von KI-Firmen auf und könnte neue Gesetze auslösen.
Tragödie in British Columbia als Wendepunkt
Im Zentrum steht der Amoklauf von Jesse Van Rootselaar. Er tötete am 10. Februar 2026 in Tumbler Ridge acht Menschen, bevor er Suizid beging. OpenAI bestätigte nun, dass das Unternehmen das Konto des Täters bereits im Juni 2025 sperrte. Grund waren Verstöße gegen die Nutzungsrichtlinien durch gewaltbezogene Chatbot-Interaktionen.
Seit August 2024 gelten auch in Europa strengere Regeln für den Einsatz künstlicher Intelligenz, um Risiken frühzeitig zu minimieren. Dieser kostenlose Leitfaden zeigt Ihnen, welche Pflichten die neue EU-KI-Verordnung für Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Doch die interne Sicherheitsabteilung stufte die Aktivitäten nicht als „unmittelbare“ Bedrohung ein. Daher informierte OpenAI die kanadische Polizei, die Royal Canadian Mounted Police (RCMP), erst nach der Tat. Diese Entscheidung wird nun massiv hinterfragt. „Alle Optionen liegen auf dem Tisch“, sagte KI-Minister Evan Solomon vor dem Treffen mit OpenAI.
Schwelle zur Meldepflicht wird neu justiert
Die interne Richtlinie von OpenAI ist klar: Behörden werden nur bei einer klaren, unmittelbaren Gefahr alarmiert. Im Fall Van Rootselaar beschrieben die geposteten Szenarien Gewalt mit Schusswaffen über mehrere Tage. Für eine Sperre reichte es – für eine Meldung an die Polizei offenbar nicht.
Experten sehen hier ein grundsätzliches Problem. Die langfristige Planung eines Gewaltverbrechens falle möglicherweise durch das Raster der „Unmittelbarkeit“. Kanada prüft nun gesetzliche Neuregelungen, die KI-Unternehmen zur Meldung potenzieller Bedrohungen verpflichten könnten – unabhängig von der zeitlichen Dringlichkeit.
Doppelte Herausforderung: Keine Präsenz und Militärkooperation
Kompliziert wird die Lage für die kanadische Regierung durch einen weiteren Fakt: OpenAI unterhält kein Büro in Kanada. Das erschwert die Regulierung und war bereits dem Datenschutzbeauftragten ein Dorn im Auge. Zufällig trafen sich OpenAI-Vertreter am Tag nach der Tat mit der Provinzregierung von British Columbia, um über eine mögliche Niederlassung zu sprechen. Über das gesperrte Konto des Amokläufers wurde dabei kein Wort verloren.
Die zunehmende Regulierung von KI-Systemen stellt viele Organisationen vor komplexe Dokumentationsfragen. Erfahren Sie in diesem kostenlosen E-Book, wie Sie KI-Anwendungen richtig klassifizieren und die gesetzlichen Anforderungen rechtssicher umsetzen. Kostenloses E-Book zur KI-Umsetzung herunterladen
Parallel vertieft OpenAI in den USA seine Beziehungen zum Militär. Das Unternehmen erlaubt nun die Nutzung seiner Modelle durch das US-Militär für „alle rechtmäßigen Zwecke“. Diese Entwicklung steht im Kontrast zu Konkurrent Anthropic, der den Einsatz seiner KI „Claude“ für Massenüberwachung oder autonome Waffen ablehnt.
USA setzen auf Transparenz, während Sicherheitsstandards sinken
Während Kanada noch nach Antworten sucht, gehen die USA in die Offensive. Das Handelsministerium setzt eine präsidiale Anordnung um: KI-Entwickler wie OpenAI und Google müssen künftig jede Trainingsphase eines großen Sprachmodells melden. Vor allem müssen sie die Ergebnisse ihrer Sicherheitstests mit der Regierung teilen.
Gleichzeitig beklagen Branchenkenner einen gefährlichen Trend: Der Wettbewerbsdruck führe dazu, dass Sicherheitsstandards aufgeweicht werden. Anthropic lockerte kürzlich eigene Sicherheitsrichtlinien – aus Sorge, im Wettlauf zurückzufallen. Ohne klare gesetzliche Vorgaben, so die Befürchtung, setzten Unternehmen eher auf Wachstum als auf Vorsicht.
Ausblick: Mehr Regulierung für KI-Unternehmen steht bevor
Die Tragödie von Tumbler Ridge dürfte zum Katalysator für schärfere Gesetze werden. Kanada wird wahrscheinlich eine Meldepflicht für glaubhafte Bedrohungen einführen. Das würde Unternehmen zwingen, ihre internen Schwellenwerte zu überdenken.
In den USA entsteht durch die Exekutivanordnung ein neuer Transparenzrahmen. Die enger werdende Verbindung von KI-Firmen mit der nationalen Sicherheit wird die Bdabatte über ethische Leitplanken weiter anheizen. Die kommenden Monate werden zeigen, wie weitreichend KI-Entwickler künftig für die reale Wirkung ihrer Technologien zur Verantwortung gezogen werden.





