OpenAI in Kanada nach Amoklauf unter scharfer Beobachtung

Kanadas Regierung zeigt sich enttäuscht, weil OpenAI Warnsignale eines Nutzers nicht meldete. Der Vorfall führt zu verschärften Gesetzesplänen für KI-Sicherheit.

Die kanadische Regierung zeigt sich nach einem Krisentreffen tief enttäuscht von OpenAI. Der Grund: Das KI-Unternehmen hatte Monate vor einem tödlichen Amoklauf gewalttätige Inhalte eines Nutzers erkannt – schaltete aber weder die Polizei noch die Behörden ein.

Der Vorfall wirft grundlegende Fragen zur Verantwortung von KI-Entwicklern auf. Nach dem Treffen mit Vertretern des Unternehmens in Ottawa beschleunigt sich nun der Ruf nach strengen neuen Gesetzen. Diese sollen regeln, wie KI-Plattformen mit potenziellen Bedrohungen für die öffentliche Sicherheit umgehen müssen.

Anzeige

Der aktuelle Vorfall in Kanada verdeutlicht, wie schnell technologische Entwicklungen neue rechtliche Rahmenbedingungen erfordern. Welche Pflichten und Fristen die bereits geltende EU-KI-Verordnung für Unternehmen vorsieht, erklärt dieser kompakte Leitfaden. EU-KI-Verordnung kompakt: Jetzt kostenlos das E-Book sichern

Warnzeichen wurden ignoriert

Im Zentrum der Ermittlungen steht der Zeitplan von OpenAI. Bereits im Juni 2025 sperrte das Unternehmen den ChatGPT-Account des damals 18-jährigen Jesse Van Rootselaar. Der Nutzer hatte das KI-Modell aufgefordert, Szenarien mit Waffengewalt zu generieren – ein klarer Verstoß gegen die Nutzungsbedingungen.

OpenAI entschied sich damals bewusst, die kanadischen Behörden nicht zu informieren. Das Unternehmen begründete dies vor dem Treffen damit, dass die Aktivitäten des Nutzers die interne Schwelle für eine Meldung an die Strafverfolgungsbehörden nicht erreicht hätten. Es habe keine konkrete oder unmittelbare Planung eines Anschlags erkennbar gegeben.

Erst nach der Tat am 10. Februar 2026 nahm OpenAI von sich aus Kontakt zur kanadischen Bundespolizei, der Royal Canadian Mounted Police (RCMP), auf. Zu diesem Zeitpunkt hatte Van Rootselaar in Tumbler Ridge, British Columbia, bereits acht Menschen getötet, darunter seine Mutter, seinen Halbbruder und fünf Schüler einer weiterführenden Schule.

„Tief enttäuschend“ – Regierung erhöht den Druck

Die Enthüllung, dass ein Technologiekonzern mögliche Warnsignale acht Monate lang für sich behielt, löste sofort politisches Handeln aus. Künstliche-Intelligenz-Minister Evan Solomon lud das Sicherheitsteam von OpenAI zu einem verpflichtenden Gespräch nach Ottawa ein.

Nach dem Treffen zeigte sich Solomon „tief enttäuscht“ von den Erklärungen des Unternehmens. Die Regierung erwarte konkrete Maßnahmen und Transparenz von digitalen Plattformen, die in Kanada operieren.

Besonders heftig kritisiert die Provinzregierung von British Columbia die Kommunikation von OpenAI. Vertreter des Unternehmens trafen sich am Nachmittag des Tatages, dem 10. Februar, mit dem für KI zuständigen Provinzminister. Sie besprachen die mögliche Eröffnung eines kanadischen Firmenbüros – erwähnten aber mit keinem Wort ihre Vorkenntnisse über den gewalttätigen Nutzer. Erst zwei Tage später bat OpenAI um die Kontaktdaten der Polizei.

Anzeige

Während Regierungen weltweit die Regeln für Künstliche Intelligenz verschärfen, müssen auch Unternehmen ihre internen Sicherheitsstrategien proaktiv anpassen. Erfahren Sie in diesem Experten-Report, wie Sie aktuelle Technologietrends und neue Gesetze rechtssicher in Ihre IT-Struktur integrieren. Experten-Report zu Cyber Security & KI-Regulierung kostenlos herunterladen

Eine Tragödie mit Folgen für die KI-Regulierung

Der Amoklauf von Tumbler Ridge hat erhebliche Lücken im kanadischen Regulierungsrahmen für künstliche Intelligenz offengelegt. Experten wie Jean-Christophe Bélisle-Pipon von der Simon Fraser University weisen darauf hin, dass private Unternehmen derzeit klinische Risikobewertungen ohne ausreichende gesetzliche Leitlinien vornehmen.

Im Gegensatz zu traditionellen sozialen Medien, die als öffentliche Foren moderiert werden, ermöglichen generative KI-Chatbots private, intime Interaktionen. Diese können gefährliches Verhalten vor der öffentlichen Wahrnehmung verbergen.

Als Reaktion auf die Krise beschleunigen Bundesgesetzgeber nun ihre Gesetzgebungsverfahren. Das Kulturerbe-Ministerium arbeitet mit dem KI-Ministerium an einem umfassenden Online-Sicherheitsgesetz, das ausdrücklich auch Machine-Learning-Plattformen abdecken soll.

Ein Wendepunkt für KI und öffentliche Sicherheit

Die Folgen der Tragödie werden die Beziehung zwischen der kanadischen Regierung und großen KI-Entwicklern grundlegend verändern. In naher Zukunft sind verschärfte parlamentarische Anhörungen und die Ausarbeitung neuer Meldepflichten für Tech-Unternehmen zu erwarten.

OpenAI, das zuvor aktiv eine Expansion auf den kanadischen Markt prüfte, steht nun vor einer schweren PR- und Regulierungshürde. Die globale Tech-Branche beobachtet Ottawa genau, denn Kanadas regulatorische Antwort könnte einen internationalen Präzedenzfall schaffen.

Die Untersuchungen der Polizei dauern an. Doch eines ist bereits klar: Die Tragödie hat die nationale Bedattt unwiderruflich verändert. Die Sicherheit künstlicher Intelligenz ist nicht länger eine theoretische Diskussion, sondern eine dringende Frage der öffentlichen Sicherheit.