OpenAI unter Druck nach tödlichem Amoklauf in Kanada

Kanada prüft schärfere KI-Gesetze, nachdem OpenAI Warnsignale eines späteren Amokläufers nicht an Behörden meldete. Der Vorfall offenbart gefährliche Lücken in der digitalen Sicherheit.

Die kanadische Regierung prüft schärfere KI-Gesetze, nachdem OpenAI Warnsignale eines späteren Amokläufers nicht an Behörden meldete. Der Vorfall offenbart gefährliche Lücken in der digitalen Sicherheit.

Regierung zeigt sich „zutiefst enttäuscht“

In einer Krisensitzung in Ottawa konfrontierten drei Bundesminister Vertreter von OpenAI mit schweren Vorwürfen. Künstliche-Intelligenz-Minister Evan Solomon zeigte sich „zutiefst enttäuscht“ über das mangelnde Krisenmanagement des Unternehmens. Der Grund: Der KI-Konzern hatte den ChatGPT-Account des 18-jährigen Jesse Van Rootselaar bereits im Juni 2025 gesperrt, weil er die Modelle für gewalttätige Inhalte missbrauchte. Doch die internen Alarmglocken reichten nicht aus, um die kanadische Polizei zu informieren.

Anzeige

Während weltweit über strengere Regeln für künstliche Intelligenz debattiert wird, schafft die EU mit dem AI Act bereits klare Fakten für Anbieter und Nutzer. Dieser kostenlose Leitfaden fasst die neuen Anforderungen, Risikoklassen und Pflichten kompakt für Sie zusammen. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern

Erst nach dem Amoklauf vom 10. Februar in Tumbler Ridge, bei dem acht Menschen starben, nahm OpenAI Kontakt zu den Behörden auf. Besonders pikant: Firmenvertreter trafen sich am Tag nach der Tat bereits mit einem Provinzvertreter – erwähnten die brisanten Erkenntnisse aber mit keinem Wort. Stattdessen baten sie erst später um Kontaktdaten zur Royal Canadian Mounted Police.

Provinzchef: „Die Tat wäre vielleicht verhinderbar gewesen“

„Hätte das Unternehmen die Polizei alarmiert, als es die gewalttätigen Fantasien identifizierte, wäre diese Tragödie vielleicht verhinderbar gewesen.“ Mit diesen deutlichen Worten äußerte sich David Eby, Premier der Provinz British Columbia. Er fordert klare, landesweite Meldeschwellen, die KI-Firmen gesetzlich zum Eingreifen zwingen.

Die kleine Gemeinde Tumbler Ridge in den kanadischen Rocky Mountains trauert um fünf Mittelschüler, eine Schulassistentin und zwei Familienmitglieder des Täters. Der Ort mit nur 2.400 bis 2.700 Einwohnern steht unter Schock. Die Opferfamilien quält nun eine bohrende Frage: Wären ihre Angehörigen noch am Leben, wenn die digitalen Warnsignale früher geteilt worden wären?

Experten warnen vor überhasteten Gesetzen

Während die Politik nach strengeren Regeln ruft, mahnen Rechtsexperten zur Besonnenheit. „Eine Meldepflicht für jeden verdächtigen Chat würde die Polizei mit ungefilterten Daten überfluten“, warnt Emily Laidlaw, Cybersicherheits-Expertin an der Universität von Calgary. Die Krux: Nutzer erkunden in KI-Chats oft hypothetische Szenarien, betreiben Forschung oder stellen private Fragen – was automatische Filter alarmieren kann, ohne echte Gefahr zu bedeuten.

Anzeige

Die rasanten Entwicklungen im Bereich der Künstlichen Intelligenz bringen nicht nur neue Chancen, sondern auch komplexe rechtliche Sicherheitsfragen für Unternehmen mit sich. Erfahren Sie in diesem Experten-Report, welche neuen Gesetze und Cyber-Security-Trends Sie jetzt kennen müssen. Kostenloses E-Book: Cyber Security & KI-Regulierung 2024

Wie lässt sich also eine sinnvolle Schwelle definieren? Fachleute fordern, dass solche Standards nicht allein von Tech-Konzernen festgelegt werden dürfen. Stattdessen müssten Psychologen, Strafverfolger und Datenschützer eng eingebunden werden. Das Ziel: Echte Bedrohungen müssen schnell bei den Behörden landen, ohne die Privatsphäre aller Nutzer massenhaft zu verletzen.

Gesetzeslücke nach gescheiterten Vorstößen

Die Tragödie wirft ein grelles Licht auf ein regulatorisches Vakuum. Zwei geplante Gesetze – der Artificial Intelligence and Data Act und der Online Harms Act – scheiterten Anfang 2025, als das Parlament vertagt wurde. Seither fehlt es an Werkzeugen, um KI-Plattformen für das Unterlassen von Gefahrenmeldungen haftbar zu machen.

Das soll sich nun ändern. Bundesminister kündigten an, noch in diesem Jahr neue Gesetzesvorlagen einzubringen. „Jede regulatorische Option wird geprüft“, betonte Minister Solomon. OpenAI seinerseits versprach, in den kommenden Tagen konkrete Vorschläge für mehr Sicherheit vorzulegen.

Die Debatte in Kanada wird international aufmerksam verfolgt. Denn das Ergebnis könnte wegweisend sein: Es definiert, wie generative KI-Plattformen künftig weltweit mit der Verantwortung für die öffentliche Sicherheit umgehen müssen.