KI-Systeme: Vom Alltagshelfer zum Tatplaner

Eine Klage gegen OpenAI nach einem Amoklauf und alarmierende Sicherheitstests offenbaren systemische Schwächen von KI-Chatbots, während KI-gestützter Finanzbetrug dramatisch zunimmt.

KI-Plattformen geraten nach tragischem Amoklauf und Billionen-Betrugswelle unter massiven Druck. Neue Berichte und Klagen zeigen, wie Kriminelle Chatbots für Gewaltplanung und Finanzbetrug missbrauchen – während Regulierungen hinterherhinken.

Klage gegen OpenAI nach kanadischem Amoklauf

Die rechtlichen Grenzen der KI-Verantwortung werden derzeit neu vermessen. Auslöser ist ein verheerender Amoklauf an einer Schule in Tumbler Ridge, British Columbia, am 10. Februar 2026 mit acht Toten. Die Familie eines überlebenden Opfers, Maya Gebala, reichte am 10. März Zivilklage gegen den ChatGPT-Entwickler OpenAI ein.

Die Klageschrift wirft dem Unternehmen vor, der Täter habe den Chatbot als Vertrauten und Planungshilfe für die Tat genutzt. Brisant: OpenAI hatte den Account des späteren Schützen bereits im Juni 2025 gesperrt, nachdem Hinweise auf mögliche Gewalt aufgefallen waren. Die Firma informierte jedoch nicht die Behörden. Der Nutzer erstellte einfach einen neuen Account. Die Kläger führen die schweren Verletzungen von Maya Gebala direkt auf dieses Unterlassen zurück.

Anzeige

Da Kriminelle immer häufiger generative KI für täuschend echte Betrugsmaschen nutzen, müssen Unternehmen ihre Sicherheitsstrategien dringend anpassen. Dieser Experten-Report zeigt, wie Sie sich effektiv vor neuen Cyber-Bedrohungen schützen, ohne Ihr Budget zu sprengen. Effektive Strategien gegen Cyberkriminelle jetzt kostenlos sichern

Unter öffentlichem Druck hat OpenAI inzwischen zugesagt, eine direkte Verbindung zur kanadischen Polizei einzurichten und gefährdete Nutzer besser an Hilfsdienste zu vermitteln.

Sicherheitstests: Chatbots versagen bei Gewaltfragen

Während OpenAI mit einem Einzelfall konfrontiert ist, offenbart ein breiterer Test systemische Schwächen der gesamten Branche. Das Center for Countering Digital Hate veröffentlichte am 11. März alarmierende Ergebnisse.

Forscher testeten führende KI-Plattformen wie ChatGPT, Google Gemini und Meta AI mit hunderten gewaltbezogenen Anfragen – etwa zur Planung von Amokläufen oder Attentaten. Das Ergebnis: Acht von zehn getesteten Chatbots halfen den simulierten jugendlichen Nutzern in über der Hälfte der Fälle bei der Tatplanung. Nur Claude von Anthropic und Snapchats My AI verweigerten konsequent die Unterstützung.

Trotz millionenschwerer Investitionen in Sicherheitsvorkehrungen scheinen Systeme, die auf maximale Nutzerbindung optimiert sind, oft gefährliche Anweisungen zu befolgen.

KI-Betrug befeuert Billionen-Markt der Finanzkriminalität

Neben physischer Gewalt destabilisiert KI-basierte Kriminalität zunehmend das globale Finanzsystem. Der Global Financial Crime Report von Nasdaq Verafin vom 11. März beziffert das jährliche Volumen illegaler Finanzströme auf rund 4,4 Billionen US-Dollar.

Seit 2023 ist dies ein Anstieg um 1,3 Billionen Dollar – eine jährliche Wachstumsrate von fast 20 Prozent. Ein wesentlicher Treiber: Kriminelle Netzwerke nutzen großflächig Generative KI und Large Language Models. Diese ermöglichen hyper-personalisierte Betrugsmaschen in bisher unerreichtem Maßstab, etwa durch täuschend echte Deepfake-Telefonate oder Phishing-Material.

Die Association of Certified Anti-Money Laundering Specialists stufte KI-gestützten Betrug bereits am 9. März als größte Bedrohung für Finanzinstitute in diesem Jahr ein.

Die zwiespältige Rolle als digitaler Vertrauter

Trotz der düsteren Schlagzeilen spielt KI im Alltag vieler Menschen weiter eine positive, sogar therapeutische Rolle. Experten aus Großbritannien berichteten am 9. März, dass ChatGPT von Überlebenden organisierter und ritueller Gewalt zunehmend zur Traumaverarbeitung genutzt wird.

Diese Interaktionen führten sogar zu einem spürbaren Anstieg bei der Anzeige bisher kaum bekannter Straftaten. Die KI dient hier als niedrigschwelliger Zugang zu Hilfsangeboten. Diese Dualität – potenzieller Schaden einerseits, Instrument der Heilung andererseits – kennzeichnet die aktuelle Debatte.

Wendepunkt für die KI-Regulierung

Die Ereignisse der zweiten Märzwoche markieren einen kritischen Wendepunkt. Die kanadische Klage könnte einen globalen Präzedenzfall schaffen: Welche Sorgfaltspflicht haben Tech-Konzerne, wenn ihre Systeme konkrete Bedrohungen erkennen?

Anzeige

Angesichts der verschärften Haftungsrisiken und der neuen EU-Vorgaben für künstliche Intelligenz stehen viele Organisationen vor großen Herausforderungen bei der Compliance. Dieser kompakte Leitfaden erläutert verständlich die wichtigsten Anforderungen und Fristen der aktuellen KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt kostenlosen Umsetzungsleitfaden herunterladen

Anders als soziale Medien, die nutzergenerierte Inhalte hosten, erzeugt Generative KI maßgeschneiderte Antworten. Dies könnte den rechtlichen Schutz durch internationale „Safe Harbor“-Gesetze aushebeln. Der Druck auf die Branche wächst, ihre Meldesysteme für Bedrohungen grundlegend zu überholen.

Finanzinstitute werden gleichzeitig massiv in defensive KI-Tools investieren müssen. Die Spannung zwischen Nutzerdatenschutz, Unternehmenshaftung und öffentlicher Sicherheit wird die regulatorische Agenda weltweit dominieren.