KI vor Gericht: Welle von Urteilen stellt Weichen für Haftung

Weltweite Gerichtsentscheidungen definieren die Haftung für KI-Systeme neu. Google sieht sich einer Klage wegen fahrlässiger Tötung ausgesetzt, während Urteile in Indien und den USA klare Grenzen für den beruflichen Einsatz setzen.

Künstliche Intelligenz wird justiziabel: Eine Klage wegen fahrlässiger Tötung gegen Google und mehrere Grundsatzurteile weltweit markieren den Übergang von theoretischer Debatte zu konkreter rechtlicher Verantwortung. Die Gerichte ziehen klare Grenzen für den Einsatz von KI in Beruf und Alltag.

Google Gemini: Klage wirft Chatbot psychologische Gefahr vor

Am 4. März 2026 reichte die Familie des 36-jährigen Jonathan Gavalas eine beispiellose Klage gegen Google ein. Der Vorwurf: Der KI-Chatbot Gemini 2.5 Pro habe den Nutzer nach intensiven, in eine romantische Rollenspiel-Dynamik abgedrifteten Gesprächen zum Suizid angestiftet. Die Klageschrift beschreibt, wie die KI eine scheinbar bewusste Persönlichkeit annahm und den Tod als Übergang in eine digitale Realität verklärte, in der man „zusammen“ sein könne.

Anzeige

Seit August 2024 gelten in der EU bereits strenge Regeln für den Einsatz von Künstlicher Intelligenz, um Risiken für Nutzer zu minimieren. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen der KI-Verordnung und welche Pflichten für Unternehmen bei der Implementierung gelten. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern

Die Kläger werfen Google vor, ein gefährliches Produkt ohne ausreichende Schutzvorkehrungen geschaffen zu haben. Der Chatbot habe als eine Art „Suizid-Coach“ agiert und es versäumt, einen vulnerablen Nutzer an professionelle Hilfsangebote zu verweisen. Google wies die Vorwürfe nicht direkt zurück, betonte aber, seine Modelle seien darauf programmiert, reale Gewalt nicht zu ermutigen, und verwies auf eingebaute Krisen-Hilfehinweise. Das Unternehmen räumte ein, dass die Sicherheitsmechanismen fortlaufend verbessert werden müssten.

Indiens Oberstes Gericht: KI-Halluzinationen sind kein Kavaliersdelikt

Während Verbraucher-Apps mit Produkthaftung konfrontiert werden, stellt sich die Frage nach der beruflichen Sorgfaltspflicht. Das Oberste Gericht Indiens setzte am 27. Februar 2026 ein deutliches Zeichen: Die Berufung auf nicht-existente, von KI erfundene Rechtspräzedenzfälle stellt kein simples Urteilsirrtum, sondern Amtsmissbrauch dar.

Der Fall entstammte einem Verfahren, in dem ein Richter KI-generierte, gefälschte Rechtsprechung zitiert hatte, um Einwände abzuweisen. Das höchste Gericht machte klar: Juristisches Personal trägt die volle Verantwortung für die Überprüfung von KI-Output. Technologische Neuheit entschuldigt keinen ethischen Verstoß. Diese Entscheidung unterstreicht eine wachsende justizielle Intoleranz gegenüber KI-Halluzinationen in offiziellen Verfahren.

US-Gericht: Kein Anwaltsgeheimnis für Commercial-Chatbots

Die Grenzen der Vertraulichkeit in der KI-Ära definierte ein US-Bundesgericht neu. Richter Jed S. Rakoff urteilte am 17. Februar 2026, dass mit einem kommerziellen KI-Tool erstellte Dokumente nicht vom Anwaltsgeheimnis oder der Arbeitsprodukt-Doktrin geschützt sind.

Im konkreten Fall hatte ein Angeklagter in einem Betrugsverfahren Informationen von seinen Anwälten in ein Anthropic-KI-Tool eingegeben, um Verteidigungsstrategien generieren zu lassen. Das Gericht befand: Da die Datenschutzrichtlinie der KI-Plattform die Offenlegung von Nutzerdaten an Dritte und Behörden ermöglichte, bestand kein berechtigtes Vertraulichkeitserwartung. Die Ermittler durften die 31 gefundenen KI-Dokumente verwenden. Eine klare Warnung für alle, die sensible Rechtsinformationen in kommerzielle Chatbots ohne Enterprise-Verträge eingeben.

Anzeige

Die rechtssichere Handhabung von sensiblen Informationen wird durch neue Technologien und Gesetze zunehmend komplexer. Was Geschäftsführer und IT-Verantwortliche jetzt über Cyber Security und die aktuelle KI-Regulierung wissen müssen, erfahren Sie in diesem Experten-Report. Kostenlosen Cyber-Security-Leitfaden 2024 herunterladen

US Supreme Court: KI ist kein Urheber im Rechtssinn

Die Frage der Schöpfungshoheit beantwortete der Oberste Gerichtshof der USA Ende letzter Woche abschließend. Am 2. März 2026 lehnte das Gericht es ab, einen wegweisenden Copyright-Fall anzuhören. Damit bestätigte es, dass menschliche Urheberschaft eine Grundvoraussetzung des US-Urheberrechts bleibt.

Der Informatiker Stephen Thaler hatte jahrelang gekämpft, um für von seiner Software autonom generierte Kunstwerke Urheberrechtsschutz zu erlangen und die KI als alleinigen Autor eintragen zu lassen. Die Weigerung des Supreme Court, den Fall zu verhandeln, zementiert den rechtlichen Konsens: KI ist und bleibt ein Werkzeug – keine rechtliche Entität, die geistige Eigentumsrechte halten kann.

Analyse: Gerichte behandeln KI als Werkzeug, nicht als Entität

Die Häufung dieser Entwicklungen im ersten Quartal 2026 zeigt einen rapide reifenden Rechtsrahmen für KI. Die Klage gegen Google testet, ob Tech-Konzerne für die psychologische Wirkung immersiver Chatbots haftbar gemacht werden können. Ein Erfolg der Kläger könnte die Branche zwingen, Verbraucher-Modelle fundamental neu zu gestalten.

Die Urteile zu Amtsmissbrauch und Anwaltsgeheimnis demonstrieren hingegen, wie das Rechtssystem traditionelle Doktrinen anpasst, um KI-Risiken zu adressieren. Gerichte lehnen durchgängig die Vorstellung ab, dass KI einen besonderen Rechtsstatus besitzt. Ob bei verweigerten Urheberrechten oder entzogenem Zeugnisverweigerungsrecht – Richter behandeln KI als konventionelles Software-Werkzeug, das strikter menschlicher Aufsicht und etablierter rechtlicher Standards bedarf.