US-Gericht verhängt Rekordstrafe für KI-Halluzinationen in Rechtsstreit

Ein Berufungsgericht bestraft zwei Anwälte wegen erfundener Rechtsverweise aus KI-Tools. Der Fall markiert eine härtere Gangart gegen KI-Fehler im Justizsystem, das mit über 1.170 dokumentierten Vorfällen kämpft.

Ein US-Berufungsgericht hat zwei Anwälten eine Geldstrafe von 30.000 Euro auferlegt, weil sie eine Klageschrift mit dutzenden erfundenen Rechtsverweisen einreichten. Das Urteil markiert das Ende der Nachsicht mit KI-Fehlern im Justizsystem.

Anzeige

Der Einsatz von künstlicher Intelligenz birgt rechtliche Risiken, die weit über den Gerichtssaal hinausgehen – auch für Unternehmen gelten seit August 2024 neue, strikte Regeln. Dieser kostenlose Leitfaden erklärt verständlich, welche Pflichten die EU-KI-Verordnung für Ihr Unternehmen vorsieht und wie Sie Bußgelder vermeiden. EU-KI-Verordnung kompakt: Jetzt kostenloses E-Book sichern

Rekordstrafe nach dreistem Vertuschungsversuch

Das Berufungsgericht des sechsten Bezirks verhängte die Sanktion am Mittwoch, dem 25. März 2026. Die beiden Anwälte hatten ein zehnseitiges Schriftsatz eingereicht, das mindestens 27 juristische Verweise enthielt – neun davon waren vollständig erfunden oder fundamental falsch. Die Richter stellten fest, dass die Anwälte generative KI-Tools für Entwurf und Ausarbeitung genutzt, aber keine manuelle Überprüfung der Zitate vorgenommen hatten.

Die Höhe der Strafe erklärt sich nicht nur aus dem Fehler, sondern aus der Reaktion der Anwälte. Statt den Irrtum einzuräumen, beschuldigten sie das Gericht einer Verschwörung gegen ihre Mandanten. „Eine solche Reaktion untergräbt die Glaubwürdigkeit des Rechtsberufs“, hielten die Richter fest. Sie leiteten das Verfahren an den Vorsitzenden Richter zur möglichen disziplinarischen Verfolgung weiter. Der Fall markiert eine deutliche Verschärfung: Noch 2023 hatte ein ähnlicher Verstoß im Fall Mata v. Avianca nur 5.000 Euro Strafe zur Folge.

Systemkrise: Über 1.170 dokumentierte KI-Fehler weltweit

Der Vorfall ist kein Einzelfall, sondern Teil eines globalen Trends. Die Charlotin KI-Halluzinations-Datenbank verzeichnet bis Ende März 2026 weltweit über 1.170 dokumentierte Fälle, in denen KI-generierte Inhalte als faktische Beweise oder Präzedenzfälle eingereicht wurden. Allein in den USA sind seit Anfang 2025 518 solcher Vorfälle erfasst.

Die Zahlen zeigen eine alarmierende Entwicklung: Waren es anfangs vor allem Einzelanwälte, betreffen die Fehler inzwischen auch große internationale Kanzleien und sogar Richterstäbe. Etwa 19 Prozent der dokumentierten Fälle in US-Gerichten führen inzwischen zu Geldstrafen – und die Durchschnittshöhe steigt, da Richter gegen die „metastasierende Plage“ vorgehen wollen.

Skandal erreicht die Richterbank

Besorgniserregend für Rechtsexperten: Die Krise hat die Richterbank erreicht. Der Justizausschuss des Senats untersuchte Ende letzten Jahres zwei Bundesrichter, deren Büros mit KI-Fehlern behaftete Gerichtsbeschlüsse herausgaben. In diesen Fällen nutzten Rechtsreferendare und Praktikanten Tools wie Perplexity und ChatGPT, um Akteninformationen zu synthetisieren und richterliche Stellungnahmen zu verfassen.

Die resultierenden Dokumente enthielten erfundene Zitate und Verweise auf nicht existierende Prozessparteien. Der Ausschuss unter Senator Chuck Grassley rügte diese Transparenzverstöße scharf. Die Verwaltungsbehörde der US-Gerichte hat inzwischen Richtlinien herausgegeben, die Richter auffordern, den Einsatz von KI offenzulegen.

Anzeige

Während die Justiz mit KI-Halluzinationen kämpft, müssen Unternehmen auch ihre IT-Infrastruktur vor neuen, KI-gestützten Bedrohungen schützen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Cyber-Security stärken und auf aktuelle Gesetzesänderungen ohne hohe Investitionen reagieren. Kostenlosen Cyber-Security Leitfaden herunterladen

Regulatorischer Paradigmenwechsel: Von Vertrauen zu Kontrolle

Als Reaktion auf die zunehmenden Fälle entwickeln Bundesstaaten strenge Regulierungsrahmen. In New York soll der Gesetzesentwurf Senate Bill 9640 eine Pflichtzertifizierung für alle mit generativer KI erstellten Schriftsätze einführen. Anwälte müssten für jedes Dokument eine eidesstattliche Erklärung abgeben, die die KI-Nutzung offenlegt und bestätigt, dass ein Mensch alle Angaben überprüft hat.

Kalifornien geht noch weiter: Der Judicial Council verpflichtet alle Gerichte des Bundesstaats, bis Ende 2025 eine verbindliche KI-Richtlinie einzuführen – entweder mit spezifischen Sicherheitsvorkehrungen oder einem vollständigen Nutzungsverbot. Das Rechtssystem bewegt sich weg vom „guten Glauben“ der Anwälte hin zu einem Modell technischer Compliance, das transparente Dokumentation und menschliche Verifikation in jedem Verfahrensschritt vorschreibt.

Branche im Umbruch: Produktivität versus Reputationsrisiko

Die aktuelle Situation markiert eine deutliche Entwicklung gegenüber den Anfangsjahren 2023 und 2024. Damals galten KI-Halluzinationen noch als „Kinderkrankheit“ oder Nutzungsfehler Unerfahrener. Dass nun erfahrene Anwälte renommierter Kanzleien betroffen sind, deutet auf ein grundsätzliches Problem der aktuellen Sprachmodell-Architektur hin.

Rechtstechnologie-Experten sehen die Branche in einer Übergangsphase: Die Produktivitätsgewinne durch KI werden gegen das hohe Risiko von Strafen und Reputationsschäden abgewogen. Spezialtools wie CoCounsel und Westlaw Precision haben zwar robustere Verifikationsschichten integriert, doch der Sechste-Bezirk-Fall zeigt: Auch fortschrittliche Tools ersetzen keine traditionelle Rechtsrecherche. Die richterliche Strenge schafft einen neuen Markt für Verifikationssoftware, die KI-generierte Schriftsätze vor der Einreichung mit verifizierten Rechtsdatenbanken abgleicht.

Ausblick: Verifizierbare Justiz als neuer Standard

Für 2026 erwarten Beobachter einen Fokuswechsel von Einzelsanktionen zu systemischen Reformen. Die Anwaltskammern dürften von Empfehlungen zu verbindlichen KI-Kompetenzschulungen als Voraussetzung für die Zulassung übergehen. Die rasch wachsende Charlotin-Datenbank beschleunigt diese Entwicklung.

Zudem wird das „Wettrüsten“ zwischen KI-Content-Generierung und Erkennungstools sich verschärfen. Gerichte werden voraussichtlich automatisierte Screening-Tools einsetzen, um eingehende Schriftsätze auf bekannte Halluzinationsmuster zu überprüfen – was die Bearbeitung durch Gerichtsschreiber grundlegend verändern würde. Die Botschaft des Sechsten Bezirks ist klar: Die Verantwortung für die Wahrheit bleibt eine menschliche Verpflichtung. Keine noch so ausgefeilte Technologie entbindet Anwälte von der Pflicht, sicherzustellen, dass das vor Gericht zitierte Recht in der Realität existiert.