Eine Doppel-Entwicklung am Wochenende stellt die Rolle des Menschen bei der Kontrolle von Künstlicher Intelligenz im Rechtswesen grundlegend infrage. Während eine neue Studie zeigt, dass GPT-5 menschliche Richter in strenger Gesetzesanwendung übertrifft, verschärft die US-Wettbewerbsbehörde FTC ihre Kartellermittlungen gegen Microsoft. Die Debatte um „Human-Led AI“ verschiebt sich damit von der Fehlerkorrektur hin zu strategischer Entscheidungsfindung und Markt-Compliance.
Studie: KI folgt dem Buchstaben des Gesetzes zu 100 Prozent
Die aufsehenerregendste Nachricht kommt aus der Forschung. Am Sonntag veröffentlichten der Jura-Professor Eric Posner und der Forscher Shivam Saran eine Studie, die die Entscheidungen von OpenAIs GPT-5 mit denen menschlicher Richter in kontrollierten Rechtsszenarien verglich.
Das Ergebnis ist eindeutig: Das KI-Modell erreichte eine 100-Prozent-Quote in „Formalismus“. Es wendete den Buchstaben des Gesetzes in jedem Testfall ohne Abweichung an. Menschliche Richter hingegen hielten sich nur in 52 Prozent der Fälle streng an die Regeln. Sie bezogen oft Ermessensspielräume oder außerrechtlichen Kontext in ihre Urteile ein.
Diese Erkenntnis stellt das traditionelle Sicherheitsnetz des „Mensch-im-Kreislauf“ infrage. Es wurde ursprünglich entworfen, um Halluzinationen und Fehler der KI abzufangen. Für reine Regulierungs- und Compliance-Aufgaben – bei denen strikte Texttreue gefordert ist – könnte die KI nun zuverlässiger sein als der Mensch. Die Zukunft der menschlichen Aufsicht liegt daher nicht mehr in der Genauigkeitskontrolle, sondern in moralischen Abwägungen und politischer Entscheidungskompetenz – Bereiche, in denen Menschen bewusst von starren Regeln abweichen.
FTC ermittelt schärfer gegen Microsofts KI-Monopol
Parallel zu den wachsenden Fähigkeiten der KI verschärft sich der regulatorische Druck auf ihre Anbieter. Die US-Wettbewerbsbehörde FTC hat ihre Untersuchung der Cloud- und KI-Geschäfte von Microsoft ausgeweitet. Die Behörde hat laut Berichten Wettbewerbern Anfragen geschickt, um zu prüfen, ob Microsofts Marktmacht – insbesondere seine Partnerschaft mit OpenAI – Innovationen im Unternehmensmarkt erstickt.
Die Ermittlungen konzentrieren sich auf den Vorwurf, Microsoft habe eigene KI-Projekte eingestellt, um OpenAI zu bevorzugen, und so eine „Todeszone“ für Wettbewerber geschaffen. Für Rechtsabteilungen bedeutet dies eine neue Ära des Kartellrisikos. Die menschliche Kontrolle muss nun nicht nur das Ergebnis der KI-Tools überwachen, sondern auch deren Beschaffung und Integration, um Verstöße gegen neue Wettbewerbsregeln zu vermeiden.
Rechtsabteilungen, die ihre KI-Partnerschaften und Dokumentation jetzt rechtssicher aufstellen müssen, finden praktische Hilfe in einem kompakten Umsetzungsleitfaden zur EU-KI-Verordnung. Der kostenlose Report erklärt Kennzeichnungspflichten, Risikoklassifizierung, Dokumentationsanforderungen und Übergangsfristen verständlich und anwendungsorientiert. Jetzt kostenlosen Leitfaden zur EU-KI-Verordnung herunterladen
Anthropic-Plugin bringt Legal-Tech-Markt in Bewegung
Die praktische Landschaft für Compliance verändert sich ebenfalls grundlegend. Die Kanzlei Allens analysierte die Marktwirkung eines neuen Rechts-Plugins von Anthropic für dessen „Cowork“-Plattform.
Das Plugin integriert „agentische“ KI-Fähigkeiten direkt in allgemeine Arbeitsabläufe und umgeht damit traditionelle spezialisierte Anbieter wie Thomson Reuters oder LexisNexis. Compliance-Beauftragte müssen ihre Governance-Rahmenwerke überdenken. Statt einer einzelnen KI-Plattform müssen sie nun allgemeine KI-Agenten überwachen, die Mitarbeiter direkt in ihren täglichen Tools für Vertragsprüfungen nutzen. Effektive Aufsicht muss „weiter nach vorne“ verlagert werden: Es geht darum, zu kontrollieren, welche Plugins überhaupt eingesetzt werden dürfen, nicht nur deren Endprodukte zu prüfen.
Die neue Rolle des Menschen: Strategie statt Korrekturlesen
Die Ereignisse der letzten 72 Stunden definieren das Konzept „Human-Led AI“ neu. Die simple Vorstellung, Menschen korrigierten KI-Tippfehler, ist überholt.
- Strategisches Ermessen statt sturer Compliance: Da GPT-5 überlegenen Formalismus zeigt, steigt die menschliche Rolle auf. Juristen müssen die 48 Prozent der Fälle bearbeiten, in denen strikte Regelanwendung zu einem ungerechten oder strategisch schlechten Ergebnis führt.
- Kartellrecht als neue Compliance-Säule: Die FTC-Aktionen zeigen: Der Einsatz von KI ist nicht mehr nur eine Datenschutzfrage, sondern eine Wettbewerbsfrage. Unternehmen müssen ihre Anbieterauswahl dokumentieren, um Unabhängigkeit zu beweisen.
- Dezentrale Aufsicht über KI-Agenten: Wie die Reaktion auf das Anthropic-Plugin zeigt, wird die menschliche Kontrolle dezentraler. Compliance-Rahmen müssen autonome KI-Agenten innerhalb von Unternehmenssystemen in Echtzeit überwachen.
Ausblick: Hybride Tools und nächste regulatorische Hürden
Die Branche erwartet nun Reaktionen der etablierten Legal-Tech-Anbieter auf die GPT-5-Studie. Eine Welle „hybrider“ Compliance-Tools könnte folgen: Sie nutzen den strikten Formalismus von Modellen wie GPT-5, um Regelabweichungen zu markieren, und überlassen die „Abwägungsentscheidungen“ explizit menschlichen Anwälten.
Die nächste große regulatorische Hürde steht im März 2026 an: Dann läuft eine Frist der FTC für Politikpapiere zu KI-Regulierung auf US-Bundesstaaten-Ebene ab. Bis dahin sollten Rechtsabteilungen ihre KI-Partnerschaften überprüfen. Die Botschaft der Regulierer ist klar: Sie sind nachsichtig bei Technologiefeatures, aber streng beim Marktverhalten.





