Eine US-Behörde nutzte ChatGPT, um systematisch über 1.100 staatliche Kultur- und Forschungsförderungen zu kündigen. Betroffen waren Projekte von der Holocaust-Forschung bis zum Erhalt indigener Sprachen – gestrichen auf Basis automatisierter KI-Antworten ohne menschliche Kontrolle.
Die EU-KI-Verordnung ist bereits in Kraft und regelt streng, wie Algorithmen für sensible Entscheidungen eingesetzt werden dürfen. Dieser kostenlose Leitfaden zeigt Ihnen, welche neuen Pflichten und Risikoklassen für Ihr Unternehmen jetzt gelten. EU-KI-Verordnung kompakt: Umsetzungsleitfaden kostenlos herunterladen
So funktionierte der „Ja/Nein“-KI-Audit
Akten aus einem Gerichtsverfahren im Bundesbezirk New York enthüllen ein beunruhigendes Verfahren: Mitarbeiter des Department of Government Efficiency (DOGE) fütterten kurze Beschreibungen bereits bewilligter Förderanträge in ChatGPT. Die KI sollte mit einer Standardaufforderung prüfen, ob ein Projekt irgendetwas mit Diversität, Gleichberechtigung und Inklusion (DEI) zu tun habe. Ihre Antwort musste faktisch sein, unter 120 Zeichen bleiben und mit einem einfachen „Ja“ oder „Nein“ beginnen.
Diese binäre Logik wurde zum Hauptfilter über das Schicksal von Hunderten Millionen Dollar an staatlichen Mitteln. Die KI-Antworten landeten in einer Master-Tabelle, die die Expertise der Fachbeamten der National Endowment for the Humanities (NEH) ersetzte. Laut Zeugenaussagen hatten die DOGE-Mitarbeiter oft keinerlei Erfahrung in Verwaltung oder Förderaufsicht. Der Begriff „DEI“ wurde für die KI nie definiert – sie markierte pauschal jedes Projekt, das Rasse, Geschlecht, Ethnizität oder spezifische Kulturgeschichte erwähnte.
Betroffene Projekte: Von Holocaust-Dokumentation bis Appalachen-Archiv
Die automatisierten Kürzungen trafen Organisationen in allen 50 Bundesstaaten. Eine Klage von Historikern und Autorenverbänden nennt konkrete Fälle:
* Eine Förderung von 89.110 Euro für die North Carolina Central University zur Archivierung von Materialien für Mitarbeiter wurde gestrichen, obwohl die Mittel größtenteils schon ausgegeben waren.
* Ein Dokumentarfilm über jüdische Zwangsarbeiterinnen im Holocaust wurde als „DEI-relevant“ eingestuft.
* Ein mehrjähriges Projekt zur Digitalisierung von Fotoarchiven aus der Appalachen-Region verlor seine Finanzierung.
* In Oregon fielen Mittel für eine Ausstellung über indigene Völker und eine Studie zu Klimafolgen für ländliche Gemeinden weg.
Experten zufolge waren fast 97 % der damals bewilligten Fördermittel betroffen. Die KI scheiterte oft am Kontext: Forschung zu Gewalt gegen Frauen im Holocaust wurde als „DEI“ klassifiziert, weil sie eine spezifische Kultur und weibliche Stimmen in den Fokus rückte.
Juristische Konsequenzen und der „Signal“-Messenger-Skandal
Der KI-Einsatz zur Umgehung etablierter Prüfverfahren löste eine rechtliche und ethische Debatte aus. Die Kläger argumentieren, die Behörde habe ohne gesetzliche Befugnis gehandelt und könne vom Kongress bewilligte Mittel nicht einseitig per Algorithmus streichen. Das Verfahren könnte einen Präzedenzfall gegen „Blackbox“-Algorithmen in der Staatsverwaltung schaffen.
Die Akten offenbaren zudem mögliche Verstöße gegen das Bundesarchivgesetz: DOGE- und NEH-Führungskräfte kommunizierten über den Messenger Signal, dessen Nachrichten sich automatisch löschen. Kritiker sehen darin einen Versuch, der öffentlichen Kontrolle und Archivierungspflicht zu entgehen. Der damalige kommissarische NEH-Vorsitzende Michael McDonald übertrug dem DOGE-Personal weitreichende Entscheidungsgewalt basierend auf der KI-Tabelle – ein Bruch mit jeder Verwaltungsroutine.
Der Einsatz von KI und Messengern in Organisationen erfordert klare Regeln und eine lückenlose Dokumentation, um rechtssicher zu bleiben. Erfahren Sie in diesem Experten-Report, wie Sie neue technologische Anforderungen und Cyber-Security-Trends ohne Budget-Explosion meistern. Kostenlosen Cyber-Security-Report jetzt sichern
KI in der Regierung: Ein gefährlicher Präzedenzfall
Die Enthüllungen fallen in eine Phase rasanten KI-Ausbaus in Behörden. Der globale Markt für KI in der Regierung soll bis 2028 über 20 Milliarden Euro wachsen. Während viele Ämter „agentische KI“ für bürgerfreundlichere Services nutzen wollen, zeigt der DOGE-Fall die Risiken, generative Modelle für restriktive Zwecke einzusetzen.
Die fehlende Definition von „DEI“ ließ die KI als politischen Filter fungieren – ein Anwendungsfall, vor dem KI-Entwickler in ihren Nutzungsrichtlinien warnen. Der Fall erinnert an Skandale, in denen automatische Systeme auf US-Bundesstaatenebene Leistungsansprüche zu Unrecht ablehnten. Das Ausmaß und die politische Dimension des DOGE-Audits gelten jedoch als beispiellos.
Ausblick: Gerichtsentscheid mit Signalwirkung
Das Gericht wird in den kommenden Wochen über Anträge auf ein summarisches Urteil verhandeln. Ein Erfolg der Kläger könnte die US-Regierung zwingen, zig Millionen Euro an betroffene Universitäten und Kulturinstitute zurückzuzahlen. Der Fall befeuert bereits Gesetzesinitiativen wie den „AI Accountability Act“, der Transparenzberichte vorschreiben soll, wenn Algorithmus-Entscheidungen öffentliche Gelder oder Bürgerrechte betreffen.
Für die betroffenen Forscher und Kultureinrichtungen herrscht weiter Unsicherheit. Sie warten darauf, ob die „KI-gesteuerten“ Kürzungen von 2025 durch die Justiz im Jahr 2026 rückgängig gemacht werden. Das Urteil wird ein Maßstab dafür sein, wie die US-Regierung technologische Effizienz mit verfassungsmäßigen Garantien und parlamentarischer Kontrolle in Einklang bringt.





