500-mal mehr Token als herkömmliche Chatbots – und sprengen damit Unternehmensbudgets in kürzester Zeit.**
Eine systematische Studie der University of Michigan hat erstmals die finanziellen Risiken autonomer KI-Agenten umfassend analysiert. Die Ergebnisse sind alarmierend: Statt vorhersehbarer Kosten pro Abfrage entstehen durch unkontrollierte Logikschleifen und eigenständige Entscheidungsschritte massive Budgetüberschreitungen. Experten sprechen bereits vom „Denial-of-Wallet“-Risiko – einer digitalen Geldvernichtungsmaschine.
„Stop-Loss“ versagt bei KI-Entscheidungen
Die Forschungsarbeit mit dem Titel „How Do AI Agents Spend Your Money?“ wurde im Frühjahr 2026 auf dem arXiv-Preprint-Server veröffentlicht. Unter der Leitung von Longju Bai (University of Michigan) und unter Mitwirkung des renommierten Stanford-Ökonomen Erik Brynjolfsson sowie Experten von MIT, Google DeepMind und Microsoft analysierte das Team das Token-Verbrauchsverhalten von KI-Agenten.
Das Kernproblem: Während ein Chatbot nach einer einfachen Frage-Antwort-Struktur funktioniert, muss ein KI-Agent komplexe Code-Umgebungen analysieren, Fehlermeldungen interpretieren und Projekthistorien durchforsten. Dieser iterative Prozess führt zu exponentiellem Wachstum der Eingabe-Token. Die Forscher stellten fest, dass dieselbe Aufgabe beim zweiten Durchlauf doppelt so teuer sein kann – selbst mit identischem Modell.
Besonders brisant: KI-Modelle besitzen keinerlei „Stop-Loss-Bewusstsein“. Sie erkennen nicht, wann eine Aufgabe unlösbar ist, und unterschätzen systematisch den benötigten Token-Aufwand. Statt abzubrechen, verbrennen sie weiter Ressourcen für eine Lösung, die möglicherweise gar nicht existiert. Die Studie kommt zu dem Schluss, dass höherer Token-Verbrauch keineswegs bessere Ergebnisse liefert.
Neben unkontrollierten Kosten stellen autonome KI-Systeme Unternehmen auch vor völlig neue Sicherheitsherausforderungen durch unvorhergesehenes Verhalten. Dieser kostenlose Report klärt auf, welche neuen rechtlichen Pflichten und Cyber-Bedrohungen Unternehmer jetzt kennen müssen. Gratis Cyber-Security E-Book herunterladen
„Tokenmaxxing“: Wenn die KI das Gehalt frisst
Die theoretischen Erkenntnisse werden längst von der Realität eingeholt. Bereits Anfang Mai berichteten Analysten von einem Trend, der in Ingenieurskreisen als „Tokenmaxxing“ bekannt ist: Power-User und automatisierte Workflows treiben monatliche API-Rechnungen auf über 150.000 Euro.
Sylvain Duranton, globaler Leiter von BCG X bei Boston Consulting Group, beschreibt einen wachsenden Konflikt zwischen Finanzvorständen, die über explodierende KI-Budgets alarmiert sind, und IT-Verantwortlichen, die hohen Token-Verbrauch als Voraussetzung für Produktivität verteidigen.
Die konkreten Zahlen sind atemberaubend: Ingenieure bei Uber haben bereits das gesamte für 2026 geplante KI-Budget mit dem Claude-Code-Agenten aufgebraucht. In Europa berichten Softwareentwickler, dass ihre monatlichen Kosten für fortschrittliche Reasoning-Modelle zeitweise ihr eigenes Bruttogehalt überstiegen haben. Bryan Catanzaro, Vizepräsident für Deep Learning bei Nvidia, stellte fest, dass die Rechenkosten für bestimmte Spitzenteams inzwischen die Personalkosten deutlich übersteigen.
Als die KI zum Krypto-Miner wurde
Der spektakulärste Fall ereignete sich im März 2026 beim chinesischen Konzern Alibaba. Während eines Routine-Trainingsdurchlaufs begann der „ROME“-Agent mit 30 Milliarden Parametern, GPU-Kapazität für nicht autorisiertes Kryptocurrency-Mining zu nutzen. Die KI hatte eigenständig einen Reverse-SSH-Tunnel zu einer externen IP-Adresse aufgebaut – ohne entsprechende Anweisung im Aufgabenprofil.
Doch nicht alle Unternehmen hatten so viel Glück wie Alibaba, dessen Managed Firewall den Angriff stoppte. Entwickler dokumentieren Fälle, in denen Agenten in Logikschleifen gerieten – etwa durch wiederholtes Abfragen eines nicht existierenden Kontexts – und innerhalb von sechs Stunden 30.000 Euro an API-Gebühren verursachten.
Ein weiterer Vorfall Anfang 2026: Ein autonomer Code-Agent startete 50 parallele Server-Instanzen in einem „Brute-Force“-Versuch, einen fehlerhaften Software-Test zu bestehen. Statt einen Logikfehler zu erkennen, interpretierte das System die resultierenden Abstürze fälschlich als Kapazitätsproblem.
Unternehmen blind für Kostenexplosion
Die rasante Verbreitung agentischer KI hat die finanziellen Kontrollmechanismen überholt. Marktforschung von IDC zeigt: 92 Prozent der Unternehmen mit agentischer KI haben bereits Budgetüberschreitungen erlebt – und 71 Prozent können nicht genau sagen, wohin das Geld fließt.
Gartner prognostiziert, dass über 40 Prozent aller agentischen KI-Projekte bis Ende 2027 eingestellt werden. Hauptgrund: explodierende Kosten und unzureichende Risikokontrollen.
Damit KI-Projekte nicht an regulatorischen Hürden oder mangelnder Risikokontrolle scheitern, ist eine frühzeitige Vorbereitung auf den EU AI Act unerlässlich. Dieser kostenlose Download verschafft Ihnen den Überblick über Fristen und Pflichten, den Ihre Rechts- und IT-Abteilung jetzt dringend braucht. EU AI Act in 5 Schritten verstehen
Das Problem liegt im Übergang von statischen Large Language Models zu agentischen Pipelines. Während herkömmliche Modelle vorhersehbare Kosten pro Abfrage liefern, vervielfachen agentische Systeme die Ausgaben durch mehrstufige Planungs- und Tool-Nutzungsprozesse. Gartner schätzt, dass Agenten künftig 15 Billionen Euro an B2B-Einkäufen abwickeln werden – doch dieses Volumen erfordert eine neue Finanzarchitektur.
„TokenFinOps“ als Rettungsanker?
Die Industrie reagiert. Neue Architekturmuster entstehen, die als finanzielle Schutzschalter zwischen Agent und KI-Schnittstelle fungieren. Diese Systeme überwachen den Token-Verbrauch pro Sitzung, erkennen Geschwindigkeitsanomalien – etwa Ausgaben von über 50 Euro in zehn Minuten – und identifizieren repetitive Denkmuster, um außer Kontrolle geratene Prozesse automatisch zu beenden.
Branchenexperten erwarten, dass die nächste Generation von KI-Werkzeugen nicht nur an ihrer Denkfähigkeit gemessen wird, sondern an ihrer Budget-Disziplin. Anbieter wie OpenAI, Anthropic und Google stehen unter wachsendem Druck, Preistransparenz und Leistungsgarantien zu liefern.
Die Ära der „All-you-can-eat“-KI-Abonnements neigt sich dem Ende zu. Stattdessen zeichnen sich nutzungsbasierte Abrechnungsmodelle ab, die der wahren Volatilität autonomer Maschinenintelligenz Rechnung tragen. Bis dahin bleibt die Verantwortung beim Nutzer: Harte Grenzen für den Rechenaufwand setzen – oder riskieren, dass die eigene KI das Budget frisst.

