AI-Software-Entwicklung: "The hidden cost of AI-Coding"

CopilotGenerative KI-Tools können die Produktivität von Entwicklern um bis zu 55 % steigern, sagt ein Artikel des MIT. Aber eine zu schnelle Bereitstellung ohne flankierende Maßnahmen und Regeln  führt zu gefährlichen technischen Schulden (von mir oft als technische Hypotheken bezeichnet). Um kostspielige Systemausfälle zu vermeiden, müssen Unternehmen klare Richtlinien festlegen, das Management technischer Schulden zu einer Priorität machen und Entwickler im verantwortungsvollen Umgang mit KI schulen.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

Das ist die Botschaft des MIT-Artikels The Hidden Costs of Coding With Generative AI, der bereits Mitte August 2025 veröffentlicht wurde. Ich bin über nachfolgenden Tweet auf das Thema gestoßen.

The hidden cost of AI-Coding

Die Eingangs getätigte Aussage, dass generative KI-Tools die Produktivität von Software- Entwicklern um bis zu 55 % steigern können, ist mit einem großen Aber bzw. wichtigen Einschränkung versehen. Das funktioniert nur, wenn Entwickler klare Richtlinien bei der Erzeugung von Software befolgen müssen und dies auch tun, und entsprechend geschult sind.

Wo technische Schulden zu Fails führten

Die MIT-Forscher erwähnen in ihrem Beitrag zwei Fälle, wo "technische Schulden" (wohl noch ohne KI-Entwicklung) bereits zum Desaster führten. Erwähnt wird ein Vorfall bei der US-Fluggesellschaft Southwest Airlines im Dezember 2022. Ein Wintersturm legte große Teile der USA lahm. Die Fluggesellschaft Southwest Airlines traf es besonders hart. Deren Flugplanungssystem brach zusammen, was zu einem fast vollständigen Kollaps der Airline führte, mit zehntausenden Ausfällen und gestrandeten Reisenden.

Die Untersuchung des Vorfalls deckte tiefgreifende Probleme in der veralteten IT-Infrastruktur von Southwest auf, die nicht mit der Komplexität des Systems und der Störung umgehen konnte. Der Ausfall von über 16.900 Flügen kostete die die Fluggesellschaft über 750 Millionen Dollar, und hatte seine Ursache in technischen Schulden in den Crew-Planungssystemen.

Technische Schulden führten 2024 auch zu einem massiven Ausfall von CrowdStrike, der weltweit zu Ausfällen von IT-Systemen führte (siehe CrowdStrike: Untersuchungsbericht; Schadenssumme und Entschädigungen; Schuldzuweisungen). Diese Liste lässt sich fortsetzen.

Das MIT analysiert den Sachverhalt

Das MIT hat dazu Studien in kontrollierten Umgebungen durchgeführt, in denen Programmierer isolierte Aufgaben erledigten. Das waren bereits ideale Voraussetzungen und keine Fragestellungen aus realen Umgebungen, in denen Software auf komplexen bestehenden Systemen aufbauen muss. Ziel war es, die Risiken der AI-Codeentwicklung zu erfassen.

Es ist vermutlich jedem erfahrenen Entwickler klar: Wird der Einsatz von KI-generiertem Code schnell skaliert oder auf Brownfield-Umgebungen (Legacy-Umgebungen) angewendet, sind die Risiken viel größer und viel schwieriger zu bewältigen, so das MIT. Im Rahmen laufender Forschung zum strategischen Management der KI-gestützten Softwareentwicklung wurden Interviews mit Personen geführt, die an der Entwicklung von Software beteiligt sind. Das reicht von Junior-Entwicklern bis hin zu leitenden Software-Ingenieuren und CIOs. Die Interviews betrafen Entwickler aus einer Vielzahl von Branchen, darunter Versicherungen, Webhosting, soziale Medien, Verteidigung, Unternehmensberatung und Fintech.

Auf der Grundlage der Erkenntnisse aus diesen Interviews, einer Auswertung der Fachpresse und eigenen MIT-Wirtschaftsmodellen haben die MIT-Forscher mehrere strategische Kompromisse identifiziert, die Unternehmen bei der Einführung generativer KI für die Softwareentwicklung berücksichtigen sollten.

Welche Schlüsse zieht das MIT?

Die MIT-Untersuchung kommt zum Schluss, dass Unternehmen den Einsatz generativer KI für die Programmierung nicht grundsätzlich vermeiden sollten. Aber es kommt auf den richtigen Kontext an. Bei der schnellen Prototypenentwicklung neuer Produkte in einer Greenfield-Umgebung (neue Umgebung), kann KI-generierter Code einen echten Geschwindigkeitsvorteil bieten, heißt es.

Hat die Skalierbarkeit Priorität, oder ist der Einsatz in Brownfield-Umgebungen geplant, also eine Umgebung, die durch Altsysteme belastet ist, müsse KI-generierter Code mit äußerster Vorsicht eingesetzt werden, schreibt das MIT.

Interviews und Berichte von erfahrenen Entwicklern deuten laut MIT darauf hin, dass weniger qualifizierte Softwareentwickler eher dazu neigen, durch KI verursachte technische Schulden zu vergrößern. Hochqualifizierte Entwickler sind besser in der Lage, architektonische Mängel zu erkennen und technische Schulden zu mindern, bevor sie sich ausweiten. Der MIT-Artikel zitiert einen Softwareentwickler aus dem Bereich KI-Infrastruktur eines Fortune-50-Technologieunternehmens.

Dieser erklärte: "Mit KI kann ein Junior-Ingenieur genauso schnell programmieren wie ein Senior-Ingenieur, aber ihm fehlt das kognitive Verständnis dafür, was er tut, welche Probleme er verursacht und ob das, was er tut, überhaupt eine gute Idee ist." Die MIT-Empfehlung lautet, dass Manager sollten Vorsicht walten lassen, wenn unerfahrene Entwickler KI-generierten Code verwenden, oder wenn solcher Code in einer Brownfield-Umgebung benutzt wird.

Die Empfehlung: Wenn beide Risikofaktoren vorliegen, ist es möglicherweise am besten, den Einsatz von KI-generiertem Code ganz zu vermeiden. Dies liegt weit jenseits dessen, was heutiges Marketing-Geschrei vermittelt.

Ratschläge des MIT

Das MIT rät, dass Unternehmen die Tendenz von KI-Tools, technische Schulden zu erhöhen, als strategisches Risiko betrachten müssen. Die Forscher geben folgende Ratschläge:

  • Klare Richtlinien dafür entwickeln, wann und wie KI-gestützte Codierungstools eingesetzt werden sollen.
  • In die Ausbildung von Nachwuchsentwicklern investieren, damit diese AI-Tools besser nutzen können, ohne übermäßige technische Schulden zu verursachen.

Das MIT schreibt, dass viele große Unternehmen (darunter Microsoft, Google, Meta und Salesforce) bereits Richtlinien für den verantwortungsvollen Einsatz von KI festgelegt haben, die auf ethischen Grundsätzen wie Fairness, Datenschutz und Inklusivität basieren (wobei ich da gewisse Schwierigkeiten habe, dies für bare Münze zu nehmen).

Die Umsetzung dieser hochgesteckten Ideale in praktische, alltägliche Richtlinien für die KI-gestützte Softwareentwicklung sei jedoch ein fortlaufender Prozess, schreiben die Forscher.

Auch das Thema "investieren in Junior-Entwickler" ist derzeit noch schwierig. Aktuell befinden wir uns, zumindest laut Berichterstattung in den Medien, noch in der Phase, dass US-Unternehmen keine Jungentwickler mehr einstellen möchten, weil "KI das besser kann". Allerdings gibt es auch Gegenwind. Der AWS-CEO sagt, dass der Ersatz von Junior-Entwicklern durch KI "eine der dümmsten Ideen überhaupt" sei. Zudem verlinke ich mal das YouTube-Video Die KI-Lüge: wie KI Softwareentwickler wirklich beeinflusst von David Tielke, der diesbezügliche eine interessante Betrachtung anstellt.

Die MIT-Forscher ziehen aus Interviews die Hoffnung, dass die Entwicklung der KI-Tools künftig dabei hilft, die entstehenden technischen Schulden zu verkleinern, diese aber nie eliminieren kann. Die Antworten auf obige Tweet sind daher auch von Skepsis geprägt.

Es bleibt also spannend – verantwortungsvoll eingesetzt, kann KI-Code-Generierung helfen (siehe auch obiges YouTube-Video). In falschen Händen bringt KI-Code-Generierung die Unternehmen und letztendlich die Kunden "um Haus und Hof". Hier baut meine Hoffnung darauf, dass die Haftung für Software die gröbsten Auswüchse verhindert. Die Probe steht aber noch aus.

Dieser Beitrag wurde unter AI, Software abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

4 Antworten zu AI-Software-Entwicklung: "The hidden cost of AI-Coding"

  1. JohnRipper sagt:

    Die Übersetzung von „technical Dent" zu technische Schulden wirkt komisch, aber eine bessere Übersetzung habe ich jetzt auch nicht auf die Schnelle zumal es diese Übersetzung auch im Deutschen gibt.

  2. xx sagt:

    (jeder neue Code, muss man Vorsicht produktiv gebracht werden)

    Der aktuelle Stand ist mehr ein Stand der Hoffnung.
    Ich sehe den Fortschritt der KI Tools, und kann sehr leicht sagen wenn die so weitermachen, ist die Verunsicherung nicht nur begründet, sondern einfach nur kluge Voraussicht.

    Das andere Szenario ist, dass die KI Tools auf dem aktuellen Level verharren, und oder die Kosten dazu sich extrem steigern.
    Dann ist das alles nur ein Hype, und produziert Probleme und wird wieder verschwinden.

    Ich sehe den Hype nicht. Ich sehe aber in meinen Projekten dass durch KI meine Produktivität in einigen Gebieten absurd zugenommen hat. Gerade das Thema Programmieren hat die letzten Wochen unglaubliche Fortschritte gemacht.

    Ich habe im Kopf bildlich den Aufstand von Helfern am Acker beim Bauern im Kopf, die gegen Traktoren demonstrieren.

    Es werden sich sehr bald andere Berufsgruppen ebenso unsicher fühlen, quasi jeder der vor einem Bildschirm sitzt um diesen beruflich zu bedienen.

    Es wäre sinnvoll wenn die Politik anstatt KI zu beschränken, hier eine Art Einkommensteuer für KI einführen würde. Es wird Geld brauchen um viele Leute umzuschulen.

    Und wie die grossen Techkonzerne hiermit umgehen wollen, hat auch noch niemand verstanden.. Fast alle Abo Modelle sind auf Benutzer Basis lizenziert. Worin liegt denn der Gewinn für Microsoft 100 Benutzer durch einen Copiloten zu ersetzen?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.