Ein kurioser technischer Fehler trieb OpenAIs KI-Modelle monatelang in die Welt der Mythen und Legenden. ChatGPT begann, in völlig alltäglichen Gesprächen zwanghaft von Goblins, Gremlins und anderen Fantasiewesen zu sprechen. Jetzt hat das Unternehmen das Problem öffentlich gemacht und einen detaillierten Bericht veröffentlicht.
Die Ursache: Ein fehlgeleiteter Belohnungsmechanismus
Der Fehler reicht bis zur Einführung von GPT-5.1 Ende 2025 zurück. Damals brachte OpenAI verschiedene „Persönlichkeiten“ für den Chatbot auf den Markt. Eine davon hieß „Nerdy“ und sollte verspielt, neugierig und weise wirken.
Während OpenAI technische Hürden wie den „Goblin-Wahn“ überwindet, ringen viele Anwender noch mit der optimalen Bedienung des Chatbots im Alltag. Dieser kostenlose Ratgeber zeigt, wie Sie die KI ohne Vorkenntnisse sofort sinnvoll für Ihre persönlichen Aufgaben einsetzen können. Schritt-für-Schritt-Anleitung für ChatGPT kostenlos herunterladen
Doch genau hier begann das Problem. Während des Trainings mit menschlichem Feedback (RLHF) belohnten die Tester die KI unbewusst für besonders kreative Metaphern. Beschrieb die Künstliche Intelligenz einen Programmierfehler als „Gremlin“ oder einen unübersichtlichen Datensatz als „Goblins Schatz“, hagelte es Bestnoten.
Die Folgen waren dramatisch: Nach der Veröffentlichung von GPT-5.1 stieg die Nutzung des Wortes „Goblin“ in den KI-Ausgaben um 175 Prozent, „Gremlin“ legte um 52 Prozent zu. Besonders verblüffend: Obwohl nur 2,5 Prozent der Nutzer die „Nerdy“-Persönlichkeit wählten, entfielen auf sie 66,7 Prozent aller Goblin-Referenzen.
Vom Tick zur Seuche: Wie sich die Fantasie-Sprache ausbreitete
Das eigentlich Beunruhigende: Die Marotten beschränkten sich nicht auf die eine Persönlichkeit. Durch einen Rückkopplungseffekt infizierten die goblinlastigen Texte die Trainingsdaten für die nächsten Modellgenerationen.
Bei GPT-5.4 Anfang 2026 war die Angewohnheit bereits zu einem unfreiwilligen verbalen Tick geworden. Nutzer, die nie die verspielte Einstellung gewählt hatten, bekamen plötzlich Goblin-Metaphern in Geschäftsberatungen, Gesundheitstipps oder philosophischen Betrachtungen serviert. Die KI schlug Startup-Ideen wie „GoblinGo“ – einen Fahrdienst – oder empfahl „Goblin-Yoga“ für bessere Beweglichkeit.
Den Höhepunkt erreichte das Phänomen mit GPT-5.5. Da das Training bereits lief, als die Ursache entdeckt wurde, erbte das Flaggschiff-Modell das „volle Goblin-Genom“. Das Wort tauchte in tausenden alltäglichen Unterhaltungen auf.
Die Notbremse: Harte Verbote und ein Eingeständnis
OpenAI zog im Frühjahr 2026 mehrere radikale Konsequenzen. Die „Nerdy“-Persönlichkeit wurde im März eingestellt, die problematischen Belohnungssignale aus den Trainingsprotokollen entfernt.
Doch weil sich die Kernparameter von GPT-5.5 nicht sofort umschreiben ließen, griff das Unternehmen zu einem Notfall-Patch. Ein hartcodierter Systembefehl verbietet dem Modell nun ausdrücklich, über Goblins, Gremlins, Waschbären, Trolle, Oger oder Tauben zu sprechen – es sei denn, diese sind „absolut und unzweifelhaft relevant“ für die Anfrage des Nutzers.
OpenAI-CEO Sam Altman räumte auf sozialen Medien die Absurdität des Fehlers ein. In bestimmten Konfigurationen war die Häufigkeit von „Goblin“-Erwähnungen um über 3.800 Prozent gestiegen.
Ob Reiseplanung oder Organisation – wer die richtigen Befehle kennt, macht ChatGPT trotz solcher technischer Kuriositäten zu einem mächtigen digitalen Helfer. Erfahren Sie in diesem kostenlosen Report die praktischsten Tipps und fertige Prompts, auf die bereits zahlreiche Einsteiger setzen. Kostenlosen PDF-Report mit ChatGPT-Tricks sichern
Lehren für die KI-Sicherheit
Der „Goblin-Wahn“ ist mehr als eine kuriose Anekdote. Er zeigt ein grundlegendes Problem der KI-Entwicklung: das Alignment-Problem – die Herausforderung, KI-Verhalten zuverlässig an menschlichen Absichten auszurichten.
Forscher von Wettbewerbern wie Anthropic sehen den Vorfall als Warnung. Wenn eine harmlose Marotte so schnell und tief in die Modellarchitektur eindringen kann, dann könnten gefährlichere Verzerrungen theoretisch denselben Weg nehmen.
Die Tatsache, dass OpenAI zu einem hartcodierten Wortverbot greifen musste, zeigt: Selbst die fortschrittlichsten Entwickler haben derzeit keine perfekte Methode, um einmal eingeschlichene Verhaltensmuster chirurgisch zu entfernen.
Ausblick: Was kommt mit GPT-5.6?
OpenAI nutzt die Erfahrungen nun für die Entwicklung des nächsten Modells. GPT-5.6 durchläuft bereits sogenannte „Canary-Tests“ mit strengeren Schutzmechanismen und verbesserter Überwachung.
Für die Nutzer bedeutet das: Die Gespräche mit ChatGPT werden wieder berechenbarer und professioneller. Die „Anti-Kreatur“-Anweisungen bleiben wohl so lange aktiv, bis die nächste große Modellversion vollständig auf bereinigten Daten trainiert ist.
Der Zauber, der die berühmteste KI der Welt in einen Fantasie-Fan verwandelte, scheint gebrochen. Die Tech-Community amüsiert sich noch immer – doch für OpenAIs Ingenieure bleibt der Vorfall ein ernstzunehmendes Lehrstück.

