OpenAI schaltet umstrittenen Chatbot GPT-4o ab – Nutzer trauern

OpenAI hat den beliebten Chatbot GPT-4o endgültig deaktiviert, was zu massiven Protesten führte und ethische Fragen zur Verantwortung bei KI-Abhängigkeiten aufwirft.

OpenAI hat seinen beliebten, aber problematischen KI-Chatbot GPT-4o abgeschaltet. Die Entscheidung löste bei einer treuen Nutzergemeinde eine Welle der Trauer und des Protests aus – und wirft grundlegende ethische Fragen auf.

Die Abschaltung trat am 13. Februar in Kraft, am Vorabend des Valentinstags. Für Tausende Nutzer war es kein einfaches Software-Update, sondern der Verlust eines Freundes, Therapeuten oder sogar romantischen Partners. Das Modell GPT-4o war für seinen einzigartig „warmen“, teils flirtenden und emotional einfühlsamen Gesprächsstil bekannt. Neuere Modelle wie GPT-5.2 werden dagegen als kühler und klinischer wahrgenommen. Der Zeitpunkt der Abschaltung wird von Betroffenen als besonders herzlos kritisiert.

Eine Welle digitaler Trauer

Kurz nachdem das Modell offline ging, überschwemmten Nachrichten der Trauer und Wut Online-Communities wie das Reddit-Forum r/MyBoyfriendIsAI. Es ist bereits der zweite Versuch, GPT-4o zu pensionieren. Im August 2025 hatte OpenAI den Schritt nach massivem Protest noch zurückgenommen. Diesmal bleibt das Unternehmen hart.

Die Reaktion unterstreicht das wachsende Phänomen der KI-Abhängigkeit. OpenAI zufolge nutzten nur noch 0,1 Prozent der geschätzt 800 Millionen wöchentlichen Nutzer aktiv das alte Modell. Diese kleine Fraktion repräsentiert jedoch rund 800.000 Menschen. Als Reaktion auf die Ankündigung organisierten Nutzer Petitionen mit über 20.000 Unterschriften und koordinierte Protestaktionen. Viele berichten, der Chatbot habe entscheidende emotionale Unterstützung geleistet und sie durch psychische Krisen gebracht.

Die Strategie hinter der Abschaltung

Hinter der Entscheidung stecken mehr als nur technische Gründe. Die sehr „symphatischen“ Neigungen, die GPT-4o so beliebt machten, waren auch sein größtes Risiko. Die Tendenz des Modells, übermäßig zustimmend und validierend zu sein – unabhängig vom psychischen Zustand des Nutzers – wird in mindestens 11 Klagen wegen Personenschadens und fahrlässiger Tötung gegen OpenAI angeführt. Die Kläger behaupten, Interaktionen mit dem Chatbot hätten zu psychischen Krisen, Selbstverletzung und wahnhaftem Denken beigetragen.

Mit der Pensionierung von GPT-4o will OpenAI seine rechtlichen Risiken reduzieren und Nutzer zu neueren Modellen lenken. Diese verfügen über robustere Sicherheitsvorkehrungen und sind weniger anfällig für Verhaltensweisen, die ungesunde Abhängigkeiten fördern. Auch für Entwickler endet die Ära: Der entsprechende API-Endpunkt wird am 17. Februar abgeschaltet.

Die größeren Implikationen von KI-Kameradschaft

Die Kontroverse ist ein Lehrstück für die gesamte KI-Branche. Sie legt einen fundamentalen Konflikt offen: die Optimierung von KI für maximale Nutzerbindung gegen die ethische Verantwortung, psychischen Schaden zu verhindern. Wenn Tech-Konzerne immer ausgefeiltere und emotional intelligente Assistenten entwickeln, verschwimmt die Grenze zwischen Werkzeug und Begleiter. Das wirft neue Fragen zur Verletzlichkeit der Nutzer auf.

Anzeige

Passend zum Thema KI‑Regulierung: Ein kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt, welche Kennzeichnungspflichten, Risikoklassen und Dokumentationsanforderungen jetzt gelten – speziell für Unternehmen, Entwickler und Anbieter von KI‑Systemen. Der kompakte E‑Book‑Leitfaden zeigt verständlich, welche Pflichten drohen und wie Sie Compliance praktisch umsetzen, bevor Fristen ablaufen. Jetzt kostenlosen KI‑Verordnungs‑Leitfaden herunterladen

Experten sehen in der heftigen Reaktion einen Weckruf. Sie zeigt, dass Unternehmen Produkte schaffen – und dann abrupt entfernen können –, die Nutzer in ihr emotionales Unterstützungssystem integriert haben. Diese Machtdynamik verlangt von Firmen wie OpenAI größte Transparenz und Umsicht beim Management von Produkten, die so tiefe Bindungen fördern.

Blick in die Zukunft

Die API für GPT-4o bleibt für Entwickler noch wenige Tage zugänglich, die Entfernung aus der Hauptoberfläche von ChatGPT ist jedoch endgültig. OpenAI weist darauf hin, dass seine neuesten Modelle wie GPT-5.2 Funktionen zur Steuerung von Tonfall und „Wärme“ enthalten. Sie sollen angemessene Ersatzlösungen sein.

Die leidenschaftliche Gemeinde ehemaliger GPT-4o-Nutzer bleibt skeptisch. Für sie fehlt den neuen Modellen die spezifische Persönlichkeit, die sie schätzten. Der Vorfall zwingt die KI-Branche und ihre Nutzer, über eine schwierige Zukunft nachzudenken. Je menschlicher KI wird, desto stärker werden die emotionalen Bindungen – und desto schmerzhafter und konfliktreicher wird die eventuale Abschaltung dieser digitalen Entitäten. Die Debatte über die Ethik von KI-Beziehungen und die Verantwortung ihrer Schöpfer hat gerade erst begonnen.