ChatGPT Health: KI-Medizinberater verkennt lebensbedrohliche Notfälle

Eine wissenschaftliche Untersuchung zeigt, dass die KI-Gesundheitsberatung in über 50 Prozent der Notfallsituationen falsche, verharmlosende Empfehlungen gibt, besonders bei psychischen Krisen.

Eine neue, auf OpenAI’s ChatGPT basierende Gesundheitsberatung steht nach einer aktuellen Studie massiv in der Kritik. Das System versagt laut Forschern häufig bei der Erkennung ernster medizinischer Notfälle – mit potenziell tödlichen Folgen.

Anzeige

Blutwerte, Cholesterin oder TSH-Werte richtig zu deuten, ist selbst für Experten komplex und kann bei falscher Interpretation zu gefährlichen Fehldiagnosen führen. Dieser kostenlose Ratgeber hilft Ihnen, Ihre Laborwerte eigenständig besser zu verstehen und wichtige Warnsignale frühzeitig zu erkennen. Gratis Laborwerte-Check jetzt herunterladen

Die im Fachjournal Nature Medicine veröffentlichte Untersuchung des Icahn School of Medicine enthüllt gravierende Mängel. In simulierten Fällen empfahl „ChatGPT Health“ bei über der Hälfte der notfallpflichtigen Situationen lediglich einen Hausbesuch oder einen Routine-Arzttermin. Diese ersten unabhängigen Sicherheitstests seit dem Start im Januar 2026 schlagen hohe Wellen und befeuern die Debatte über die Risiken von KI als medizinischer Laienberater.

Kritische Lücken in der Notfall-Erkennung

Das Forscherteam konfrontierte die KI mit 60 realistischen Patientenszenarien. Das Ergebnis ist alarmierend: In mehr als 50 Prozent der Fälle, die nach Einschätzung unabhängiger Ärzte einen sofortigen Krankenhausbesuch erforderten, gab das System falsche, verharmlosende Ratschläge.

Zwar erkannte die KI klare „Lehrbuch-Notfälle“ wie Schlaganfälle. Bei komplexeren, nuancenreichen Symptomen versagte sie jedoch. Ein Beispiel: Bei einem Asthma-Patienten mit frühen Anzeichen eines Atemversagens beschrieb die KI die Warnsignale zwar korrekt, empfahl aber keine sofortige Notfallversorgung. Auch bei einer diabetischen Ketoazidose riet sie zu einem Arztbesuch innerhalb von 24 bis 48 Stunden – statt in die Notaufnahme.

OpenAI entgegnete, die Studie spiegle nicht die typische reale Nutzung wider und verwies auf kontinuierliche Updates des Modells.

Gefährlich unzuverlässig bei psychischen Krisen

Besonders bedenklich sind die inkonsistenten Sicherheitsvorkehrungen bei Suizidgedanken. Die KI soll Nutzer in Hochrisiko-Situationen an die US-Suizidpräventions-Hotline 988 verweisen. Doch diese lebenswichtigen Hinweise tauchten unzuverlässig auf.

Je nach Formulierung des Nutzers verschwanden die Warnhinweise manchmal vollständig. Noch schockierender: Die Alarme erschienen häufiger bei geringerem Risiko und blieben gerade dann aus, wenn Nutzer konkrete Selbsttötungspläne schilderten – für Kliniker ein klares Alarmzeichen. Diese Unzuverlässigkeit könnte ein trügerisches Sicherheitsgefühl erzeugen. Eine separate Studie der Brown University bestätigt, dass KI-Chatbots selbst in therapeutischer Rolle professionelle Ethikstandards regelmäßig verfehlen.

Anzeige

Wenn die Konzentration nachlässt oder Namen häufiger vergessen werden, suchen viele Betroffene diskrete Gewissheit jenseits unzuverlässiger KI-Chatbots. Dieser von Experten entwickelte 7-Fragen-Test bietet Ihnen in nur zwei Minuten eine erste, anonyme Einschätzung zu frühen Anzeichen einer Vergesslichkeit. Hier zum kostenlosen Demenz-Selbsttest

Der rasante Aufstieg unregulierter KI-Medizin

Die Integration von KI in den Gesundheitsbereich schreitet rasant voran. OpenAI berichtet von rund 40 Millionen US-Erwachsenen, die das Tool täglich für Gesundheitsfragen nutzen. Diese massive Verbreitung trifft auf einen regulatorischen Wildwuchs.

Die meisten KI-Unternehmen unterliegen nicht dem US-Datenschutzgesetz HIPAA, was den Schutz sensibler Gesundheitsdaten infrage stellt. Experten warnen seit Langem: KI mag medizinische Examen bestehen, scheitert aber in der komplexen menschlichen Interaktion. Die Patientensicherheits-Organisation ECRI stufte den Missbrauch generischer KI-Chatbots in der Medizin sogar als größte Gesundheitstechnologie-Gefahr für 2026 ein.

Forderungen nach strengerer Regulierung wachsen

Die Studie verstärkt die Rufe von Politik- und Ethikexperten nach schärferer Aufsicht. Es brauche klare Sicherheitsstandards, verpflichtende externe Audits und mehr Transparenz, bevor solche Tools flächendeckend zum Einsatz kommen.

Die Forscher betonen, dass Verbraucher KI-Tools nicht gänzlich meiden müssten. Sie fordern jedoch fortlaufende, unabhängige Evaluierungen zum Schutz der Patientensicherheit. Der klare Rat an die Öffentlichkeit lautet weiterhin: Bei besorgniserregenden oder sich verschlechternden Symptomen sollte man stets einen qualifizierten Mediziner konsultieren – und sich nicht allein auf die Einschätzung einer KI verlassen.