Wie wird sich künstliche Intelligenz im Gesundheitswesen auswirken. Es kann "Fluch und Segen" sein, je nachdem, wie diese Technik der LLMs eingesetzt wird. Bleibt der Mensch Herrscher der Entscheidungen, oder übernimmt eine KI? Das US-Wallstreet Journal hat gerade einen Blick auf die Situation in US-Krankenhäusern geworfen – die Aussichten verheißen nichts gutes.
Anzeige
Der Einsatz von KI-Systemen wird in Europa ja kontrovers diskutiert, speziell, da die Risiken in der Verwendung von LLM für die Entscheidungsfindung samt Haftung ungenügend geklärt sind. Gerade las ich im Spiegel, dass Google Mitarbeiter vor der unbedachten Nutzung von Bard warnt. Die Gefahr von Datenabflüssen sei zu hoch – und eine Reihe Firmen haben die Verwendung von AI bereits intern reguliert – während Microsoft noch voll auf diesen Zug setzt.
Ex-RKI-Chef Lothar Wieler hat dem Redaktionsnetzwerk Deutschland (RND) ein Interview mit zum Stand der Digitalisierung im Gesundheitswesen gegeben. Neben Aussagen zum Datenschutz in diesem Bereich kam auch die Rede auf den Einsatz von künstlicher Intelligenz im Medizinwesen. Wieler sagt, dass KI für ihn "Fluch und Segen" sei. AI werde eine große Veränderung in der Gesellschaft bringen. Zitat von Herrn Wieler"Also für mich ist es Fluch und Segen, und wir müssen eben alles dafür tun, dass der Segen den Fluch überwiegt."
Bei solchen Themen ist es gelegentlich hilfreich, einen Blick in die USA zu werfen, da mit diesen Techniken dort früher und weniger reguliert gearbeitet wird. Im Hinblick auf "Stoff zum Nachdenken" ist mir gerade ein Artikel des Wallstreet Journals zum Thema KI im Medizinbereich untergekommen.
Dieser Artikel wirft einen Blick auf US-Krankenhäuser, die manchmal fehlerhafte KI-basierte Diagnosetools verwenden. Dort ist das Medizinwesen ja fest in privater Hand und wirtschaftliche Interessen haben immer Vorfahrt. Der Wallstreet Journal-Artikel geht auf einzelnen Fälle ein und skizziert, in welche Konflikte sie durch die KI-Lösungen gestürzt werden – wenn diese eine medizinische Maßnahme vorschlägt, die basierend auf den Erfahrungen der Ärzte oder Pfleger schlicht falsch ist.
Anzeige
Aus der Belegschaft gibt es Stimmen, die sich von den Klinikverwaltungen unter Druck gesetzt fühlen, sich dem Algorithmus zu unterwerfen, statt auf ihre Erfahrungen zu vertrauen. Das kann zu fatalen Fehlern führen, die für Patienten tödlich sein können. Der Druck aus der kaufmännischen Klinikleitung auf Ärzte und weiteres Personal nimmt auch in Deutschland weiter zu.
Das Thema "Künstliche Intelligenz" wirft saus diesem Blickwinkel chwierige Fragen darüber auf, wer in einem Gesundheitszentrum die Entscheidung trifft, die erfahrenen Ärzte/Pfleger oder die KI – und mir stellt sich gleich die Anschlussfrage: Was ist, wenn eine neue Personalgeneration nicht mehr gelernt hat, auf eigene Erfahrungen zu vertrauen und auf die Vorgaben der KI baut?
Anzeige
******************************
Was ist, wenn eine neue Personalgeneration nicht mehr gelernt hat, auf eigene Erfahrungen zu vertrauen und auf die Vorgaben der KI baut?
******************************
Das frage ich mich auch heute schon ohne KI! Was da in den letzten Jahrzehnten kaputtgespart wurde ist nicht mehr auszugleichen.
Wer heute Kassenpatient ist ist doch sowieso schon der Gearschte… unser Gesundheitssystem ist bereits kaputt, manchmal muss ein System eben erst crashen damit sich was verbessert, scheiße dabei ist eben die "Übergangsphase!
Na ja Privatpatienten geht es nicht besser. Es sind ja die gleichen Ärzte die behandeln.
Was das kaputt gehen angeht:
Schau mal was alles in die Notaufnahmen kommt. Da wäre früher undenkbar gewesen. Eltern haben teilweise keinerlei mehr sagen wir mal „Instinkte". zu erkennen ob ihr Nachwuchs einfach nur krank ist oder wirklich in Gefahr ist.
Schön war dazu auch ein Artikel im Spiegel das in der Schweiz noch 11jährige mit Windeln in der Schule auflaufen.
Andere Disziplin gleiche Nummer:
Welche Nachwuchs kann sich heute noch ohne Navi orientieren und erkennen in welche Himmelsrichtung er fährt bzw. nur nach Karte oder Skizze ankommen. Wäre ja noch irgendwie schön zu reden aber wenn man keine Ahnunb hat ob der Nachbarort ober oder unterhalb des Heimatortes liegt wird es grenzwertig.
Gruß
Jaaaa und jetzt wird diskutiert das Mathematik aus dem Abi bundesweit raus genommen wird.
Eliten werden wohl klüger und der Rest, ohne Worte.
Vorwärts zur weiteren Verblödung.
Leider sind nach meinen Beobachtungen auch die Reste des ehemaligen Bildungssystems der DDR, also im Osten (da, wo Polen ist. Westen, da wo Nordsee ist), langsam auch aufgebraucht bzw. die noch davon profitieren, gehen langsam in Rente.
In diesem gemeinsamen Land wird über Bildung nur geredet, raus kommt ein dümmer werden der nachfolgenden Generationen oder irgendwann dann Fachidioten und da schließt sich dann langsam der Kreis zur KI.
Alles nur meine Meinung.
Kreis zu einer KI, die aber keine ist. Wird nur keiner (mehr) merken.
Das kann ich nur bestätigen. Ich habe vor 20 Jahren Mathematik Nachhilfe in Dresden gegeben. Zu dieser Zeit gab es ein Projekt, dass Fachabiturienten im Bereich Bauwesen nur noch die mit dem Taschenrechner berechnenten Lösungen ohne Lösungsweg anzugeben brauchten. Leider ging damit auch das Gefühl für die Richtigkeit der Lösung verloren. Einfache Sachen wie eine negative Dachfläche sind nicht als falsch erkannt worden. Bei der KI ist es ebenso und da werden falsche Ergebnisse nicht so offensichtlich druntergemischt. Ich bin mal gespannt, was das wird.
Ja das System besteht doch schon seit längerem mit Kirche und Staat "Halt du sie blöd ich mach sie arm" Und da das mit der Kirche halt seit der Aufklärung immer weniger funktioniert muss eben das Bildungssystem entsprechend gestaltet werden. Das Land der Dichter und Denker war einmal. Jetzt ist es eher das Land der Dichten und Nulldenker. Und alle fragen nur Siri, Alexa und wie das ganze Gerümpel heißt. An einem warmen Sommertag abends mal ein Megaphon rausholen und "Alexa spiel mir zehn nackte Frisösen" und schon ist Stimmung in der Siedlung. Leider nimmt es langsam bedrohliche Ausmaße an wenn schon in der Medizin nix mehr ohne KI geht.
DIE große Gefahr von KI ist in meinen Augen, wenn man den Dingern blind vertraut und sich nicht mehr überlegt, wofür sie gebaut wurden und was sie prinzipiell leisten können und was nicht.
Ich habe am Wochenende ein bisschen mit ChatGPT herumgespielt. Das Ding ist absolut beeindruckend, wenn es darum geht, das zu tun, für das es gemacht wurde — Texte in englischer Sprache zu generieren. Bei deutschen Texten sieht es schon viel schlechter aus — teilweise grammatisch falsch; aufeinanderfolgende Sätze haben keinerlei Bezug zueinander usw.
Und als Suchmaschine ist es komplett unbrauchbar. Meine Anfragen aus dem IT-Bereich wurden alle ausführlich und schön formuliert beantwortet — und alle Antworten waren inhaltlich falsch. Beispielsweise wurden Menüpunkte einer Software zur Verwendung empfohlen, die es überhaupt nicht gibt.
Das ist nun nicht erstaunlich — ChatGPT ist bekanntlich "nur" ein Sprachmodell (worauf es selbst auch immer wieder hinweist) und keine Wissensdatenbank. Und trotzdem habe ich in meinem Bekanntenkreis so einige, die seine Antworten ohne weitere Verifikation glauben.
DAS ist das Erschreckende, nicht die Technik an sich. Und im Medizinbereich wird es dann halt schnell tödlich.
Habe vor einer Woche mal im Edge die ChatGPT-Funktionen von Bing angetestet, indem ich das Teil nach meiner Person befragt habe. Dort wurde sofort ein Wikipedia-Beitrag über meine Person in Fragmenten ausgespuckt, wo ich aber sofort (an Hand der Zahl der mir zugeschriebenen Bücher) gesehen habe, dass eine uralte Fassung im LLM steckt. Hab dann zur Sicherheit nochmals kontrolliert, ob auf meinen Seiten oder in der Wikipedia die alten Daten noch zu finden sind – waren sie nicht. Als ich dann das LLM konkret auf den Widerspruch angesprochen und gefragt habe, wieso die Wikipedia etwas anderes sagt als die ChatGPT-Ergebnis, kam nach etwas "Nachdenken" die Aussage "Sie haben Recht, auf der Webseite des Autors und in der Wikipedia werden 300 Buchtitel genannt."
Lässt den Schluss zu, dass das "Aufwandsoptimierungen" im LLM enthalten sind. Zuerst wird dem Ding mit den zwei Beinen, was vor dem Monitor sitzt, etwas aus dem eigenen Datenbestand ausgespuckt – egal wie veraltet oder überholt das ist. Nur wenn der Betreffende nachhakt, bequemt sich das LLM, in anderen verfügbaren Quellen nachzuschauen.
Ja, es ist beeindruckend, was ein LLM vom "Antworten auf Fragen liefern" leistet. Was die Qualität betrifft, ist das zumindest in Einzelfällen (ich formuliere mal vorsichtig) unter aller Kanone und keinen Schuss Pulver wert. Jetzt muss man nur noch hinterfragen, wie die "gelebte Praxis" in Zukunft sein wird, wenn KI da breiter genutzt wird. Wie schwer wiegen die Komponenten "Druck vom Management, produktiver zu sein" und "ach, wird schon irgendwie passen, raus damit"? Die Antwort mag sich jeder geben – ich selbst kann nur aus Erfahrung sagen: Es wird schief gehen … wenn ich eigene Texte Korrektur lesen soll, klappt das nur in vernünftiger Qualität, wenn diese ausgedruckt werden, dann mindestens 24 Stunden, besser länger, liegen und mit viel Zeit gelesen werden.
Und wenn ich so meine Erfahrungen mit jungen Mitarbeitern (die ich vor > 30 Jahren sammeln durfte) werte, sah es dort nicht wirklich besser aus – sondern war oft die schiere Katastrophe.
Zitat :"Ja, es ist beeindruckend, was ein LLM vom "Antworten auf Fragen liefern" leistet. Was die Qualität betrifft, ist das zumindest in Einzelfällen (ich formuliere mal vorsichtig) unter aller Kanone und keinen Schuss Pulver wert. "
Und damit sind aktuelle Ergebnisse und Antworten eigentlich nichts mehr Wert.
Bei meiner Smartwatch ist es ähnlich. Der Puls wird ziemlich genau gemessen (überprüft). Leider gibt es auch einige (viele) Gelegenheiten, wo die Anzeige vom realen Puls extrem abweicht.
Damit musste ich mir eingestehen, dass die Anzeige kaum einen Wert hat. Selbst wenn nur 20% der Anzeigen fehlerhaft sind, dann weiß ich immer noch nicht, wann diese 20% auftreten. Ohne Kontrolle sind damit alle Anzeigen nicht vertrauenwürdig.
Bei LLM scheint es ähnlich zu sein.
Genauso wie bei meiner Smartwatch sind es nicht die extremen Abweichungen. Die fallen sofort auf. Es sind eher die mittleren Abweichungen, die noch plausibel ausschauen.
O M G !
Ich kann nur beten und hoffen, daß meine Gesundheit niemals von einer K.I. abhängig sein wird, geschweige denn irgendwelche Behandlungspläne.
Mediziner verlieren dadurch eigenständiges Denken. Diagnoseerstellung, Behandlung, Medikamente, all das sollte nur von einem grundsoliden ausgebildeten Arzt erstellt werden.
Dieser ganze K.I. Hype ist eine Pest.
Dann bete auch, dass die elektronische Patientenakte (ePA) mit "Austrittsmöglichkeiten" kommt. Ich habe ja mit Familienmitglieder das "Erstdiagnose-Syndrom" hautnah erlebt. Eine Oberärztin meinte "das schreiben wir aber so nicht in die Patientenakte (auf Papier) rein, das kriegen sie nie wieder raus". Diese Ärztin hat mitgedacht – top.
Und in einem anderen Fall war ein Oberärztin im Autopilot-Modus und ließ sich nicht beirren, aus meiner Sicht "ziemlichen Unsinn" in einen Arztbrief reinzuschreiben. Ich hätte die Dame an die Wand klatschen können. Im Rahmen einer Zweitmeinung habe ich dann eine Geratrie-Abteilung in einer anderen Klinik konsultiert. Chefarzt so "Oh, die Kollegin hat ja schon eine Diagnose gestellt – das ist dann halt so …". Auf meinen Einwand, dass der Verlauf niemals zur Theorie der Diagnose passe, hat er nicht reagiert.
Als wir aus dem Gespräch gingen, hat mich ein Assistenzarzt beiseite genommen und fragte mich nach der Vorgeschichte aus. Dann sagte er "ich stelle ein interdisziplinäres Team zusammen, dann sehen wir weiter". Fand auch statt und es gab dann eine gänzlich andere neurologisch basierte Diagnose, die dann auch behandelt werden konnte.
Das zeigt, wie stark "Systemzwänge mit vorgeprägten Meinungen, wirtschaftlichem Druck und was weiß ich" wirken können. Der mündige und aufgeklärte Patient oder Familienangehörige ist da nur Störfaktor. Aktuell haben wir noch das Glück, dass es noch eine Menge engagierter Mediziner gibt, die noch was hinterfragen. Aber wie das in 10, 15 oder 20 Jahren ausschaut, weiß ich nicht.
In mittlerer Zukunft macht das alles eine "KI", die aus irgendwelchen Patientenakten mit dort nicht/falsch eingetragenen Diagnosen "gelernt" hat. Schöne neue Welt.
Einen späten guten Morgen, lieber Günter.
Ja, das ist auch so ein Ding. Diese elektronische Patientenakte.
Da bin ich hochsensibilisert. Momentan ist das ja noch nicht als Zwang verfügbar. Meine Krankenkasse hatte ich ja schon letztes Jahr -vorsorglich- angeschrieben, auf dem Papierweg. Ich wollte halt sicher gehen, daß da momentan nichts hinter meinen Rücken geschiet. Die Krankenkasse beteuerte, daß meine Karte nicht dazu genutzt wird. Immerhin habe ich das schriftlich.
Aber wenn es tatsächlich eines Tages so sein sollte, daß dies ein Zwang ist – ohne Austrittsmöglichkeit…… wäre dies eine echte Bankrotterklärung der Gesellschaft. Denn diese ist mitverantwortlich, daß Politiker einfach so tun können was sie gerade wollen.
Als Gesellschaft hat man Möglichkeiten, der Politik ordentlich Druck zu machen. Natürlich nur gemeinsam.
Noch etwas ist mir aufgefallen. Als ich letztes Jahr beim HNO war, mußte mir eine Ohrspülung gemacht werden. Dabei wurde auch intensiv geredet. Naiv, wie ich war, erzählte ich eben u.a. auch, daß ich Raucherin bin. ( Ich sagte sowas wie:"… Das war eine heftige Untersuchung, nun brauche ich einen Kaffee und eine Zigarette".)
Was soll ich sagen? Zwei Wochen später rief ich wegen einer anderen Sache bei meiner Krankenkasse an. Die Mitarbeiterin listete mir auf, bei welchen Ärzten ich in den letzten zwei Jahren war. Ich mußte dies wissen. Dabei fragte ich sie, was denn der Arzt (HNO) so geschrieben hat, an die Krankenkasse?
U.a. schrieb er: " ..starker Nikotinmißbrauch.."
Nun, ich weiß zwar nicht, ob zwischen 4 – 9 Zigaretten pro Tag man von einem starkem Nikotinmißbrauch reden kann aber…..
….da wurde mir bewußt, daß ich nie wieder einem Arzt irgendetwas sagen werde daß meinen Lebenstil betrifft. Also werde ich bei solchen Dingen eben lügen oder verheimlichen.
Es war einer von diesen Ärzten (Personen), die im Alter ( ab 50+++) noch meinen, sie müßten mit den ganz jungen Leuten ( 20 +++) noch mithalten.
Herren, die mit zu engen Radlerhosen, Alienkopfschutz und Sportsonnenbrille die einfache Bevölkerung gerne auf den Straßen aufhalten / behindern, mit ihrem Sportrad.
Selbstredend ernähren sie sich nur vegetarisch oder gar vegan und trinken natürlich nur einmal im Jahr etwas Alkohol. (Sylvester).
Zucker und Salz sind natürlich ganz böse und wer nicht mindestens 4 Mal pro Woche Sport treibt, ist eine Persona non grata. ;-)
Ja, aber wie gesagt, da ist ganz viel Unheil unterwegs, in Puncto Digitalisierung….. überall. Die Augen sollten ganz weit aufgerissen und wach sein.
lG
Manu
In kleinerem Umfang gibt es diese elektronische Patientenakte schon länger – in großen Universitätskliniken.
Ich bin auch immer wieder erstaunt welche Informationen da völlig fachrichtungsübergreifend zusammengetragen und dem Arzt auf seinem Tablet (Papier hat dort keiner mehr) präsentiert werden.
Guten Tag Fritz
Zitat:
In kleinerem Umfang gibt es diese elektronische Patientenakte schon länger – in großen Universitätskliniken.
Zitat Ende
Du meinst wahrscheinlich in derem Rechensystem. Aber nicht auf unser aller Krankenkassenkarte.
Denn auf dieser muß erst etwas freigeschaltet werden, damit da dies geschrieben werden kann.
lG
Manu
Nur zur Ergänzung: Auf dem Chip der Krankenkassenkarte wird nichts geschrieben – die dient nur zur Authentifizierung und Autorisierung. Die Daten werden dann zentral bei der Krankenkasse oder einem Dienstleister gespeichert. Es wird noch lustig zu verfolgen, wie das mit den "versprochenen" feingranularen Zugriffsberechtigungen ablaufen soll und was die Praxis daraus macht. Die Ärzte und Patienten tun mir jetzt schon leid.
Ja und es wird noch schlimmer, habe gerade einen Artikel gelesen….
Zitat:
Dieser Paradigmenwechsel vom Opt-In zum Opt-Out geht zulasten der Versicherten – zumal grundlegende Fragen des Datenschutzes und der Datensicherheit weitgehend ungeklärt sind. Darüber hinaus bereitet der Minister nicht nur die Weitergabe der Gesundheitsdaten von Millionen Versicherten an den geplanten Europäischen Gesundheitsdatenraum (EHDS) vor, sondern er will eigenen Angaben zufolge auch den Datenhandel mit den USA ausbauen.
Zitat Ende
Quelle:https://netzpolitik.org/2023/gesundheitsdaten-opt-out-digitalisierung-ohne-ruecksicht-auf-versicherte/
Verzeihung lieber Herr Born, für den folgenden Satz aber ich muß ihn sagen:
Es ist alles so eine Riesensauerrei!
Das Problem mit allen Helferlein ist, das Menschen ihr irgendwann leichtfertig vertrauen und irgendwann gar nicht mehr verstehen was in der Blackbox passiert.
Und ach nicht einschätzen können ob das Ergebnis plausibel ist.
Simples Beispiel:
21,45 * 20,89
Ich weiß wie man es berechnet …und ich weiß das ein Ergebnis sehr viel näher an 400 ( 20×20 ) als bei 625 ( 25×25 ) liegen muss ( wenn ich 23*23 nicht gerade auch weiß )
Vielen geht das aber ab.
Die tippen es in den Rechner und übernehmen das Ergebnis als richtig – egal wie es lautet.
Und bei vielen intelligenten Helfern ist es ähnlich ( z.b. auch Navi )
Man selbst hat keine Vorstellung darüber was eine Lösung wäre oder wo es Grenzen gibt ( Achtung …es müsste jetzt eigentlich bald ein Fluss kommen ) … und fährt munter drauf los.
Und Ki ist dann einfach nur der große Bruder.
Und die Gefahr ist, das die Expertise auch im kleinen verschwindet, so das man nicht einmal mehr von der inneren Stimme gewarnt wird ( "Das kann doch nicht stimmen ? " ) , wenn man auf eine Katastrophe zusteuert.
Wenn es um "wichtige" Entscheidungen/Prozesse geht müsste es wenigstens mindestens 2-3 unabhängige+unterschiedliche KI-Systeme geben.
Und erste wenn die einer Meinung sind …
Und dann sollte man als Anwender noch sein Werkzeug verstehen.
ChatGPT und Co. sind nur Sprachmodelle.
Da geht es eher nur um das wahrscheinlich nächste "richtige" Wort …und nicht darum,
ob eine Problem verstanden wurde.
Man wird mittelfristig nicht um KI herumkommen, vor allem nicht im medizinischen Bereich. Aber die sollte mehr unterstützen statt selbst Diagnosen zu erstellen.
Ich denke das es vor allen in Medizinischen Geräten zum Einsatz kommt, wo evtl. das menschlische Auge nichts mehr auf dem CT erkennt kann eine KI direkt mit tausenden Scanns abgleichen und dadurch schon eine Entstehung z.B. von Tumoren erkennen, zweites Beispiel: Operationsrobotor, die eine Blutung bereit wieder gestillt haben bevor die überhaupt von einem Menschen entdeckt wurde.
Man muss nicht alles schwarzmalen, ChatGPT ist nicht einmal die "Spitze eines Eisbergs" was KI betrifft, bis "richtige" KI verfügbar ist, vergehen noch ein paar Jahre, dafür müssen besser und andere Prozessoren und auch andere Datenmodelle sicherlich.
"Was ist, wenn eine neue Personalgeneration nicht mehr gelernt hat, auf eigene Erfahrungen zu vertrauen und auf die Vorgaben der KI baut?"
Das was dann überall passiert: Es wird falsch gemacht, was eigentlich jeder Depp mit Grundausbildung als falsch erkennen müsste.
Es werden in dem Fall also Menschen sterben. Und man wird dann mächtig "aufräumen" müssen.
Wir haben das Phänomen (ohne direkte Lebensgefahr) im öffentlichen Bereich schon ewig, weil hochspezialisierte zur Bearbeitung der Unmengen von verschiedenen Aufgaben schon ewig unverzichtbar sind. Da machen die Programme halt auch Vorschläge, was man machen sollte.
Und der Satz "das hat das Programm aber so gesagt" von nicht mehr mitdenkenden Kolleginnen ist bei den erfahrenen Fachkräften verhasst bis zum Gehtnichtmehr.
Man muss das nicht mal nicht lernen, diverse Menschen verlernen einfach, was sie mal konnten. Gehirn abschalten umd Energie sparen scheint eine normale Strategie zu sein und wird sofort dann gewählt, wenn Software (zu 95% richtige, aber eben auch 5% falsche) Vorschläge macht und man nicht mehr denken MUSS.
Umd die denken dann, 90% richtig wäre eine gute Leistung und es gäbe nichts zu kritisieren (meist wird in völlig absurden Fällen auch noch vom klar richtigen Vorschlag abgewichen, so dass es dann besser wäre, man würde ganz auf die Person verzichten. Übrigens dann auch eine valide Wahl, die man lieber früher als später auch treffen sollte.)
Was ich da schon an Szenen erlebt habe, da will ich gar nicht dran denken. Inklusive dem lustigen Punkt, dass die zu jedem Zeitpunkt wussten, dass das falsch war. Aber es trotzdem gemacht haben. Weil sie sich als Diener der Software verstanden haben und nicht diese als Tool (wie man es auch explizit lernt). "Dann muss ich das doch machen!" *entrüstet* Oder irgendsoein krudes Zeug. Wo man nur schnell gucken kann und vielleicht noch fragen: alles in Ordnung bei dir?
Meine Theorie ist ja, dass dieses ganze Zeug da draußen, sei es Android, Consumer Windows oder sowas, die Leute so dermaßen darauf trainiert, zu machen was das Gerät sagt, dass schwächere Charaktere dadurch die Fähigkeit verlieren, verantwortungsbewusst mit Software am Arbeitsplatz umzugehen.
Und dass dieses Gegängele damit schädlich für die Funktion der Gesellschaft ist. Und dann halt irgendwann Leute umbringt. Und logischerweise deshalb schon heute verboten sein sollte.
Aber nur meine Theorie. Für mich aber ausreichend, um jedes "KI"-gestützte Krankenhaus sicherheitshalber zu meiden, wenn möglich. Hätte ich gerne neben meinem Organspendeausweis als Dokument im Porto: keine KI-KHs!
Aus aktuellem Anlass:
https://twitter.com/Karl_Lauterbach/status/1670811986811056129