Datenschutzbeauftragte: Patientendaten gehören nicht in die sozialen Medien & KI als neue Bedrohung

Gesundheit (Pexels, frei verwendbar)Die Landesdatenschutzbeauftrage von Nordrhein-Westfalen sieht einen Trend, dass auch im Medizinbereich Daten in sozialen Medien landen und warnt "Daten von Patienten und Patientinnen gehören nicht in die sozialen Medien".  Treiber sei die Selbstdarstellung der betreffenden Personen, die sich dafür ihrer Patienten und Patientinnen bedienen. Das kann strafbare Konsequenzen haben. Und weil es irgendwie passt, kippe ich noch das Thema "Patientendatenabfluss durch KI" mit dazu.

Die Secure-Boot-Zertifikate laufen ab. Was sollen Admins tun? Kostenloses eBook » (Sponsored by IT Pro)

Ich gestehe, mir war das Thema nicht so gegenwärtig und ich hatte das auch nicht vermutet. Bettina Gayk, Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein-Westfalen (LDI NRW), schreibt in einer Mitteilung, dass es unter Ärzten und Ärztinnen sowie Pflegekräften einen Trend gebe, sich selbst oder die eigenen Leistungen in den Sozialen Medien zu vermarkten. Dabei greift man auch auf Patienten und Patientinnen zurück, die für diese Zwecke instrumentalisiert werden.

Fälle aus Beschwerden, die sprachlos machen

Bei der LDI von Nordrhein-Westfalen sind verschiedene Fälle gelandet, die "sprachlos machen", schreib Gayk. So seien in NRW mehrfach Pflegepersonal aufgefallen, das pflegebedürftige Personen durch sogenannte Reels oder Livestreams im Internet zur Schau gestellt hätten. Teilweise hätten diese Personen diese Videos während ihrer Arbeit oder in den Pausen angefertigt. Im Anschluss wurden diese Videos auf Social-Media-Plattformen geteilt. Manchmal sei auch live gefilmt worden oder es wurden Aufnahmen via Snapchat verbreitet.

In einem besonders schweren Fall postete eine Pflegekraft regelmäßig Videos, in denen schwer erkrankte Körper zu sehen waren. Als Kontrast dazu teilte sie in anderen Videos ihr eigenes Leben. Die Reduzierung auf Körperteile führt nicht automatisch dazu, dass es sich um anonyme Daten handelt, die dem Datenschutz nicht unterliegen. Markante Körpermerkmale oder auch das räumliche Umfeld auf Fotos können dazu führen, dass die betroffene Person für Verwandtschaft oder Freunde identifizierbar bleibt, schreibt Gayk.

"So etwas ist eindeutig rechtswidrig", erklärt Landesbeauftragte Gayk. "Selbst die Einwilligung der Betroffenen kann selten als Grundlage der Datenverarbeitung dienen. Häufig fehlt es wegen des Krankheitsbildes bereits an der Einwilligungsfähigkeit. Da die medizinische Behandlung auch von einer Abhängigkeit zwischen Patient bzw. Patientin und Fachkräften geprägt ist, muss außerdem die Freiwilligkeit einer solchen Einwilligung oft in Frage gestellt werden."

Auch "gut gemeint" kann Datenschutzverstoß sein

Die LDI merkt an, dass selbst, wenn keine böse Absicht verfolgt wird, das Pflegepersonal oder die Mediziner leicht Datenschutzverstöße begehen können. Sie erwähnt etwa Werbeversuche eines Schönheitschirurgen und einer Psychotherapeutin auf Instagram.

Fail eines Schönheitschirurgen

Der Chirurg hatte zur Vorbereitung einer Brustvergrößerung Bilder des entblößten Brustbereichs einer Patientin angefertigt, um ihr mit einer neu verfügbaren Technik das künftige Erscheinungsbild zu präsentieren. Ohne Wissen und Einwilligung der Frau veröffentlichte die Arztpraxis dann einen Tag später auf ihrem Instagram-Account eines der angefertigten Bilder, um für die neue Technik zu werben. Dabei zeigte das Bild neben dem möglichen Operationsergebnis versehentlich auch noch den im Bildausschnitt lesbaren Klarnamen der Patientin.

Patzer einer Psychotherapeutin

Der zweite Fall, den Bettina Gayk präsentiert, betraf eine Psychotherapeutin. Im Fall der Psychotherapeutin war der genehmigte Therapieantrag einer Krankenkasse Stein des Anstoßes. Die Therapeutin hatte den Antrag ihren Followern und Followerinnen präsentiert, um den Erfolg mit diesen zu feiern. Zu diesem Zweck lud die Damen ein Foto der Bewilligung auf ihrem Social-Media-Account hoch. Was die Psychotherapeutin übersehen hatte: Sie postete nicht nur die Bewilligung öffentlich. Sondern im Foto war auch der Name der Patientin klar lesbar war.

"Beide Fälle zeigen, wie schnell beim Umgang mit Social-Media Fehler passieren können. Und was erst einmal gepostet ist, lässt sich nicht mehr zurückholen. Die Account-Besitzer und Besitzerinnen haben es dann nicht mehr in der Hand, wer die veröffentlichten Daten zu Gesicht bekommt", warnt die Landesbeauftragte. Sie rät deshalb, von derartigen Aktionen lieber ganz abzusehen oder zumindest äußerst sorgfältig vorzugehen. "Erfolgen solche Posts zu Werbezwecken und ohne rechtswirksame Einwilligung der Betroffenen, ist das datenschutzrechtlich unzulässig. Auch fahrlässige Datenschutzverstöße kann meine Behörde mit Bußgeldern ahnden."

KI, oder der Elefant im Raum wird nicht genannt

Die LDI fokussierte sich in ihrer Warnung klar auf den abgegrenzten Bereich von Social Media Posts. Mit der zunehmenden Verbreitung von KI in Software-Produkten sehe ich noch eine viel größere Gefahr, dass Daten in diesem Bereich außer Kontrolle geraten.

Ein Copilot in Microsoft 365-Anwendungen oder in Windows, eine KI-Lösung im Adobe Acrobat-Reader etc. Dann reicht es, wenn ein Beschäftigter im Medizinbereich Dokumente von Patienten und Patientinnen zum Ansehen öffnet. Oder ein Arztbrief wird mit Microsoft Word verfasst, während der Copilot im Hintergrund mit liest.

Ohne besondere Absicherung besteht die Gefahr, dass die Daten dann an den Betreiber der AI-Lösung übertragen werden. Ich hatte gerade im Artikel Nach Anthropic-Rauswurf beim US-Verteidigungsministerium springt OpenAI ein auf eine Auswertung der Datenschutzrichtlinien der sechs größten KI-Unternehmen in Amerika durch Forscher von Stanford HAI hingewiesen. Ich kürze mal meine Ausführungen aus dem Artikel ab:

  • Jedes einzelne Unternehmen sammelt standardmäßig die Chat-Daten seiner Benutzer und speist diese (teilweise für immer) in das Modelltraining ein.
  • Einige dieser Unternehmen lassen menschliche Mitarbeiter die Chat-Protokolle (keine anonymisierten Zusammenfassungen) als Teil des Trainingsprozesses lesen.
  • Bei Unternehmen wie Google, Meta, Microsoft und Amazon bleiben die Daten nicht in den Modellen, sondern werden mit allem anderen zusammengeführt, was diese Unternehmen bereits über den jeweiligen Benutzer wissen.

Das ist ein "blinder Fleck", der im KI-Enthusiasmus bisher (meinem Gefühl nach) noch überhaupt nicht bedacht und thematisiert wird. Kürzlich ging das Forschungsergebnis durch die Medien, dass sich urheberrechtlich geschütztes Material aus LLM-Trainingsdaten durch geschicktes Prompting rekonstruieren lässt. Das Ganze ist als "Harry Potter-Fall" bekannt, d.h. die Forscher konnten fast den gesamten Text von Harry Potter aus den Trainingsdaten des LLM rekonstruieren. Das Forschungspapier besitzt den Titel ThinkEval: Practical Evaluation of Knowledge Leakage in LLM Editing using Thought-based Knowledge Graphs von Januar 2026 zeigt den Abgrund des "Knowledge Leakage" (als Wissensabfluss). Die Erkenntnisse wurden auf deutsch von heise in diesem Artikel aufbereitet. Wenn sich LLMs jailbreaken lassen, um Sicherheitsmechanismen zu umgehen, sind Daten aus per KI analysierten Dokumenten ebenfalls abrufbar.

Das zweite Problem besteht darin, dass LLMs gemäß einer neuen Forschungsarbeit sehr schnell eine Person über deren Daten de-anonymisieren können. Ich hatte das Thema die Tage bereits auf X gesehen – ein Leser hat im Diskussionsbereich gerade auf den entsprechenden Forschungsbericht Large-scale online deanonymization with LLMs verwiesen. Ein deutschsprachiger Artikel zum Thema findet sich hier.

Damit haben wir den Plot für die großen Datenschutzskandale der kommenden Jahre. Aber der Themenkomplex ist meiner Beobachtung nach (außerhalb von einigen Fachleuten) noch überhaupt nicht auf dem Radar. Und man möge mir nicht erzählen, dass Data Loss Prevention (DLP) künftig zur Ausstattung der IT-Systeme von Therapeuten oder Arztpraxen gehört. Oder wie seht ihr das?

Dieser Beitrag wurde unter Problem, Sicherheit abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

14 Kommentare zu Datenschutzbeauftragte: Patientendaten gehören nicht in die sozialen Medien & KI als neue Bedrohung

  1. Luzifer sagt:

    Auf dem Radar von Leuten die eher skeptisch mit KI & Co. umgehen ganz sicher!
    Nur die Masse die sowieso jedes intimste Details in (a)Social Medien posten juckt das relativ wenig.(Klar kann sich dadurch doch jeder noch so dumbe NoName bedeutend fühlen… 5 min fame) Es ist nun mal so: Außerhalb unsere Nerd Blase ist das World Wide Web mit all ihren Abarten eben nicht nur für Politiker #Neuland! Auch wenn die digital Naiven das niemals zugeben würden.
    Selbst hier tummeln sich mehr "blauäugige" als Leute die kritisch hinterfragen.

    Datenschutz beginnt bei dir selbst! Was du nicht postest kann auch nicht entwendet werden. Datenminimierung! Du selbst bist verantwortlich.

    • Günter Born sagt:

      Zum letzten Satz: Leider knapp daneben. Ja, der Großteil der Leserschaft hier im Blog ist da sensibilisiert. Nur leben wir alle nicht auf einer einsamen Eisscholle mit 1.000 Seemeilen Ozean drum rum und keine Kontakte zur Außenwelt. Du schließt eine Versicherung ab – deine Daten werden von X Stellen durch irgendwelche Software genudelt. Du gehst zum Arzt – deine Daten werden durch X Anwendungen genudelt und landen über die Krankenkassen beim Forschungsdatenzentrum (die GFF hat die Tage doch Klage erhoben). Du kaufst irgendwo etwas ein – deine Daten landen, sofern Du nicht bar bezahlst (und selbst da bin ich nicht so sicher, ob man über Big-Data nicht eine individuelle Zuordnung über die auf Banknoten aufgedruckte Seriennummern hinbekommt), wiederum bei vielen Stellen. Und nun schreiben wir das Ganze mit dem von mir in Teil 2 des Artikels angerissenen KI-Problematik fort.

      Da kannst Du noch so viel auf deine Daten achten – die leaken über andere Stellen zu vielen Datensenken. Voriges Jahr kam ein Brief von Amplifon zum "kostenlosen" Hörtest für mich – die wussten genau, dass ich zur Altgruppe gehöre, wo so etwas "zündet". Konnte Frau nicht davon abhalten, mal schnell eine Anmeldung vorzunehmen. Ergebnis: "Schlecht hören, kann ich gut" – aber das weiß meine Frau schon seit 52 Jahren. Hörgerät brauche ich (noch) nicht. Seit dem ging der Amplifon-Werbeterror erst richtig los. Dabei habe ich an Stellen wie Einwohnermeldeamt einen Datenweitergabe-Widerspruch gestellt. Werde denen jetzt per DSGVO-Auskunft und möglicherweise mit einer Beschwerde beim LDI Dampf machen.

      Du leakst überall unfreiwillig Daten, wenn Du in den letzten 20 Jahren irgendwo Kontakt zur digitalen Welt hattest. Und die Zeichen stehen mit dem "Digital Omnibus" eher auf noch mehr Gelegenheit zum Leaken als auf "noch strengere Regeln zur Datenweitergabe". Das ist die bittere Wahrheit – datensouverän sind wir doch schon lange nicht mehr.

      Und wenn ich mir die Vorfälle der letzten 12 Monate beim Thema "KI" so ansehe (z.B. OpenClaw & Co.) wo studierte Leute – angeblich sogar für KI-Sicherheit bei Großunternehmen zuständig – völlig naiv und blauäugig mal eben machen – geht mein Optimismus gerade rapide in den Keller.

      Keiner käme auf die Idee, die Haustür weit zu öffnen, ein Schild aufzustellen "kommt alle rein, Geldbörse liegt auf dem Tisch, da dürft ihr machen und optimieren, wie ihr wollt". Bei Digital ist für die meisten Menschen nichts fassbar, da wird genau nach dem "kommt alle rein"-Szenario gehandelt. Firmen überprüfen die Angestellten teils auf Herz und Nieren – aber das Management lässt unbekannte Chat-Bots, von denen keiner weiß, was sie tun, auf die internen Prozesse … einfach mal wirken lassen.

      • Chris sagt:

        @GB

        Die Antwort von Luzifer mag wieder einmal etwas herablassend und auch einseitig sein. Trotzdem trifft sie vielfältig zu.

        Ich teile Deine Ansicht.
        Datenschutz ist mir eigentlich wichtig.
        Trotzdem bleibt das unschöne Gefühl, ob z.B Word meine Texte mitliest.
        Auch die Frage, ob die KI von MS irgendwelche Daten beim täglichen Arbeiten zum Training benutzt, ist nicht gerade vertrauenserweckend.
        Die KI ist dabei so gut wie möglich deaktiviert.

        Die Ansicht von Luzifer kann ich trotzdem zum großen Teil nachvollziehen.
        Wenn ich im Bekanntenkreis z.B. Datenschutz und Tracking anspreche, dann ernte ich eher Unverständnis.
        Selbst auf Hinweis meinerseits ist das Interesse am Widersprich der ePA gering.
        Bekannte von mir teilen ihren Live Standort in der Familie mit Google Maps. Auf meine Warnung reagierte man mit den bekannten Antworten.
        Da interessiert sich Keiner für das Verarbeiten "persönlicher" Daten durch eine KI.
        Im Gegenteil. Persönliche Daten (Gewinnspiele, Social Media, usw.) werden wie Bonbons verteilt.

        • Günter Born sagt:

          Zu "Wenn ich im Bekanntenkreis z.B. Datenschutz und Tracking anspreche …" rotes Tuch in meiner Familie. Frau stuft mich als "Datenschutz-Fanatiker" ein – die Leute wechseln schon die Straßenseite, wenn sie dich sehen ;-). Nur wenn was passiert ist, steht man kleinlaut "kannst Du mal schauen und was machen" auf der Matte.

          Manchmal geht mir der Gedanke "Herr, wirf Hirn vom Himmel" durch den Kopf. Meine Interpretation: Bei einem Messer ist den meisten Leuten die Erfahrung "damit kannst Du dich schneiden", mit einem Hammer "kannst Du dir auf die Finger hauen" gegenwärtig. Digital ist nicht fassbar, den Leuten ist nicht klar, was im Hintergrund passiert. Selbst meiner Wenigkeit gehen regelmäßig die Augen auf, wenn ich mitbekomme, was tief hinter den Kulissen alles möglich ist – Snowden ist mit seinen Enthüllungen in Vergessenheit geraten, aber das war Waisenkind gegenüber dem, was heute möglich ist. Es ist zum Haare raufen. Meine Kinder und Enkel tun mir diesbezüglich leid, denn die wird es heftig treffen.

          PS: Die "Gewinnspiele" sind einigen Leuten ja bei 1N Telecom böse auf die Füße gefallen.

          • noway sagt:

            Geht mir auch so. Uns es ist tatsächlich so, es ist zu abstrakt und komplex, als dass man es den meisten Menschen begreiflich machen könnte. Und trotzdem nutzen sie es…

      • Luzifer sagt:

        Ja richtig es gibt immer Daten die man hinterlässt, aber den Abdruck kann man minimal halten!
        Ich nutze keine ePA, der Datenwiedergabe beim Arzt widerspreche ich (wenn es nicht anders geht zulassen und beim Verlassen der Praxis den Widerruf) KI /Cloud ist nicht (a)soziale Medien auch nicht… beim einkaufen wird bar bezahlt, ansonsten darauf geachtet nur die absolut notwendigen Daten preiszugeben! Wenn nicht FSK18 relevant ist braucht kein Händler mein Geburtsdatum usw. Das Einwohnermeldeamt hat das Verbot der Datenweitergabe…

        Daten die erst gar nicht im Umlauf sind sind der beste Datenschutz!

        Klar wer halt ohne Fratzenbuch TicToc X Twitter und wie sie alles lauten nicht klarkommt… hat das selbst zu Verantworten! Ist alles jedoch nix was man wirklich braucht.

        • Luzifer sagt:

          /edit/
          geil find ich ja die, welche über Datenschutzverstöße Privatsphärenverstöße usw. wettern, dann aber auf Fratzenbuch & Co noch so intimste Details rausposaunen bis hin zu Bilder der Kackwurst bei der Morgentoilette!

      • Anonym sagt:

        Hier der hessische Link zum Template für einen Widerspruch der Datenweitergabe beim jeweiligen Einwohnermeldeamt:

        "https://datenschutz.hessen.de/sites/datenschutz.hessen.de/files/2022-10/widerspruch_gegen_die_weitergabe_der_daten_durch_meldebehoerde.pdf"

    • noway sagt:

      Gut gesprochen, Günter.
      Du brauchst auch nur irgendwo angestellt zu sein, wo der Chef nichts von "innovationsfeindlichem Datenschutz" hält… Du kannst so viel aufpassen, wie Du willst, Kollateralschaden wirst Du garantiert irgendwo, weil andere so unvorsichtig sind.

    • Visitator sagt:

      Was ich nicht poste, kann nicht entwendet werden, logisch.
      Aber wie soll ich verhindern, dass ein Arzt, eine Pflegekraft, eine KI oder ein dämlicher Bekannter etwas über mich verbreitet?
      Ich würde es wahrscheinlich nicht mal merken, weil ich bei SM nicht mitmache.

      Betr. Übermittlungssperren :
      Damals im letzten Jahrtausend beim Einwohnermeldeamt: Die Mitarbeiterin entfernte irgendwelche Durchschläge vom Papier-Formular, ich fragte nach, was das wäre und sah, dass es die Übermittlungssperren waren, worauf ich sie fragte, ob sie mit der "Adressbuchmafia" verbandelt sei, und bestand auf Einrichtung der Sperren.
      Zusätzlich empfehle ich die Robinsonliste.de
      Ich kann gar nicht sagen, wann ich den letzten Werbebrief bekommen habe, ist Ewigkeiten her.

  2. John sagt:

    Zum Fall mit dem Schönheitschirurgen:
    Der hat gar keine Patientenbilder ohne Einwilligung zu Posten! Auch ohne Klarname ist das ein schwerer Eingriff.
    In dem Fall kommt erschwerend hinzu, dass die Patientin die Brustvergrößerung mit einem Grund machen lassen wollte. Muss dann auf dem Auftritt des Arztes noch ihre Brust als Beispiel für "zu kleine Brüste" sehen.

    Eine Bekannte ist lehrende Psychologin. Sie lässt sich z.b. für Klausuren Krankengeschichten von Chat-Gpt erstellen. Damit die auch unbewusst nicht zu viel ihrer Patienten bloßgibt. Fand ich bisher die beste mir bekannte Anwendung der Technik. Jetzt könnten hier aber echte Krankengeschichten leaken.

    Das wird alles immer schlimmer 😐

  3. Markus sagt:

    Selbstdarstellung schlägt Hirn und Eigen-/Fremd-Verantwortung.

    Es gibt zudem auch Hebammen, Hautärzte, Heilpraktiker und auch Frauenärzte, die per Whatsapp Ferndiagnosen oder Tipps geben anhand von Patienten per WhatsApp geschickter Smartphone-Fotos. Das landet dann alles schön auf amerikanischen Servern und in der Cloud.
    (sarcasm an)
    Ich bin mir nicht sicher, ob ich das erschreckend finden soll …. oder ob ich das gut finden soll, da die NSA-KI/Cloud/Agents dann mit solchen teils sehr intimen Fotos beschäftigt ist/sind. :-) :-( ????
    (sarcasm aus)

    Man sollte das Bildungssystem wirklich überarbeiten …. Statt begrifflicher Grundlagen (Eltern, Kind, Vererbung, Attribute, Methoden) im Informatik-Buch der bayerischen Gymnasien in der 7. Jahrgangstufe (habs bei unserem Kind erlebt) zu verkünsteln, wäre ein Internet- und Datenschutz-Führerschein durchaus angebracht.
    Aber was soll man von einem bayer. Kultusministerium erwarten, dessen Landesvater bekennender Foodie-Selbstdarsteller und Microsoft-Günstling zu sein scheint … :-)

    • Visitator sagt:

      Patientenbilder:
      Wäre schön, wenn WhatsApp analog zu Microsoft-OneDrive & Co. einfach mal ohne Vorwarnung den Account final sperren würde, wenn nackte Haut im Spiel ist. Vielleicht lernen sie es dann.
      "Liebe Patientinnen, leider bin ich über WhatsApp nicht mehr erreichbar, da ich eure Brust-Bilder geleakt habe :-("

Antworte auf den Kommentar von Luzifer Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.