Die Landesdatenschutzbeauftrage von Nordrhein-Westfalen sieht einen Trend, dass auch im Medizinbereich Daten in sozialen Medien landen und warnt "Daten von Patienten und Patientinnen gehören nicht in die sozialen Medien". Treiber sei die Selbstdarstellung der betreffenden Personen, die sich dafür ihrer Patienten und Patientinnen bedienen. Das kann strafbare Konsequenzen haben. Und weil es irgendwie passt, kippe ich noch das Thema "Patientendatenabfluss durch KI" mit dazu.
Ich gestehe, mir war das Thema nicht so gegenwärtig und ich hatte das auch nicht vermutet. Bettina Gayk, Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein-Westfalen (LDI NRW), schreibt in einer Mitteilung, dass es unter Ärzten und Ärztinnen sowie Pflegekräften einen Trend gebe, sich selbst oder die eigenen Leistungen in den Sozialen Medien zu vermarkten. Dabei greift man auch auf Patienten und Patientinnen zurück, die für diese Zwecke instrumentalisiert werden.
Fälle aus Beschwerden, die sprachlos machen
Bei der LDI von Nordrhein-Westfalen sind verschiedene Fälle gelandet, die "sprachlos machen", schreib Gayk. So seien in NRW mehrfach Pflegepersonal aufgefallen, das pflegebedürftige Personen durch sogenannte Reels oder Livestreams im Internet zur Schau gestellt hätten. Teilweise hätten diese Personen diese Videos während ihrer Arbeit oder in den Pausen angefertigt. Im Anschluss wurden diese Videos auf Social-Media-Plattformen geteilt. Manchmal sei auch live gefilmt worden oder es wurden Aufnahmen via Snapchat verbreitet.
In einem besonders schweren Fall postete eine Pflegekraft regelmäßig Videos, in denen schwer erkrankte Körper zu sehen waren. Als Kontrast dazu teilte sie in anderen Videos ihr eigenes Leben. Die Reduzierung auf Körperteile führt nicht automatisch dazu, dass es sich um anonyme Daten handelt, die dem Datenschutz nicht unterliegen. Markante Körpermerkmale oder auch das räumliche Umfeld auf Fotos können dazu führen, dass die betroffene Person für Verwandtschaft oder Freunde identifizierbar bleibt, schreibt Gayk.
"So etwas ist eindeutig rechtswidrig", erklärt Landesbeauftragte Gayk. "Selbst die Einwilligung der Betroffenen kann selten als Grundlage der Datenverarbeitung dienen. Häufig fehlt es wegen des Krankheitsbildes bereits an der Einwilligungsfähigkeit. Da die medizinische Behandlung auch von einer Abhängigkeit zwischen Patient bzw. Patientin und Fachkräften geprägt ist, muss außerdem die Freiwilligkeit einer solchen Einwilligung oft in Frage gestellt werden."
Auch "gut gemeint" kann Datenschutzverstoß sein
Die LDI merkt an, dass selbst, wenn keine böse Absicht verfolgt wird, das Pflegepersonal oder die Mediziner leicht Datenschutzverstöße begehen können. Sie erwähnt etwa Werbeversuche eines Schönheitschirurgen und einer Psychotherapeutin auf Instagram.
Fail eines Schönheitschirurgen
Der Chirurg hatte zur Vorbereitung einer Brustvergrößerung Bilder des entblößten Brustbereichs einer Patientin angefertigt, um ihr mit einer neu verfügbaren Technik das künftige Erscheinungsbild zu präsentieren. Ohne Wissen und Einwilligung der Frau veröffentlichte die Arztpraxis dann einen Tag später auf ihrem Instagram-Account eines der angefertigten Bilder, um für die neue Technik zu werben. Dabei zeigte das Bild neben dem möglichen Operationsergebnis versehentlich auch noch den im Bildausschnitt lesbaren Klarnamen der Patientin.
Patzer einer Psychotherapeutin
Der zweite Fall, den Bettina Gayk präsentiert, betraf eine Psychotherapeutin. Im Fall der Psychotherapeutin war der genehmigte Therapieantrag einer Krankenkasse Stein des Anstoßes. Die Therapeutin hatte den Antrag ihren Followern und Followerinnen präsentiert, um den Erfolg mit diesen zu feiern. Zu diesem Zweck lud die Damen ein Foto der Bewilligung auf ihrem Social-Media-Account hoch. Was die Psychotherapeutin übersehen hatte: Sie postete nicht nur die Bewilligung öffentlich. Sondern im Foto war auch der Name der Patientin klar lesbar war.
"Beide Fälle zeigen, wie schnell beim Umgang mit Social-Media Fehler passieren können. Und was erst einmal gepostet ist, lässt sich nicht mehr zurückholen. Die Account-Besitzer und Besitzerinnen haben es dann nicht mehr in der Hand, wer die veröffentlichten Daten zu Gesicht bekommt", warnt die Landesbeauftragte. Sie rät deshalb, von derartigen Aktionen lieber ganz abzusehen oder zumindest äußerst sorgfältig vorzugehen. "Erfolgen solche Posts zu Werbezwecken und ohne rechtswirksame Einwilligung der Betroffenen, ist das datenschutzrechtlich unzulässig. Auch fahrlässige Datenschutzverstöße kann meine Behörde mit Bußgeldern ahnden."
KI, oder der Elefant im Raum wird nicht genannt
Die LDI fokussierte sich in ihrer Warnung klar auf den abgegrenzten Bereich von Social Media Posts. Mit der zunehmenden Verbreitung von KI in Software-Produkten sehe ich noch eine viel größere Gefahr, dass Daten in diesem Bereich außer Kontrolle geraten.
Ein Copilot in Microsoft 365-Anwendungen oder in Windows, eine KI-Lösung im Adobe Acrobat-Reader etc. Dann reicht es, wenn ein Beschäftigter im Medizinbereich Dokumente von Patienten und Patientinnen zum Ansehen öffnet. Oder ein Arztbrief wird mit Microsoft Word verfasst, während der Copilot im Hintergrund mit liest.
Ohne besondere Absicherung besteht die Gefahr, dass die Daten dann an den Betreiber der AI-Lösung übertragen werden. Ich hatte gerade im Artikel Nach Anthropic-Rauswurf beim US-Verteidigungsministerium springt OpenAI ein auf eine Auswertung der Datenschutzrichtlinien der sechs größten KI-Unternehmen in Amerika durch Forscher von Stanford HAI hingewiesen. Ich kürze mal meine Ausführungen aus dem Artikel ab:
- Jedes einzelne Unternehmen sammelt standardmäßig die Chat-Daten seiner Benutzer und speist diese (teilweise für immer) in das Modelltraining ein.
- Einige dieser Unternehmen lassen menschliche Mitarbeiter die Chat-Protokolle (keine anonymisierten Zusammenfassungen) als Teil des Trainingsprozesses lesen.
- Bei Unternehmen wie Google, Meta, Microsoft und Amazon bleiben die Daten nicht in den Modellen, sondern werden mit allem anderen zusammengeführt, was diese Unternehmen bereits über den jeweiligen Benutzer wissen.
Das ist ein "blinder Fleck", der im KI-Enthusiasmus bisher (meinem Gefühl nach) noch überhaupt nicht bedacht und thematisiert wird. Kürzlich ging das Forschungsergebnis durch die Medien, dass sich urheberrechtlich geschütztes Material aus LLM-Trainingsdaten durch geschicktes Prompting rekonstruieren lässt. Das Ganze ist als "Harry Potter-Fall" bekannt, d.h. die Forscher konnten fast den gesamten Text von Harry Potter aus den Trainingsdaten des LLM rekonstruieren. Das Forschungspapier besitzt den Titel ThinkEval: Practical Evaluation of Knowledge Leakage in LLM Editing using Thought-based Knowledge Graphs von Januar 2026 zeigt den Abgrund des "Knowledge Leakage" (als Wissensabfluss). Die Erkenntnisse wurden auf deutsch von heise in diesem Artikel aufbereitet. Wenn sich LLMs jailbreaken lassen, um Sicherheitsmechanismen zu umgehen, sind Daten aus per KI analysierten Dokumenten ebenfalls abrufbar.
Das zweite Problem besteht darin, dass LLMs gemäß einer neuen Forschungsarbeit sehr schnell eine Person über deren Daten de-anonymisieren können. Ich hatte das Thema die Tage bereits auf X gesehen – ein Leser hat im Diskussionsbereich gerade auf den entsprechenden Forschungsbericht Large-scale online deanonymization with LLMs verwiesen. Ein deutschsprachiger Artikel zum Thema findet sich hier.
Damit haben wir den Plot für die großen Datenschutzskandale der kommenden Jahre. Aber der Themenkomplex ist meiner Beobachtung nach (außerhalb von einigen Fachleuten) noch überhaupt nicht auf dem Radar. Und man möge mir nicht erzählen, dass Data Loss Prevention (DLP) künftig zur Ausstattung der IT-Systeme von Therapeuten oder Arztpraxen gehört. Oder wie seht ihr das?



MVP: 2013 – 2016




