Bug in Copilot Chat legt vertrauliche E-Mails und Daten in Antworten offen

CopilotEin Bug in der Chat-Funktion von Microsofts Copilot hat dazu geführt, dass Dritte vertrauliche E-Mails und Daten aus Dateien in Zusammenfassungen einsehen konnten. Microsoft musste patchen und ist wohl noch dabei, betroffene Kunden zu informieren und hofft, dass der Fix wirkt …

Die Secure-Boot-Zertifikate laufen ab. Was sollen Admins tun? Kostenloses eBook » (Sponsored by IT Pro)

Nur eine Frage der Zeit …

Microsoft drückt ja seinen Copilot in jedes Produkt rein, was irgendwie Kunden erreichen kann – egal, ob gewollt oder nicht. Ich hatte ja mehrfach über dieses Thema geschrieben (siehe auch Links am Artikelende). Laut Microsoft ist ja alles sicher, die Daten verlassen ja nicht das Unternehmen oder das "Microsoft Umfeld" – wie man das immer interpretieren mag. Aber wenn die AI-Lösung alles sehen und auf alles zugreifen kann, kommt es irgendwann zum Daten-GAU.

Durch Prompt-Injection lassen sich ggf. Daten abrufen, die nicht jeder sehen soll (siehe z.B. Varonis legt Reprompt-Angriff auf Microsofts Copilot offen). Auf das Risiko habe ich oft genug hingewiesen. Microsoft tut natürlich einiges, um solche Fälle abzusichern. Aber der Ansatz verzeiht halt keine Fehler, und es war für mich daher auch nur eine Frage der Zeit, wann der erste "Unfall" im Zusammenhang mit Copilot bekannt wird.

Copilot leakt Geheimnisse

Vor wenigen Stunden bin ich auf X durch obigen Tweet "aufgeschreckt" worden. Der Post von @Pirat_Nation besagt, dass ein Codefehler in Microsoft Copilot Chat bewirkt hat, dass vorübergehend vertrauliche E-Mails und Dateien (insbesondere in Sent Items und Drafts) in Anfragen freigegeben wurden. Und dies passierte trotz Sensitivity-Labels bei den Daten und DLP-Richtlinien, die diese Freigabe eigentlich verhindern sollen (das "Schlangenöl hat nichts genutzt und der Chat-Bot hat fleißig Zusammenfassungen erstellt, so ist meine Interpretation des Ganzen).

Microsoft bestätigt das Problem in CW1226324

Zum 3. Februar 2026 gab es von Microsoft das Advisory CW1226324 – Service Degradation – Power BI – Users' email messages with a confidential label applied are being incorrectly processed by Microsoft 365 Copilot chat in dem das Problem bestätigt wurde.

Microsoft bestätigte das Problem in Advisory CW1226324 vom 3. Februar 2026 und schrieb, dass mit einer Vertraulichkeitsbezeichnung versehene E-Mail-Nachrichten von Benutzern vom Microsoft 365 Copilot-Chat falsch verarbeitet wurden. Konkret wurden im Chat auf der Registerkarte Work durch Microsoft 365 Copilot E-Mail-Nachrichten zusammengefasst. Diese passierte aber auch bei mit einer Vertraulichkeitsbezeichnung  gekennzeichneten E-Mails, die zudem in einer DLP-Richtlinie als "sensitiv" konfiguriert  sind.

Das ist im Grunde der Daten-GAU vor dem meine Wenigkeit bzw. Sicherheitsforscher immer gewarnt haben. Bei Windows Recall war ja mehrfach gewarnt worden, dass dort auch sensitives Materials wie Kreditkartendaten erfasst und angezeigt wurde (Microsoft Recall erfasst weiterhin (Juli 2025) Kreditkartendaten und Passwörter).

Zum 11. Februar 2026 hat Microsoft damit begonnen, einen Fix zur Behebung der fehlerhaften Verarbeitung von E-Mail-Nachrichten mit einer Vertraulichkeitsmarkierung durch den Microsoft 365 Copilot-Chat auszurollen. Microsoft begann zeitgleich eine Untergruppe der betroffenen Benutzer zu kontaktieren, um die Auswirkungen der Behebung zu testen. In der Meldung hieß es, dass Microsoft bestrebt sei, "einen Zeitplan für die Behebung bereitzustellen", was bisher aber noch nicht erfolgt ist. Das nächste Update ist für den 18. Februar 2026 geplant. Betroffen sind Nutzer von Microsoft 365 Copilot, was erneut die Datenschutzrisiken verdeutlicht, die durch KI-Tools lauern.

Wilde Geschichten auf X und Reddit …

Im Kontext des obigen Vorfalls macht gerade der nachfolgende Post über einen KI-Fail die Runde auf X – soll in r/analytics auf reddit.com zu finden sein (den Post gibt es aber wohl nicht – dürfte also hypthetisch sein).

Reddit-Story über KI-Fail

Er reflektiert sehr gut das "wackelige Pferd, auf dass das Management aufsteigt", in dem der Post die Risiken der Verwendung von LLMs darstellt.

DeepSeek V4

Und es gibt noch eine "wilde Vorhersage" in obigem Tweet, dass bald das chinesische "DeepSeek V4" freigegeben werde und lokal "on-premises" laufe. Wäre der Kollaps der ganzen ChatGPT & Co. Modelle und AI-Techfirmen. DeepSeek ist ein chinesisches Open-Source-AI-Modell/-Unternehmen, dass sein V4 in den kommenden Tagen (es wird 17. Februar 2026 gemunkelt) freigeben will. Der Fokus liegt auf verbesserten Reasoning und Langkontext-Verarbeitung.

Mal schauen, ob es so kommt.

Ähnliche Artikel:
Microsoft rollt Recall für Windows 11 24H2 auf Copilot+ PCs aus
Copilot+AI: Recall-Sicherheitsdesaster- KI-gestützter Diebstahl
Microsoft bessert AI-Funktion Recall nach und fügt eine "Sicherung ein" – reicht das?
Microsoft Recall erfasst weiterhin (Juli 2025) Kreditkartendaten und Passwörter
Windows: Microsofts "verbessertes" Recall zeichnet weiterhin sensitive Infos auf
Windows: Microsoft erklärt Recall in überarbeiteter Version
Windows 11: Recall soll eine 2. Chance bekommen, kommt im Oktober 2024 als Preview für Insider
Windows 11 24H2/25H2; Windows Server 2025: (Recall-)Schwachstelle CVE-2025-60710 (Nov. 2025)

MC1187799: Neue "Copilot-Experience" mit Agenten in Excel, PowerPoint, Word ab 29.1.2026
Varonis legt Reprompt-Angriff auf Microsofts Copilot offen
MC1197289: Microsoft 365 Copilot-App und Chat-Sichtbarkeit
LG rollt Copilot als nicht deinstallierbare App auf TV-Geräten aus
AI-Funktionen wie Copilot aus Windows 11 entfernen
Bekommt Windows 11 eine GPO zur Copilot-Deinstallation?
Microsoft CEO Nadella stramm auf AI-Kurs
Microslop: Microsoft in der selbst gestellten AI-Falle?
Microsoft Chef warnt vor Platzen der KI-Blase, wenn die Leute nicht endlich spuren
US-Kongress verbietet Mitarbeitern Microsoft AI-Lösung Copilot
Elefant im Raum: Microsoft Chef Satya Nadella zu Kündigungen – toxische Unternehmenskultur
Microsoft, die AI, die Erfolge und die "Kosten" (Greenwashing)
Microsoft, die Milliarden AI-Investitionen und die 3% Copilot-Zahlkundschaft

Dieser Beitrag wurde unter AI, Problem, Sicherheit abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Eine Antwort zu Bug in Copilot Chat legt vertrauliche E-Mails und Daten in Antworten offen

  1. Christian Schade sagt:

    Ich bin seit längerem Beta Tester für verschiedene Produkte und verfolge technische Trends sehr aktiv. Vor einiger Zeit wurde ich seitens der KI im Chat mit CoPilot über den Inhalt eines Bildes (genauer ein Schriftzug) welches ich einen Tag vorher gemacht habe befragt, habe mir erst nichts dabei gedacht da ich Microsoft Produkte ausführlich nutze, so auch OneDrive. Im Nachgang ist mir aber aufgefallen das grade dieses einmalige Bild noch nicht in meiner Cloud gelandet ist, somit hätte die KI eigentlich noch keinen Zugriff auf den Inhalt haben dürfen. Ich habe daraufhin in verschiedenen Dokumentationen und Foren gestöbert, selber getestet, und bin zu dem Ergebniss gekommen, dass grade der *freie Copilot* wesenlich lascher mit Datenschutz Bestimmungen umgeht und weitreichende Berechtigungen tief ins System besitzt. Man darf also gespannt sein was noch kommt, wie gläsern wir werden, und letztendlich schon sind. Bleibt zu hoffen das wirklich niemals ein größerer Hack kommt der uns alle letzlich zu einem extrem gläsernen User werden lässt, es währe für jeden absolut jeden katastrophal und teilweise Existens vernichtend wenn ein fremder mit KI Tools in unserem Leben stöbern könnte. Jeder Chat jede Mail jeder Kontakt jedgliche Interaktion jedes Bild jeder Standort…. Das währe kein GAU es währe schlichtweg das Ende der Gesellschaft.

    Ich bin aber mitlerweile davon überzeugt das Microsoft Google und Apple und generell US BigTech mit und durch die extrem forcierte Nutzung von KI Tools schlimmeres abwenden will, was währe wenn seit Jahrzehnten schadhafter Code auf Assambler Ebene verteilt wurde ..!?

    vieleicht ist aber auch schon alles zu spät….

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.