Microsofts KI-Durchmarsch, oder Microslop-Gängelei?

CopilotMicrosoft hat in den letzten Tagen ein wahres Feuerwerk an Ankündigungen, wo überall Copilot und AI einziehen soll, gezündet. Das Unternehmen wird zudem nicht müde, zu betonen, dass Sicherheit oberste Priorität sei, und man AI-Slop endlich hinter sich lassen müsse. Die Reaktion der potentiellen Nutzer, die das Ganze als Microslop bezeichnen, hat Redmond sogar veranlasst diesen Begriff auf seinem Discord zu sperren. Zeit, einen Blick auf die Sachlage zu werfen.

Outlook-Links starten Copilot in Edge

Die Meldung stammt bereits von Ende Februar 2026 – The Register hatte es beispielsweise im Beitrag Microsoft to auto-launch Copilot in Edge whenever you click a link from Outlook aufgegriffen. Microsoft hat in seiner Microsoft 365-Roadmap angekündigt, dass Links in Outlook, die der Benutzer anklickt, nicht nur die Zielseite im Edge-Browser  öffnen. Vielmehr soll sich automatisch das Copilot-Seitenfenster öffnen, so dass die Zielseite von Copilot analysiert werden kann.

Das Ganze erfolgt im Rahmen der aktuellen "Copilot-everywhere"-Strategie von Microsoft und wird weltweit für standardmäßige Multi-Tenant-Cloud-Instanzen eingeführt. Die Einführung soll ab Mai 2026 beginnen. Laut Microsoft wird das Update "kontextbezogene Einblicke und umsetzbare Vorschläge basierend auf E-Mail- und Zielinhalten liefern". Ob es ein Opt-out geben wird, ist derzeit unklar. Aber wir können auf die ersten Fälle warten, wo in Webseiten eingebauter Code ein Prompt Injection per Copilot versuchen.

Copilot mit Schreibzugriff auf Word

Ebenfalls Ende Februar 2026 wurde bekannt, dass Microsoft seinem Copiloten einen Schreibzugriff auf Word-Dokumente verpassen möchte. Das geht ebenfalls aus der Microsoft 365-Roadmap hervor. Dort heißt es, dass Standard-Chat-Funktion mit Copilot in Word es Copilot standardmäßig ermöglichen soll, die Dokumente zu bearbeiten.

Alle von Copilot vorgenommenen Änderungen können vollständig überprüft und rückgängig gemacht werden. Bei Bedarf können Benutzer diese Funktion deaktivieren. Martin Geuß hatte es zeitnah im Beitrag Was soll schon schief gehen? Copilot erhält standardmäßig Schreibzugriff auf Word-Dokumente aufgegriffen.

Copilot übernimmt Designer-Funktionen von Teams

Ebenfalls Ende Februar 2026 ist mit nachfolgender Post von Windows Central untergekommen. Die Botschaft lautet, dass Microsoft den Designer stillschweigend aus Teams entfernt hat.

Teams-Copilot

Der Microsoft Designer ist ein KI-gestützte Tool, das  Social-Media-Beiträge, Einladungen, digitale Postkarten, Grafiken und vieles mehr erstellen kann. Es wurde laut Windows Central 2024 für Web, Mobilgeräte und Windows 11 allgemein verfügbar gemacht. Microsoft hatte den Designer in seiner Microsoft 365-Suite, darunter in Teams, integriert, um die Erstellung von Bildern und Designs innerhalb des Arbeitsablaufs des Benutzers zu vereinfachen. Alle Aufgaben des Designer werden stattdessen jetzt an Copilot übergeben. Das Ganze ist als Konsolidierung von Microsoft-Apps zu buchen.  Details lassen sich im Beitrag Microsoft replaced Designer in Teams with Copilot — because apparently Copilot needs every job nachlesen.

Ebenfalls zum 25. Februar 2026 habe ich bei neowin.net die Meldung Microsoft apologizes after spamming Xbox users with "dummy message" from AI platform gelesen. Die Xbox-App von Microsoft hatte auf Grund eines Bugs eine Flut von Test-Nachrichten an Nutzer verschickte. Eine AI hatte wild gedreht und eigenmächtig gehandelt.

Windows Copilot-App soll Linkinhalte auswerten

In der neuesten Windows Insider Preview hat Microsoft zum 4. März 2026 im Beitrag Copilot App on Windows: Opening web links alongside your conversations begins rolling out to Windows Insiders angekündigt, dass die Copilot-App unter Windows nun Linkinhalte auswerten soll.

Copilot analysiert Medien
Quell: Microsoft

Wenn Nutzer auf einen Link klicken, öffnet Copilot den Inhalt in seiner App in einem Seitenbereich neben der Unterhaltung, statt in einem separaten (Edge-)Browserfenster. Das soll verhindern, dass Nutzer den Kontext verlieren.  Optional können Nutzer eine Option aktivieren, um Passwörter und Formulardaten zu synchronisieren. Dies soll die Arbeit mit Copilot vereinfachen.  Diese Updates (Copilot-App Version 146.0.3856.39 und höher) werden derzeit schrittweise für alle Insider-Kanäle bereitgestellt.

Da passt auch der Microsoft 365-Roadmap-Eintrag, dass der Copilot Screenhot-Features bekommen soll – Erinnerungen an Recall werden wach. Das Ganze dürfte eine Beschwerdeflut hervorrufen. Martin Geuß hat es im Beitrag Microsoft Copilot-App für Windows öffnet Webseiten und möchte Zugriff auf Passwörter kritisch aufgegriffen. Und The Register titelt dazu Microsoft Copilot to hijack your browser… for your own convenience.

Was soll schon schief gehen …

Gerade die Woche noch in folgendem Tweet gelesen, dass Satya Nadella Copilot Task "ausprobiert habe" und von dessen Fähigkeiten, Aufgaben auszuführen, schwärmt. Der Agent läuft in einer von Microsoft gehosteten Cloud-Umgebung mit eigenem Browser und eigener Rechenleistung. Microsoft habe keine aussagekräftigen technischen Details über die Browser-Engine, die Sandboxing-Architektur, den Umfang der Anmeldedaten oder die Sitzungsisolierung für diese Umgebung bekannt gegeben, schreibt der Tweet-Ersteller.

AI-Agent

Copilot basiert auf OpenAI-Modellen (zukünftig wohl auch Anthropic) mit Microsoft-Orchestrierung und wurde von Sicherheitsforschern bereits auseinander genommen. Der Tweet-Ersteller hat etwas recherchiert, wie er schreibt, und listet dann die Schwachstellen auf, die in letzter Zeit bei Microsofts AI-Lösungen bekannt wurden:

1. EchoLeak (CVE-2025-32711, CVSS 9.3) war eine Zero-Click-Sicherheitslücke, die es Angreifern ermöglichte, sensible Daten aus M365 Copilot zu exfiltrieren, indem sie eine einzige manipulierte E-Mail versendeten. Es war keine Benutzerinteraktion erforderlich.

2. Reprompt (Januar 2026) ist eine One-Click-Prompt-Injection über URL-Parameter, die auch nach dem Schließen des Chat-Fensters unbemerkt Daten abzieht.

3. Der Fehler CW1226324 (Januar 2026) führte dazu, dass Copilot Chat E-Mails zusammenfasste, die durch Purview-Vertraulichkeitsbezeichnungen und DLP-Richtlinien geschützt waren – unter vollständiger Umgehung der Vertraulichkeitskontrollen. Dies ist für Tasks von Bedeutung, da es zeigt, dass die Durchsetzung der Microsoft-eigenen Richtlinien in der Abrufphase (derselben RAG-Pipeline, auf die Tasks angewiesen ist) versagt.

4. Guardz veröffentlichte eine vollständige M365 Copilot-Angriffsmatrix, die die stille Aufzählung von Mandanten, laterale Bewegungen über die Graph-API, Persistenz durch Loop-Komponenten und verdeckte Exfiltration unter Umgehung von DLP abbildet.

Hatte ich hier im Blog teilweise thematisiert. Das sei ein Datenschutzproblem, über das niemand spricht, heißt es. Schöne neue Zukunft für Windows 11-Benutzer und Umgebungen mit Microsoft 365.

Dieser Beitrag wurde unter AI, Sicherheit abgelegt und mit , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

11 Kommentare zu Microsofts KI-Durchmarsch, oder Microslop-Gängelei?

  1. Daniel Blum sagt:

    Ich bin es leid über Microsoft zu lesen weil nichts wirklichen Mehrwert bietet. zuletzt bin ich ernüchtert worden mit Midi 2.0 auf Windows 10… angeblich fertig…. aber hier startet der Midi Service gar nicht. Also heißt es wieder warten und Updates erhoffen die nicht wieder irgendwas zerschießen. Die letzten Ankündigungen was Windows 12 angeht siehen einem die Unterhose aus: 40 Slops oder in welcher Währung die KI gemessen wird als Minimum. Erst will man die KI auf Servern dann braucht man lokal mindestens die Leistung von 80 Kleinbussen fürs Betriebssystem… was soll dieser Scheiß?

  2. Rocco Siffredi sagt:

    Da pfriemeln sie den KI-Schrott mit Brachialgewalt in jedes Programm, aber den Desktop Icon Refresh Bug beim Öffnen und/oder Schließen von Edge haben sie auch in der heute auf 145.0.3800.97 aktualisierten Version noch nicht behoben.

    Und derweil löscht sich Summer Yue, eine „Expertin" für KI-Sicherheit bei Meta Superintelligence Labs, mit KI ihre kompletten E-Mails. Wenn es nicht so erschreckend wäre, würde ich mir einen Ast in die Hose lachen.

  3. Daniel sagt:

    "Alle von Copilot vorgenommenen Änderungen können vollständig überprüft und rückgängig gemacht werden. Bei Bedarf können Benutzer diese Funktion deaktivieren. " ähm mal so gefragt warum kann der Nutzer den Quatsch in Word nicht bei Bedarf aktivieren? Die meisten Benutzer werden es sicher nicht schätzen wenn eine haluzinierende KI in ihren Texten rumschreibt. Da schließe ich mich ein. Beruflich muss ich Word verwenden und da würde ich gern das lesen was ich geschrieben haben und nicht nachträglich veränderten Müll.

    • R.S. sagt:

      So ist es.
      Und was ist mit Dokumenten, die man in Word verfasst, die vertraulich oder sogar geheim sind?
      Da will ich nicht, das irgendeine KI da drin herum pfuscht und schon gar nicht, das eine KI den Inhalt auch nur liest.
      Und das betrifft auch Links in Outlook.
      Links müssen ja nicht auf Webseiten führen, sondern können auch auf Dokumente etc. verweisen.
      Die können ja z.B. auch auf OnPrem gespeicherte vertrauliche Dokumente führen.
      Da will ich auch nicht, das eine KI da mitliest oder Linkinhalte auswertet.
      Und was macht die KI, wenn auf dem Rechner gar kein Edge installiert ist?

      In solchen Scenarien würde ich aus Sicherheitsgründen die Verwendung von Microsoft-Software, die KI-Funktionen enthält, schlicht verbieten.

      • Luzifer sagt:

        Na da geht MS nur konform mit den Regierungen… du hast als Bürger keine Geheimnisse zu haben! Geheimnisse haben nur Ganoven; Terroristen; Kinderschänder… der Bürger hat gläsern zu sein.

        • R.S. sagt:

          Es geht ja nicht nur um Bürger, sondern auch um Firmen.
          Und Firmen, die z.B. für US-Behörden tätig sind wollen sicher nicht, das eine KI die geheimen Daten abfischt.
          Denn die gehen nur die Firmen und den US-Behörden etwas an.
          Nicht aber z.B. Microsoft.

  4. Anonym sagt:

    Ich fände einen Schalter an einer Stelle gut der alle KI Funktionen in Windows und Office, etc abschalten würde gut und MS würde sich dran halten. Gut wird es sicherlich nie geben…..

    • R.S. sagt:

      Das so etwas problemlos geht, zeigt Microsoft ja mit der Serverversion von Windows 11, nämlich Server 2025.
      Da sind per Default die KI-Funktionen gar nicht installiert.
      Wenn man die haben will, muss man die extra installieren.

  5. Luzifer sagt:

    Nutzt man eben zu ShutUp AppBuster usw. eben zukünftig noch KIBuster… könnte man fast drüber lachen wenn es nicht so traurig wäre!

    Bringt doch einfach mal wieder nur ein OS das ein OS ist und überlasst gefälligst dem User was er dann noch so braucht oder auch nicht braucht.

Antworte auf den Kommentar von Daniel Blum Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.