Microsofts Copilot: Kritische Sicherheitslücken und Strategiewechsel

Microsoft behebt schwerwiegende Sicherheitslücken in Copilot und entfernt das KI-Branding aus Windows-Apps. Ein Rechtsstreit und schwache Nutzerzahlen belasten die Plattform zusätzlich.

Microsoft hat gleich mehrere schwerwiegende Sicherheitslücken in seiner KI-Plattform Copilot geschlossen – und stellt zeitgleich die Markenstrategie auf den Prüfstand.

Die am Mittwoch veröffentlichten Sicherheitshinweise des Konzerns offenbaren Risiken, die weit über klassische Softwarefehler hinausgehen. Im Zentrum stehen die Schwachstellen CVE-2026-26129 und CVE-2026-26164, die beide die „Business Chat“-Funktion von Microsoft 365 Copilot betreffen. Diese Schnittstelle ist das Herzstück der KI: Sie greift auf sensible Unternehmensdaten zu und verknüpft sie miteinander.

Gefährliche Datenlecks im KI-Chat

Die als kritisch eingestufte Schwachstelle CVE-2026-26129 hätte es einem Angreifer ermöglicht, über das Netzwerk vertrauliche Informationen abzugreifen. Das Problem lag in der unzureichenden Filterung spezieller Eingaben – ein Einfallstor, das ohne Benutzerinteraktion ausgenutzt werden konnte. Da der Fehler in der Cloud-Infrastruktur von Microsoft 365 steckte, konnte der Konzern den Patch global einspielen, ohne dass IT-Administratoren eingreifen mussten.

Anzeige

Wer angesichts kritischer Sicherheitslücken und weitreichender Systemzugriffe eine sicherere Alternative zu Microsoft sucht, findet in Open-Source-Systemen eine Lösung. Das kostenlose Linux-Startpaket zeigt Ihnen, wie Sie Ubuntu parallel zu Windows installieren und so für mehr Stabilität auf Ihrem PC sorgen. Linux Startpaket inkl. Ubuntu Vollversion jetzt gratis sichern

„Das klingt beruhigend, doch die eigentliche Frage bleibt: Wie sicher ist ein System, das tief in Unternehmensdaten eintaucht?“, fragen Sicherheitsexperten. Die zweite Lücke, CVE-2026-26164, betraf die Berechtigungsstruktur: Der KI-Assistent konnte Daten preisgeben, die außerhalb des eigentlich erlaubten Bereichs lagen.

Noch einen Schritt weiter gingen die Schwachstellen im Semantic Kernel, einem Open-Source-Framework für KI-Agenten. Die als CVE-2026-25592 und CVE-2026-26030 registrierten Fehler ermöglichten Angreifern, durch manipulierte Eingaben (Prompt Injection) die Sprachverteidigung zu umgehen und Schadcode auszuführen. Aus einer harmlosen Chat-Anfrage wurde so ein vollwertiger Angriff.

Das Ende der Copilot-Allgegenwart?

Parallel zu den Sicherheitswarnungen zeichnet sich ein Strategiewechsel ab. In aktuellen Testversionen von Windows 11 verschwindet das Copilot-Branding aus Kernanwendungen. Aus dem „Ask Copilot“-Menü im Editor wurde schlicht „Schreibwerkzeuge“, das bunte KI-Logo wich einem einfachen Stift-Symbol.

Diese Entwicklung überrascht nicht: Jacob Andreou, Executive Vice President von Copilot, hatte öffentlich gefordert, die KI dort zu entfernen, wo sie ihre Versprechen nicht einhalte. Ein neues Verwaltungstool namens „RemoveMicrosoftCopilotApp“ erlaubt IT-Administratoren zudem, die Copilot-Anwendung vollständig von verwalteten Geräten zu deinstallieren – eine Kehrtwende zur aggressiven Integrationsstrategie der Vorjahre.

Rechtsstreit und Nutzerflaute

Die technischen Probleme sind nicht alles: Vor einem Gericht in Hawaii muss sich Microsoft wegen einer KI-Halluzination verantworten. Ein Kläger wirft dem Konzern vor, Copilot habe ihn fälschlicherweise mit Straftaten in Verbindung gebracht. Das Gericht ließ die Klage zu – ein Präzedenzfall für die rechtliche Haftung von KI-Systemen.

Anzeige

Die ständigen Anpassungen der Markenstrategie und Funktionsumfänge in Windows 11 machen einen verlässlichen Leitfaden für Nutzer unverzichtbar. Der kostenlose Gratis-Report liefert Ihnen einen klaren Überblick über alle Neuerungen sowie eine Schritt-für-Schritt-Anleitung für die sichere Systemnutzung. Windows 11 Komplettpaket jetzt kostenlos herunterladen

Auch die Nutzerzahlen geben Anlass zur Sorge. Laut einer aktuellen Morning-Consult-Studie kennen zwar 57 Prozent der Befragten Copilot, aber nur 21 Prozent der KI-Nutzer verwenden ihn monatlich aktiv. Zum Vergleich: ChatGPT und Gemini liegen deutlich vorn. Analysten sprechen von einer „Relevanzlücke“ – die Integration in Microsoft 365 allein reicht offenbar nicht, um Nutzer zu überzeugen.

Milliarden für die Zukunft

Trotz aller Widrigkeiten bleibt Microsofts Engagement enorm. Für 2025 sind Investitionen von umgerechnet rund 130 Milliarden Euro in KI- und Cloud-Infrastruktur geplant. Der Fokus verschiebt sich dabei von einfachen Chatbots hin zu „agentischer KI“ – autonomen Systemen, die komplexe Arbeitsabläufe selbstständig erledigen können.

Die im Mai gestartete Initiative „Copilot Cowork“ zeigt die Richtung: Neue Plugins und Schnittstellen zu Partnern wie der Londoner Börse oder Miro sollen die KI produktiver machen. IT-Administratoren können künftig sogar Anthropic-Modelle für bestimmte Nutzer freischalten.

Sicherheitsexperten mahnen derweil zur Vorsicht: „Unternehmen müssen ihre Datenhygiene verbessern und das Prinzip der minimalen Berechtigungen strikt umsetzen“, raten sie. Microsoft selbst betont die geteilte Verantwortung: Der Konzern sorge für die Sicherheit des KI-Dienstes, die Kunden müssten aber die Datenhoheit wahren. Je autonomer KI-Assistenten werden, desto dünner wird die Grenze zwischen einem Datenleck und einem Systemangriff.