{"id":319207,"date":"2025-12-11T13:06:53","date_gmt":"2025-12-11T12:06:53","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=319207"},"modified":"2025-12-11T13:06:53","modified_gmt":"2025-12-11T12:06:53","slug":"report-legt-offen-was-die-nutzer-microsofts-copilot-so-fragen","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2025\/12\/11\/report-legt-offen-was-die-nutzer-microsofts-copilot-so-fragen\/","title":{"rendered":"Report legt offen: Was die Nutzer Microsofts Copilot so fragen"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" style=\"margin: 0px 10px 0px 0px; display: inline; float: left; border-width: 0px;\" title=\"Edge\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2025\/04\/image-4.png\" alt=\"Copilot\" width=\"95\" height=\"91\" align=\"left\" border=\"0\" \/>Ist Copilot nun der Produktivit\u00e4ts-Booster f\u00fcr Unternehmen, wie es nun beworben wird? Oder ist es schlicht Bullshit-Bingo-Marketing-Unsinn, der auch noch kostet? Microsoft hat seinen \"Copilot Usage Report 2025\" vorgelegt, der erstmals Einblicke liefert.<\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg04.met.vgwort.de\/na\/035adf6b529f4fb5b875d91deb13025a\" alt=\"\" width=\"1\" height=\"1\" \/>So ganz vorab, bevor alles in kollektive Begeisterung ausbricht, was dieser Copilot so alles kann: F\u00fcr \"<a href=\"https:\/\/microsoft.ai\/news\/its-about-time-the-copilot-usage-report-2025\/\" target=\"_blank\" rel=\"noopener\">The Copilot Usage Report 2025<\/a>\" vom 10. Dezember 2025 wertete Microsoft eine Stichprobe von 37,5 Millionen Unterhaltungen zwischen Nutzern und dem ChatBot aus. Ziel war es, herauszufinden, wie Menschen mit Copilot interagieren.<\/p>\n<h2>Wie war das mit Privatsph\u00e4re und Copilot?<\/h2>\n<p>Das hei\u00dft aber auch, dass wieder einmal klar wird, dass nichts, was die Leute mit ChatBots wie Copilot austauschen oder diesem \"zu sehen geben\", privat bleibt. Alles landet auf Microsofts Servern. Redmond betont zwar, dass das System die Konversationen anonymisiert, und lediglich die Zusammenfassung des Gespr\u00e4chs extrahiert. Es werde dabei die vollst\u00e4ndige Privatsph\u00e4re gew\u00e4hrleistet.<\/p>\n<p>Aber die Abstraktion reicht aus, um das Thema und die Absicht des Menschen zur Nutzung des Chatbots zu entnehmen. Und Hand auf's Herz: Wer kann denn kontrollieren, welche Rohdaten auf den Microsoft Servern aufschlagen, was wo gespeichert und dann auch ausgewertet wird. Zudem bin ich nicht sicher, was \"Anonymisierung\" f\u00fcr Microsoft bedeutet &#8211; und ob aus den gro\u00dfen Datenmengen nicht doch R\u00fcckschl\u00fcsse zu ziehen sind.<\/p>\n<p>Mir gehen halt aktuell drei Sachen durch den Kopf. Microsofts Sicherheitsforscher hatten k\u00fcrzlich von einem Seitenkanalangriff berichtet (<a href=\"https:\/\/borncity.com\/blog\/2025\/11\/09\/microsoft-findet-seitenkanalangriff-whisper-leak-in-llms\/\">Microsoft findet Seitenkanalangriff Whisper-Leak in LLMs<\/a>), \u00fcber den man den Sinn einer Unterhaltung bereits durch Analyse des verschl\u00fcsselten Datenverkehrs mit dem Chatbot erfassen kann. Dann hatte ich in diesem verlinkten Blog-Beitrag erw\u00e4hnt, dass der US-Amerikaner Jonathan Rinderknecht\u00a0 im Oktober 2025\u00a0wegen eines in Kalifornien gelegten Feuers, welches mehrere Todesopfer forderte, <a href=\"https:\/\/people.com\/man-charged-with-starting-palisades-fire-indicted-facing-45-years-in-jail-11830825\" target=\"_blank\" rel=\"noopener\">verhaftet wurde<\/a>. Mit zur Verhaftung trugen Anfragen der Person an ChatGPT zu diesem Themenfeld bei. Vor einer Woche wurde zudem eine Anordnung eines US-Gerichts gegen OpenAI bekannt. Die m\u00fcssen 20 Millionen anonymisierte ChatGPT-Protokolle herausgeben. Es soll \u00fcberpr\u00fcft werden, ob ChatGPT urheberrechtlich gesch\u00fctzte Inhalte der New York Times wortw\u00f6rtlich wiedergegeben hat. heise hat in <a href=\"https:\/\/www.heise.de\/news\/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> dar\u00fcber berichtet.<\/p>\n<p>W\u00e4ren jetzt Informationssplitter, um dar\u00fcber nachzudenken, ob das Nutzen eines Chatbots, den man nicht selbst unter Kontrolle hat, das Gelbe vom Ei ist. Dabei ist es unerheblich, ob der ChatGPT, Copilot oder Perpexity hei\u00dft.<\/p>\n<h2>Was Nutzer Copilot so fragen<\/h2>\n<p>Aber lassen wir das Nachdenken, ist schlie\u00dflich anstrengend. Widmen wir uns der seichten Unterhaltung, oder dem, was die Leute von Microsofts Copilot wissen wollen. Das muss schlie\u00dflich so essentiell wichtig sein, dass Microsoft sich getraut, seine Preise f\u00fcr Microsoft 365-Abonnements ab Juli 2026 kr\u00e4ftig anzuheben (siehe <a href=\"https:\/\/borncity.com\/blog\/2025\/12\/05\/microsoft-365-preise-steigen-2026-ki-seit-dank\/\" rel=\"bookmark\">Microsoft 365: Preise steigen 2026, KI sei Dank<\/a>). Fassen wir mal die Kernpunkte zusammen.<\/p>\n<ul>\n<li>Auf dem Desktop wird der Copilot von 8:00 Uhr bis 17:00 Uhr zu normalen B\u00fcrozeiten verwendet. Dann \u00fcberwiegen Fragen zur \"Arbeit und Karriere\".<\/li>\n<li>Technologie wurde als Top-Thema \u00fcber die Monate des Jahres 2025 vom Spitzenplatz\u00a0 zu Beginn des Jahres verdr\u00e4ngt.<\/li>\n<li>W\u00e4hrend dieser Zeit gibt es an den Arbeitstagen auf dem Desktop auch einen Anstieg bei Programmierfragen an Copilot &#8211; wobei dieser Anteil bis September 2025 aber eingebrochen ist.<\/li>\n<li>Am fr\u00fchen Morgen stehen Religion und Philosophie am h\u00e4ufigsten im Mittelpunkt. Am sp\u00e4ten Nachmittag dreht sich vieles um den Weg nachhause.<\/li>\n<li>Nach Feierabend und in der Nacht stehen Unterhaltung und \"Spiele\" auf den Favoritenlisten der Desktop Copilot-Nutzer.<\/li>\n<li>Auf Mobilger\u00e4ten sieht die Welt dagegen anders aus. Dort rangierten Fragen zu Gesundheit und Fitness, unabh\u00e4ngig vom zeitlichen Kontext, auf den ersten Pl\u00e4tzen.<\/li>\n<\/ul>\n<p>Es deutet sich an, dass Copilot weniger als gro\u00dfe Suchmaschine, sondern eher als \"Rat-Such-Bot, der Antworten auf Fragen des Lebens liefern soll\" gesehen wird. Typische Frage am 14. Februar, die alle anderen Fragen in den Schatten stellt: \"Wie kann ich den Valentinstag \u00fcberleben\" &#8211; nicht mal das kriegen die jungen Leute noch selbst hin. \"Digitale Tools werden zu vertrauensw\u00fcrdigen Begleitern f\u00fcr allt\u00e4gliche Fragen des Lebens\", so Microsoft. Die verschiedenen Benutzergruppen scheinen, so meine Lesart, aber immer noch mit Copilot zu experimentieren.<\/p>\n<h2>Abschlie\u00dfende Gedanken<\/h2>\n<p>Wenn ich die obigen Informationen so anschaue, erkenne nicht noch nicht das Killer-Argument f\u00fcr den Einsatz von Copilot, das X Euro pro Monat an Abo-Kosten rechtfertigt. Oder deutlicher ausgedr\u00fcckt: Ich sehe noch nicht, wie sich auch nur ein Bruchteil der bisherigen Investitionen irgendwie rechnen sollen. Das ist der erste \"Elefant im Raum\", \u00fcber den niemand bei Microsoft sprechen will.<\/p>\n<p>Auf Implicator.ai hat man die Informationen aus dem Microsoft-Report ausgewertet und einige Informationen in <a href=\"https:\/\/www.implicator.ai\/microsoft-publishes-worlds-largest-ai-usage-study\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> zusammen getragen. Dort wird dann auch der zweite \"Elefant im Raum\", \u00fcber den niemand bei Microsoft sprechen will. Copilot wird als \"Berater oder Ratgeber\" verstanden. Aber Sprachmodelle\u00a0halluzinieren, und es fehlt das Kontextwissen, das ein menschlicher Berater \u00fcber Jahre hinweg gesammelt hat. Ein Chatbot wie Copilot kann nicht nachfassen, kann nicht erkennen, wenn ein Ratschlag nicht funktioniert, und kann die Empfehlungen nicht auf der Grundlage von Ergebnissen anpassen. Es besteht also das Risiko, dass dieser \"gro\u00dfe Ratgeber\" die Nutzer wissentlich oder mangels F\u00e4higkeiten \"hinter die Fichte f\u00fchrt\" und zu gro\u00dfem Unsinn verleitet.<\/p>\n<p>Die Auswertung der Daten durch Microsoft zeigen, dass die Nutzer ihr Vertrauen in Systeme setzen, das normalerweise Menschen mit professioneller Ausbildung und pers\u00f6nlichem Engagement f\u00fcr die Ergebnisse vorbehalten ist, schreibt Implicator.ai.<\/p>\n<p>Gerade wurden gro\u00dfe US-Tech-Unternehmen wegen \"irref\u00fchrender\" KI-Ergebnisse von US-Generalstaatsanw\u00e4lten verwarnt. Das betreffende Schreiben l\u00e4sst sich als <a href=\"https:\/\/www.iowaattorneygeneral.gov\/media\/cms\/12_68B5C629180F6.pdf\" target=\"_blank\" rel=\"noopener\">PDF hier einsehen<\/a>. Techcrunch hat das Ganze im Beitrag <a href=\"https:\/\/techcrunch.com\/2025\/12\/10\/state-attorneys-general-warn-microsoft-openai-google-and-other-ai-giants-to-fix-delusional-outputs\/\" target=\"_blank\" rel=\"noopener\">State attorneys general warn Microsoft, OpenAI, Google, and other AI giants to fix 'delusional' outputs<\/a> aufgegriffen.<\/p>\n<p><strong>\u00c4hnliche Artikel:<\/strong><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/07\/31\/ki-aus-den-usa-eine-strategische-falle\/\">KI aus den USA \u2013 eine strategische Falle?<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/11\/09\/microsoft-findet-seitenkanalangriff-whisper-leak-in-llms\/\">Microsoft findet Seitenkanalangriff Whisper-Leak in LLMs<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ist Copilot nun der Produktivit\u00e4ts-Booster f\u00fcr Unternehmen, wie es nun beworben wird? Oder ist es schlicht Bullshit-Bingo-Marketing-Unsinn, der auch noch kostet? Microsoft hat seinen \"Copilot Usage Report 2025\" vorgelegt, der erstmals Einblicke liefert.<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[8625],"tags":[8382,8393],"class_list":["post-319207","post","type-post","status-publish","format-standard","hentry","category-ai","tag-ai","tag-copilot"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/319207","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=319207"}],"version-history":[{"count":1,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/319207\/revisions"}],"predecessor-version":[{"id":319208,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/319207\/revisions\/319208"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=319207"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=319207"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=319207"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}