{"id":295212,"date":"2024-05-13T01:30:42","date_gmt":"2024-05-12T23:30:42","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=295212"},"modified":"2024-05-13T01:30:42","modified_gmt":"2024-05-12T23:30:42","slug":"lethal-injection-microsoft-ai-bot-fr-das-gesundheitswesen-mal-eben-gehackt","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2024\/05\/13\/lethal-injection-microsoft-ai-bot-fr-das-gesundheitswesen-mal-eben-gehackt\/","title":{"rendered":"Lethal Injection: Microsoft AI-Bot f&uuml;r das Gesundheitswesen mal eben gehackt"},"content":{"rendered":"<p><img decoding=\"async\" title=\"Sicherheit (Pexels, allgemeine Nutzung)\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline\" alt=\"Sicherheit (Pexels, allgemeine Nutzung)\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/04\/Sicherheit_klein.jpg\" width=\"200\" align=\"left\"\/>Ein Nutzer behauptet, dass er den Microsoft AI-Bot f\u00fcr das Gesundheitswesen mal eben an einem Freitagabend gehackt habe. Konkret hat er wohl Prompts abgesetzt, die ihm Antworten auf Fragen lieferten, die eigentlich gesperrt sein m\u00fcssten. Innerhalb weniger Stunden konnte der Nutzer auf die Daten mehrerer Gesundheitsorganisationen zugreifen. Microsoft habe zwar versucht, das Problem zu beheben, aber der Nutzer hat Wege gefunden, diese Beschr\u00e4nkungen zu umgehen. Der Ansatz zeigt, in welche K\u00fcche Firmen kommen, die Microsofts AI-L\u00f6sungen (Copilot) auf eigene Daten los lassen.<\/p>\n<p><!--more--><\/p>\n<h2>Lethal Injection: Der Microsoft AI-Hack<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" alt=\"\" src=\"https:\/\/vg07.met.vgwort.de\/na\/f3ce796a3f9d40c4ae7726759cf09084\" width=\"1\" height=\"1\"\/>Das Ganze ist mir als erstes in einer Serie von Tweets auf der Plattform X zum 7. Mai 2024 untergekommen. Der erste Tweet des Sicherheitsforschers <a href=\"https:\/\/twitter.com\/Yanir_\" target=\"_blank\" rel=\"noopener\">Yanir Tsarimi<\/a>, der meine Aufmerksamkeit bekam, lautete \"<em>Lethal Injection: Ich habe den KI-Bot von Microsoft f\u00fcr das Gesundheitswesen an einem Freitagabend gehackt.<\/em>\" <\/p>\n<\/p>\n<p><a href=\"https:\/\/twitter.com\/etguenni\/status\/1789600229957734402\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" title=\"Lethal Injection: Hack Microsoft's AI Bot for Health\" alt=\"Lethal Injection: Hack Microsoft's AI Bot for Health\" src=\"https:\/\/i.postimg.cc\/wjPdqyXY\/image.png\"\/><\/a>  <\/p>\n<p>Der Sicherheitsforscher schreibt, dass er damit begonnen habe, sich mit dem Azure Health Bot-Service zu besch\u00e4ftigen. Hintergrund ist, dass Gesundheitsorganisationen Chatbots f\u00fcr ihre Patienten mittels des Azure Health Bot- Service erstellen k\u00f6nnen. Da das potentiell Zugang zu sensiblen Informationen verspricht, war das ein interessantes Ziel.  <\/p>\n<h2>Schwachstellen im Azure Health Bot-Service <\/h2>\n<\/p>\n<p>Es war wohl so, dass der Sicherheitsforscher schnell auf Schwachstellen im Azure Health Bot-Service stie\u00df, die er dann ausnutzte. Die erste Schwachstelle erm\u00f6glichte eine URL-Injektion, die es dem Sicherheitsforscher erm\u00f6glichte, API-Authentifizierungsdaten anderer Organisationen auszulesen. \"Der Server nahm die angeforderte ID und f\u00fcgte sie in die URL ein, und ich fand einen Weg, sie auszunutzen und zu den Daten anderer Kunden zu gelangen\" schrieb der Sicherheitsforscher.<\/p>\n<p><a href=\"https:\/\/i.postimg.cc\/nL56vCTY\/image.png\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/i.postimg.cc\/nL56vCTY\/image.png\" width=\"620\" height=\"182\"\/><\/a><br \/><a href=\"https:\/\/i.postimg.cc\/nL56vCTY\/image.png\" target=\"_blank\" rel=\"noopener\">Zum Vergr\u00f6\u00dfern klicken<\/a><\/p>\n<p>Das war dann der Punkt, wo es f\u00fcr Microsoft schlecht ausging. Denn der Sicherheitsforscher fand heraus, dass der Dienst Code als Teil des AI-Chatbots ausf\u00fchren l\u00e4sst. Der Nutzer arbeitete zwar in einer AI-ChatBot-Umgebung mit eingeschr\u00e4nkten Rechten, aber er stellte fest, dass die dazu eingesetzte virtuelle Maschine von mehreren Kunden gemeinsam genutzt wird.  <\/p>\n<p>Microsoft hatte zwar Sicherheitsmechanismen implementiert, um die Ausf\u00fchrung von Code auf dem Server selbst zu verhindern. Aber der Sicherheitsforscher fand mehrere Schwachstellen in der Implementierung. Jedes Mal, wenn diese Schwachstellen durch Microsoft behoben wurden, konnte der Sicherheitsforscher eine weitere Schwachstelle finden. Durch die Schwachstellen wurde es dem Sicherheitsforscher erm\u00f6glicht:  <\/p>\n<ul>\n<li>Code auf dem Server mit den h\u00f6chsten Rechten (root) auszuf\u00fchren  <\/li>\n<li>Zugriff auf Daten von Chatbots anderer Organisationen zu erhalten  <\/li>\n<li>Zugriff auf interne APIs innerhalb des Netzwerks zu erhalten<\/li>\n<\/ul>\n<p>Er hatte quasi Zugriff auf \"die Kronjuwelen\". Yanir Tsarimi hat die gefundenen Schwachstellen an Microsoft gemeldet, und deren Entwickler haben schnell auf diese Probleme reagiert. Dem Sicherheitsforscher hat das Ganze Bug-Bounty-Pr\u00e4mien von 203.000 US-Dollar eingebracht. Inzwischen hat Microsoft den AI-Chatbot f\u00fcr diese Bereich verbessert. So wurde das Sandboxing auf eine viel bessere L\u00f6sung umgestellt. Zudem wird Kunden nicht mehr dieselbe virtuelle Maschine zur Nutzung zugewiesen, so dass die VM verschiedener Kunden nun separiert sind. <\/p>\n<p>Der Sicherheitsforscher von BreechProof hat die obigen Informationen in <a href=\"https:\/\/twitter.com\/Yanir_\/status\/1787927291437219921\" target=\"_blank\" rel=\"noopener\">Tweets<\/a> sowie die kompletten Details zum 7. Mai 2024 in seinem Blog-Beitrag <a href=\"https:\/\/www.breachproof.net\/blog\/lethal-injection-how-we-hacked-microsoft-ai-chat-bot\" target=\"_blank\" rel=\"noopener\">Lethal Injection: How We Hacked Microsoft's Healthcare Chat Bot<\/a> ver\u00f6ffentlicht.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ein Nutzer behauptet, dass er den Microsoft AI-Bot f\u00fcr das Gesundheitswesen mal eben an einem Freitagabend gehackt habe. Konkret hat er wohl Prompts abgesetzt, die ihm Antworten auf Fragen lieferten, die eigentlich gesperrt sein m\u00fcssten. Innerhalb weniger Stunden konnte der &hellip; <a href=\"https:\/\/borncity.com\/blog\/2024\/05\/13\/lethal-injection-microsoft-ai-bot-fr-das-gesundheitswesen-mal-eben-gehackt\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426],"tags":[8382,4328],"class_list":["post-295212","post","type-post","status-publish","format-standard","hentry","category-sicherheit","tag-ai","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/295212","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=295212"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/295212\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=295212"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=295212"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=295212"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}