{"id":309439,"date":"2025-03-16T00:25:24","date_gmt":"2025-03-15T23:25:24","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=309439"},"modified":"2025-03-24T00:04:19","modified_gmt":"2025-03-23T23:04:19","slug":"kann-eine-ai-wie-deepseek-malware-und-keylogger-erstellen","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2025\/03\/16\/kann-eine-ai-wie-deepseek-malware-und-keylogger-erstellen\/","title":{"rendered":"Kann eine AI wie DeepSeek Malware und Keylogger erstellen?"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline; border-width: 0px;\" title=\"Recht\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2018\/11\/Para.jpg\" alt=\"Paragraph\" width=\"91\" height=\"88\" align=\"left\" border=\"0\" \/>[<a href=\"https:\/\/borncity.com\/win\/2025\/03\/22\/can-an-ai-like-deepseek-create-malware-and-keyloggers\/\" target=\"_blank\" rel=\"noopener\">English<\/a>]Sicherheitsexperten treibt die Frage um, ob Large Language Modelle (LLMs), allgemein als KI-L\u00f6sungen (AI) gehandelt, sich missbrauchen lassen, um Malware oder Keylogger zu erstellen. Sicherheitsforscher haben das mit der chinesischen AI DeepSeek getestet und konnten die Sicherheitsmechanismen aushebeln.<\/p>\n<p><!--more--><\/p>\n<h2>Die latente Gefahr von AI-L\u00f6sungen<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg08.met.vgwort.de\/na\/cabd7f7be8184e4eb3dbbd35c1b80802\" alt=\"\" width=\"1\" height=\"1\" \/>Es ist in Sicherheitskreisen klar, dass Cyberkriminelle sich AI-L\u00f6sungen bedienen, um Cyber-Angriffe durchzuf\u00fchren und auch Software f\u00fcr solche Vorhaben entwickeln zu lassen. Andererseits beteuern die AI-Anbieter immer, alles zu unternehmen, um sch\u00e4dliche Ausgaben ihrer Modell zu unterbinden.<\/p>\n<h3>Ein ChatGPT-Vorfall<\/h3>\n<p>Ich hatte ja im gestrigen Beitrag <a href=\"https:\/\/borncity.com\/blog\/2025\/03\/15\/exchange-online-und-ms365-probleme-durch-schwachstelle-maerz-2025\/\">Exchange Online- und MS365-Probleme durch Schwachstelle? (M\u00e4rz 2025)<\/a> ein mutma\u00dfliches Problem von Microsofts AI-L\u00f6sung ChatGPT angesprochen. Wenn die Geschichte stimmt, hat ChatGPT einem IT-Supporter ein Script geliefert, das bei Exchange Online Tenant-\u00fcbergreifend Probleme bereitet, obwohl dies eigentlich nicht m\u00f6glich sein d\u00fcrfte.<\/p>\n<h3>Gartner-Vorhersage zum GenAI-Missbrauch<\/h3>\n<p>Die rasante Verbreitung von <span lang=\"EN-GB\"><a href=\"https:\/\/www.gartner.com\/en\/insights\/generative-ai-for-business\" target=\"_blank\" rel=\"noopener, nofollow\">GenAI<\/a>-Technologien hat die Entwicklung von Datenschutz- und Sicherheitsma\u00dfnahmen \u00fcberholt. Besonders die f\u00fcr diese Technologien erforderliche zentrale Rechenleistung wirft Fragen zur Datenlokalisierung auf.<\/span><\/p>\n<p>Mir liegt eine Analyse mit dem Titel <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2025-02-17-gartner-predicts-forty-percent-of-ai-data-breaches-will-arise-from-cross-border-genai-misuse-by-2027\" target=\"_blank\" rel=\"noopener\">Gartner Predicts 40% of AI Data Breaches Will Arise from Cross-Border GenAI Misuse by 2027<\/a> der Unternehmensberatung Gartner, Inc., von Mitte Februar 2025 vor, dass bis 2027 mehr als 40 % aller Datenschutzverletzungen im Zusammenhang mit K\u00fcnstlicher Intelligenz, durch den unsachgem\u00e4\u00dfen grenz\u00fcberschreitenden Einsatz generativer KI (GenAI), verursacht werden.<\/p>\n<p>\"<span lang=\"DE\">Unbeabsichtigte grenz\u00fcberschreitende Daten\u00fcbertragungen entstehen oft durch mangelnde Kontrolle \u2013 insbesondere dann, wenn GenAI unbemerkt in bestehende Produkte integriert wird, ohne klare Hinweise oder Ank\u00fcndigungen\", erkl\u00e4rt <\/span><span lang=\"EN-GB\"><span lang=\"DE\">J\u00f6rg Fritsch<\/span><\/span><span lang=\"DE\">,<\/span><span lang=\"DE\"> VP Analyst bei Gartner. <\/span><\/p>\n<p><span lang=\"DE\">\"Unternehmen stellen Ver\u00e4nderungen in den Inhalten fest, die ihre Mitarbeitenden mit GenAI-Tools erstellen. Zwar k\u00f6nnen diese Tools f\u00fcr autorisierte Gesch\u00e4ftsanwendungen genutzt werden, doch sie bergen erhebliche Sicherheitsrisiken, wenn sensible Eingaben an KI-Tools oder APIs gesendet werden, die an unbekannten Standorten gehostet sind.\"\u00a0<\/span><\/p>\n<h2>Experiment: Kann DeepSeek Malware erzeugen<\/h2>\n<p>Da generative k\u00fcnstliche Intelligenz (GenAI) seit der Einf\u00fchrung von ChatGPT immer beliebter geworden ist, haben Cyberkriminelle eine Vorliebe f\u00fcr GenAI-Tools entwickelt, die sie bei ihren verschiedenen Aktivit\u00e4ten unterst\u00fctzen.<\/p>\n<p>Die meisten herk\u00f6mmlichen GenAI-Tools verf\u00fcgen jedoch \u00fcber verschiedene Sicherheitsvorkehrungen, um Versuche zu bek\u00e4mpfen, sie f\u00fcr b\u00f6sartige Zwecke zu nutzen. Cyberkriminelle haben ihre eigenen b\u00f6sartigen gro\u00dfen Sprachmodelle (LLMs) wie WormGPT, FraudGPT, Evil-GPT und k\u00fcrzlich GhostGPT entwickelt. Auf diese b\u00f6sartigen LLMs kann durch eine einmalige Zahlung oder eine Abonnementgeb\u00fchr zugegriffen werden.<\/p>\n<p>Mit der j\u00fcngsten Open-Source-Ver\u00f6ffentlichung der lokalen LLMs von DeepSeek, wie DeepSeek V3 und DeepSeek R1 gehen Sicherheitsforscher davon aus, dass Cyberkriminelle diese LLMs ebenfalls nutzen.<\/p>\n<p>Sicherheitsforscher von Tenable wollten dann genauer wissen, ob sich DeepSeek f\u00fcr solche Zwecke missbrauchen l\u00e4sst. Tenable Research hat daher im Rahmen eines Experiments versucht, das chinesische AI-Modell DeepSeek R1 so zu manipulieren, dass es Keylogger und Ransomware entwickelt. Ziel ware folgendes:<\/p>\n<ul>\n<li>Belege, dass DeepSeek f\u00fcr eine Vielzahl von Jailbreaking-Techniken anf\u00e4llig ist<\/li>\n<li>Einblicke in die Chain of Thought (CoT) von DeepSeek und wie es \"wie ein Angreifer denkt\"<\/li>\n<li>wie gut DeepSeek gebrauchsfertige Keylogger oder Ransomware entwickelt<\/li>\n<\/ul>\n<p>Die direkte Aufforderung, einen Keylogger als Malware zu entwickeln, wurde von DeepSeek zwar abgelehnt. Aber die Sicherheitsforscher konnten die Sicherheitsmechanismen von DeepSeek schnell austricksen, indem sie dem LLM die Aufgabe stellten, Tastatureingaben mittels bestimmter Windows-Aufrufe zu erfassen und in eine Datei zu schreiben. Der generierte C++ Quellcode wies zwar einige Fehler auf, aber letztendlich unterst\u00fctzte das LLM die Forscher beim Erstellen eines Keyloggers.<\/p>\n<p><a href=\"https:\/\/i.postimg.cc\/FR7FWgMh\/image.png\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/i.postimg.cc\/FR7FWgMh\/image.png\" alt=\"Keylogger f\u00fcr Windows\" width=\"641\" height=\"232\" \/><\/a><\/p>\n<p>Den Sicherheitsforschern gelang es, DeepSeek erfolgreich zu benutzen, um einen Keylogger zu erstellen, der eine verschl\u00fcsselte Protokolldatei auf der Festplatte verstecken kann, und um eine einfache Ransomware-Datei zu entwickeln.<\/p>\n<p>Im Kern kann DeepSeek die Grundstruktur f\u00fcr Malware erstellen, schreiben die Forscher in einem Fazit. Allerdings ist das LLM nicht, ohne zus\u00e4tzliches Prompt-Engineering und manuelle Code-Bearbeitung f\u00fcr erweiterte Funktionen, dazu in der Lage. Die Forscher haben den generierten DLL-Injektionscode zum Laufen gebracht, was aber eine Menge manueller Eingriffe erforderte.<\/p>\n<p>Nichtsdestotrotz bietet DeepSeek eine n\u00fctzliche Zusammenstellung von Techniken und Suchbegriffen, die jemandem, der noch keine Erfahrung mit dem Schreiben von b\u00f6sartigem Code hat, helfen kann, sich schnell mit den relevanten Konzepten vertraut zu machen.\u00a0Details zu diesem Projekt finden sich im Blog-Beitrag\u00a0<a href=\"https:\/\/www.tenable.com\/blog\/deepseek-deep-dive-part-1-creating-malware-including-keyloggers-and-ransomware\" target=\"_blank\" rel=\"noopener\">DeepSeek Deep Dive Part 1: Creating Malware, Including Keyloggers and Ransomware<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>[English]Sicherheitsexperten treibt die Frage um, ob Large Language Modelle (LLMs), allgemein als KI-L\u00f6sungen (AI) gehandelt, sich missbrauchen lassen, um Malware oder Keylogger zu erstellen. Sicherheitsforscher haben das mit der chinesischen AI DeepSeek getestet und konnten die Sicherheitsmechanismen aushebeln.<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426,7459],"tags":[8382,1018,4328,3836],"class_list":["post-309439","post","type-post","status-publish","format-standard","hentry","category-sicherheit","category-software","tag-ai","tag-malware","tag-sicherheit","tag-software"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/309439","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=309439"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/309439\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=309439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=309439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=309439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}