Cyberkriminelle interessieren sich auch für AI-Modelle wie ChatGPT, um diese für ihre Machenschaften zu missbrauchen und digitale Raubzüge optimieren zu lassen. OpenAI hat nun fünf Konten aus China, Russland, Iran und Nordkorea geschlossen, nachdem diese Konten in kriminelle Handlungen involviert waren. Das geht aus einer Verlautbarung der beiden Unternehmen hervor.
Anzeige
Es ist ja schon länger bekannt, dass Cyberkriminelle sich auf KI-Tools stützen oder sich mit dem Thema befassen, um ihre Operationen zu optimieren. Speziell staatlich gestützte Gruppen von Cyberangreifern interessieren sich für den Zugang zu fortschrittlicher Technologie. Diese Gruppen haben auch große finanzielle Ressourcen und qualifiziertem Personal, um ChatGPT & Co. zu nutzen. Das stellt eine besondere Gefahr für das digitale Ökosystem.
In dieser Meldung vom 14. Februar 2024 hat OpenAI bekannt gegeben, dass man die böswillige Nutzung von KI durch staatlich unterstützte Bedrohungsakteure unterbunden habe. Dazu wurden die betreffenden Konten, die mit staatlich unterstützten Bedrohungsakteuren in Verbindung gebracht wurden, gekündigt.
Auf der Grundlage der Zusammenarbeit und des Informationsaustauschs mit Microsoft konnten fünf mit staatlichen Hackern verbundene Gruppen identifiziert und als bösartige Akteure ausgeschaltet werden, schreibt OpenAI. Es handelt sich um folgenden Cybergangs:
- zwei mit China verbundene Bedrohungsakteure, die als Charcoal Typhoon und Salmon Typhoon bekannt sind;
- den mit dem Iran verbundenen Bedrohungsakteur, der als Crimson Sandstorm bekannt ist;
- den mit Nordkorea verbundenen Akteur, der als Emerald Sleet bekannt ist;
- und den mit Russland verbundenen Akteur, der als Forest Blizzard bekannt ist.
Die identifizierten OpenAI-Konten, die mit diesen Akteuren in Verbindung stehen, wurden aufgelöst. Die genannten Akteure versuchten OpenAI-Dienste für die Abfrage von Open-Source-Informationen, die Übersetzung, das Auffinden von Codierungsfehlern und die Ausführung grundlegender Codierungsaufgaben nutzen.
Anzeige
- Charcoal Typhoon nutzte die OpenAI-Dienste, um verschiedene Unternehmen und Cybersicherheits-Tools zu recherchieren, Code zu debuggen und Skripte zu generieren sowie Inhalte zu erstellen, die in Phishing-Kampagnen verwendet werden könnten.
- Salmon Typhoon nutzte die OpenAI-Dienste, um technische Dokumente zu übersetzen, öffentlich zugängliche Informationen über mehrere Geheimdienste und regionale Bedrohungsakteure abzurufen, bei der Codierung zu helfen und gängige Möglichkeiten zu recherchieren, wie Prozesse in einem System versteckt werden können.
- Crimson Sandstorm nutzte die OpenAI-Dienste zur Unterstützung bei der Skripterstellung im Zusammenhang mit der App- und Web-Entwicklung, zur Erstellung von Inhalten, die für Spear-Phishing-Kampagnen geeignet sind, und zur Erforschung gängiger Methoden, mit denen Malware der Erkennung entgehen kann.
- Emerald Sleet nutzte die OpenAI-Dienste, um Experten und Organisationen zu identifizieren, die sich mit Verteidigungsfragen im asiatisch-pazifischen Raum befassen, öffentlich verfügbare Schwachstellen zu verstehen, bei grundlegenden Scripting-Aufgaben zu helfen und Inhalte zu entwerfen, die in Phishing-Kampagnen verwendet werden könnten.
- Forest Blizzard nutzte die OpenAI-Dienste in erster Linie für Open-Source-Recherchen zu Satellitenkommunikationsprotokollen und Radarbildgebungstechnologie sowie für die Unterstützung bei Scripting-Aufgaben.
Weitere technische Details über die Art der Bedrohungsakteure und ihre Aktivitäten finden sich in dem parallel von Microsoft veröffentlichten Blogpost Staying ahead of threat actors in the age of AI.
Anzeige
Auch wenn man so Missbrauch verhindert – welchen Missbrauch hat man damit zuerst (wenig reguliert, experimentell, Gewinnorientiert) geschaffen und ermöglicht? Halte die Meldung daher für Säbelrasseln – oder *seufz* ist das Marketing?
Microsoft & OpenAI "retten" auch die Deutsche, die Australische und die Wirtschaft Großbritanniens, wie Heise hier schreibt.
Bei KI-Einsatz haftet jedoch zB Air Canada hier für Schäden bei Falschaussage von KI. Und nebenbei setzt KI bei Simulationen hier bei Heise gar auch mal Atomwaffen ein. Wenn dann "nur" einige Bösewichte erkannt werden … ?
… kommt also mit, auf den bunten Pillen- Flower-Power- Social-Correctness- Erfolgszug von KI … Microsofts KI ist der Retter der Welt! Microsoft kann Konten sperren, juchu!
(das schaffen die auch, wenn man seine Fotos der eigenen Kinder beim planschen in der MS-CLoud speichern will)
5 Konten gesperrt xD
Dann machen die halt 10 neue Konten auf bzw. nehmen ihre 100 anderen Konten her.
Wenn man weiss, dass "Cyberattributierung" (die sichere Identifizierung eines Angreifers) als sachlich nahezu unmöglich gilt gewinnt man zunehmend den Eindruck, dass da von eigenem Versagen abgelenkt werden soll und man das eigene Versagen zudem für Hass und Hetze gegen den erklärten Systemfeind nutzt.
Schade, dass auch Herr Born die unbewiesenen Behauptungen immer wieder so prominent und als Tatsachen herausstellt. Früher™, als Journalismus noch einem Codex folgte, wären da eher Formulierungen wie "stoppen Hacker angeblich aus …" oder "Es soll sich um folgenden Cybergangs handeln…" zu lesen gewesen – zumal die Herkunft der Täter im Sinne der IT-Unsicherheit doch eher zweitrangig ist.
Exakt das, Danke für den Einwurf.
Unsinn. Dir sind die Detektions- und Attributionsmöglichkeiten der betroffenen Dienste offensichtlich unbekannt. Das sind nicht Betreiber eines E-Mail-Servers für den Kleingartenverein. Lies dich in die regelmäßig veröffentlichten Bulletins Microsofts ein, sollte dich das tatsächlich interessieren und du nicht nur das hier aufgedeckte perfide Vorgehen der Geheimdienste einschlägig bekannter Diktaturen zu relativieren versuchen.
Ich denke, ihr solltet den Thread mit den persönlichen Beharkungen jetzt auslaufen lassen, danke.
Interessante Zusammenstellung der Ziele, die man mit OpenAI erreichen kann.
Liest sich klar und übersichtlich:)
Wie bei allen Werkzeugen: kann gut oder schlecht sein.
Mit der Sperre der Nutzer scheint der Nutzen bewiesen.
Damit wird das Werkzeug für einen viel größeren Nutzerkreis interessant.
Und genau dort ist das Problem bei wenigen Anbietern eines Werkzeugs: Wer bekommt Zugang, wer darf was und unter welchen Bedingungen. Deswegen ist der Markt so interessant: Wer die Kontrolle darüber hat, bekommt die Befugnis (Macht). Paradox, dass dies auf dem öffentlich gemachten Beiträgen der Menschenheit aufbaut. Es gab auch eine Zeit, da hoffte man, dass das Fernsehen der Gemeinschaft weltweit zur Verständigung helfen würde.
Bleibt zu hoffen, dass Sicherheitsforscher auch ohne staatliche Lizenz dieses Werkzeug für die eigene Arbeit verwenden können. Ohne kriminalisiert zu werden.
Generell hätte man KI nie der breiten Masse öffentlich zugänglich machen dürfen.
Finde es auch besorgniserregend, dass zunehmend Produkte der kommerziellen Hersteller KI einsetzen und somit auch einen neuen Angriffsvektor schaffen, der sich Ad-Hoc nicht einfach beseitigen lässt.