Atlas ist der AI-Browser von OpenAI, der gänzlich neue Möglichkeiten zur Nutzung von KI und Agenten bieten soll. Nun hat OpenAI angekündigt, den Atlas-Browser "weiter härten" zu wollen. Denn AI-Browser sind bezüglich allerlei Sicherheitsproblemen anfällig.
Kürzlich hat OpenAI seinen AI-Browser ChatGPT Atlas vorgestellt. Ich hatte das Thema Atlas-Browser im Blog-Beitrag ChatGPT: Atlas-Browser, der erste Schritt zum KI-Betriebssystem hier im Blog aufgegriffen. Der ChatGPT Atlas-Browser von OpenAI steht als eine Art Prototyp dafür, wie wir alle Computer in Zukunft nutzen sollen.
Denn innerhalb weniger Jahre sollen Betriebssysteme mit KI betrieben werden, bei denen Benutzer über Eingabeaufforderungen interagieren, anstatt auf Anwendungen zu klicken. Die Nutzer sollen beschreiben, was sie möchten. Die KI soll dann für die Anwender alles in ihrem System, ihren Apps und im Internet koordiniert. Das ist die logische Weiterentwicklung des Computings, heißt es. Das ist zumindest die Zukunftsvision mancher AI-Protagonisten.
Sicherheitstechnisch sind solche Browser aber ein Alptraum, da sie durch Prompt Injection-Angriffe leicht missbraucht werden können. Browser gehören bereits jetzt (auch ohne KI) zu den am häufigsten ausgenutzten Angriffsflächen in der Computerwelt. Sie sind das Tor zu authentifizierten Sitzungen und sensiblen Daten.
Kommt nun noch KI hinzu, die mit den vollen Berechtigungen des Anwenders über alle angemeldeten Sitzungen hinweg arbeitet – Banking, E-Mail, Gesundheitswesen, Unternehmenssysteme –, erweitert sich die Angriffsfläche dramatisch. Von der Frage der Vertraulichkeit der Daten, die im KI-Zeitalter verloren geht, ganz zu schweigen.
Nun hat OpenAI im Artikel Continuously hardening ChatGPT Atlas against prompt injection attacks angekündigt, seinen ChatGPT-Atlas-Browser gegen Prompt-Injection-Angriffe härten zu wollen. Ein LLM soll solche Angriffe erkennen und abwehren können.
Auch wenn OpenAI daran arbeitet, seinen Atlas-KI-Browser gegen Cyberangriffe zu sichern, räumt das Unternehmen ein, dass Prompt-Injections, eine Art von Angriff, bei dem KI-Agenten dazu gebracht werden, böswillige Anweisungen auszuführen, die oft in Webseiten oder E-Mails versteckt sind, ein Risiko darstellen, das so schnell nicht verschwinden wird – was Fragen darüber aufwirft, wie sicher KI-Agenten im offenen Internet arbeiten können, schreibt The Verge in diesem Artikel dazu. Unter dem Strich weiß ich wirklich nicht, ob AI-Browser so eine wirklich gute Idee sind.



MVP: 2013 – 2016



