{"id":313768,"date":"2025-07-22T11:42:41","date_gmt":"2025-07-22T09:42:41","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=313768"},"modified":"2025-07-24T16:59:50","modified_gmt":"2025-07-24T14:59:50","slug":"openai-stellt-chatgpt-agent-vor-sam-altman-warnt-vor-risiken","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2025\/07\/22\/openai-stellt-chatgpt-agent-vor-sam-altman-warnt-vor-risiken\/","title":{"rendered":"OpenAI stellt ChatGPT Agent vor; Sam Altman warnt vor Risiken"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" style=\"margin: 0px 10px 0px 0px; display: inline; float: left; border-width: 0px;\" title=\"Edge\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2025\/04\/image-4.png\" alt=\"Copilot\" width=\"95\" height=\"91\" align=\"left\" border=\"0\" \/>[<a href=\"https:\/\/borncity.com\/win\/2025\/07\/24\/openai-has-introduced-chatgpt-agent-sam-altman-warns-of-risks\/\" target=\"_blank\" rel=\"noopener\">English<\/a>]OpenAI hat zum 17. Juli 2025 seinen \"ChatGPT-Agenten\" ver\u00f6ffentlicht. In einem l\u00e4ngeren Post auf X greift OpenAI-Chef Sam Altman dies auf. Gleichzeitig warnt Altman vor potentiell gro\u00dfen Risiken beim Einsatz dieses ChatGPT-Agenten. Es sei alles immer noch experimentell.<\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg04.met.vgwort.de\/na\/fb34da63d4134bdfb4567a7d0d1ff6fe\" alt=\"\" width=\"1\" height=\"1\" \/>AI-Agenten sind Software-Programme, die autonom, auf Basis \"k\u00fcnstlicher Intelligenz\", Aufgaben im Namen eines Benutzers oder eines anderen Systems erledigen. Die Agenten <span data-huuid=\"18332945310497154326\">k\u00f6nnen eigenst\u00e4ndig Entscheidungen treffen, Aufgaben planen und ausf\u00fchren, sowie mit ihrer Umgebung oder anderen Agenten interagieren, oft unter Verwendung von gro\u00dfen Sprachmodellen (LLMs).<span class=\"pjBG2e\" data-cid=\"208905e0-a001-4949-810a-4a1666b15a7a\"><span class=\"UV3uM\">\u00a0<\/span><\/span><\/span><\/p>\n<h2>Sam Altman zum ChatGPT Agent<\/h2>\n<p>Der Anbieter OpenAI hat nun auch einen eigenen \"ChatGPT Agent\" als Produkt, und OpenAI-Chef Sam Altman hat dessen Freigabe zum 17. Juli 2025 in einem <a href=\"https:\/\/x.com\/sama\/status\/1945900345378697650\" target=\"_blank\" rel=\"noopener\">Tweet auf X<\/a> angesprochen (<a href=\"https:\/\/www.heise.de\/news\/Sam-Altman-raet-vom-eigenen-ChatGPT-Agenten-ab-10494062.html\" target=\"_blank\" rel=\"noopener\">via<\/a>).<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"\" src=\"https:\/\/i.postimg.cc\/8CGPDY39\/image.png\" alt=\"ChatGPT Agent announcement\" width=\"444\" height=\"875\" \/><\/p>\n<p>Altman sieht den ChatGPT Agenten als eine neue Stufe der Leistungsf\u00e4higkeit von KI-Systemen, der angeblich komplexe Aufgaben f\u00fcr seine Nutzer ausf\u00fchren kann. Klingt gut, aber die reale Welt sieht da f\u00fcr mich ern\u00fcchternd aus.<\/p>\n<p>Von Microsoft und weiteren Protagonisten h\u00f6rt man, wenn gefragt wird, was man mit den Dingern anfangen k\u00f6nne, dass diese eine Reise oder einen Tisch in einem Restaurant buchen k\u00f6nnen. Und so wartet Sam Altman auch mit der \"freudigen Botschaft\" auf, dass bei der Einf\u00fchrung von ChatGPT Agent als Beispiel eine Demo zur Vorbereitung der Hochzeit eines Freundes gezeigt werde. Es geht um den Kauf eines Outfits, die Buchung einer Reise, Auswahl eines Geschenks usw.<\/p>\n<p>Das hat nat\u00fcrlich \"innovativen\" Charakter, immerhin sind wir &#8211; nach Ansicht dieser Leute &#8211; t\u00e4glich mit solchen Aufgaben befasst und w\u00e4ren ohne einen Agenten echt im Leben verloren. Zur Ehrenrettung von Altman muss ich sagen, dass er auch ein Beispiel f\u00fcr die Analyse von Daten und die Erstellung einer Pr\u00e4sentation f\u00fcr die Arbeit erw\u00e4hnt. Aber auch das ist ein Bereich, wo die meisten Leute eher nicht unterwegs sind. Ich m\u00f6chte es nicht weiter ausf\u00fchren, Eva-Maria Wei\u00df hat es gestern wunderbar in <a href=\"https:\/\/www.heise.de\/meinung\/KI-Agenten-Tisch-reservieren-ist-lahm-10494271.html\" target=\"_blank\" rel=\"noopener\">diesem heise-Kommentar<\/a> aufgespie\u00dft.<\/p>\n<h2>Altmans-Warnung vor Risiken<\/h2>\n<p>\u00dcberrascht haben mich dann aber die Ausf\u00fchrungen von Sam Altman zu den Risiken des Einsatzes des ChatGPT Agent. Altman schreibt zwar, dass Agenten einen gro\u00dfen Nutzen haben k\u00f6nnen, aber auch mit gro\u00dfen potenziellen Risiken verbunden seien.<\/p>\n<p>Altman sieht das Ganze als experimentell. Man habe zwar viele Sicherheitsvorkehrungen und Warnungen eingebaut, k\u00f6nne aber nicht alle Szenarien vorhersehen. Altman, der kein reiner Marketing-Mann ist, der alles negiert, was Probleme macht, warnt. B\u00f6swillige Akteure k\u00f6nnten versuchen, die KI-Agenten der Nutzer auszutricksen, damit die Software ungewollt private Informationen preisgibt, und\/oder Aktionen durchf\u00fchrt, die keinesfalls gewollt sind und nicht vorhergesagt werden k\u00f6nnen.<\/p>\n<p>Dann folgt eine fette und sehr deutliche Warnung. Altman schreibt, dass er seiner Familie\u00a0 den ChatGPT Agenten als innovativ und experimentell erkl\u00e4ren w\u00fcrde, als eine Chance, die Zukunft auszuprobieren. Aber das nicht etwas, was er f\u00fcr wichtige Anwendungen oder mit vielen pers\u00f6nlichen Daten verwenden w\u00fcrde. Oder in anderen, platteren Worten: Das Ganze ist ein Spielzeug, was man bei viel Zeit ausprobieren k\u00f6nnen, aber tunlichst aus dem gesch\u00e4ftlichen Bereich weg lassen solle.<\/p>\n<p>Der Chef von OpenAI schreibt zwar dazu, dass man den ChatGPT Agent \"in freier Wildbahn\" testen wolle, um mehr herauszufinden. Aber momentan wissen die Entwickler nicht genau, welche Auswirkungen bestimmte Aktionen haben werden. Altman gibt als Beispiel an, dass der Agent keinen Zugriff auf einen pers\u00f6nlichen Kalender braucht, um Kleidung zu kaufen. Als riskant sieht Altman bereits die Freigabe des Agenten zum Zugriff und zur Analyse aller eingegangenen E-Mails mit automatischer Ausf\u00fchrung erforderlicher Aktionen. Dies k\u00f6nnte dazu f\u00fchren, dass nicht vertrauensw\u00fcrdige Inhalte aus einer b\u00f6sartigen E-Mail das Modell dazu verleiten, Daten ungewollt weiterzugeben.<\/p>\n<p>OpenAI empfiehlt, den Agenten nur den Mindestzugang auf Daten zu gew\u00e4hren, der f\u00fcr die Erf\u00fcllung einer Aufgabe erforderlich ist, um Datenschutz- und Sicherheitsrisiken zu verringern. Er hegt das Bild, dass die Menschen diese Werkzeuge vorsichtig und langsam annehmen, w\u00e4hrend OpenAI sowie andere Entwickler die damit verbundenen potenziellen Risiken besser quantifizieren und entsch\u00e4rfen k\u00f6nnen. Wie bei anderen neuen F\u00e4higkeiten m\u00fcsse sich die Gesellschaft, die Technologie und die Strategie zur Risikominderung gemeinsam weiterentwickeln.<\/p>\n<h2>Meine Gedanken dazu<\/h2>\n<p>Als ich den Tweet von Altman gelesen habe, war ich platt. Da w\u00e4gt jemand ab und schreibt: Wir haben etwas neues, wissen aber noch nicht, welche Risiken es gibt, aber der Ansatz kann m\u00f6glicherweise sinnvoll sein. Testet das Zeug, aber setzt es extrem vorsichtig und abw\u00e4gend ein. Das entspricht so gar nicht der Marktschreier-Mentalit\u00e4t Microsofts, die solche Funktion auf Teufel komm raus auf die Leute los lassen und das zwangsweise.<\/p>\n<p>Und Altman spricht das an, was ich hier im Blog eigentlich seit Monaten propariere: LLMs k\u00f6nnen Sinn machen, wenn ich deren Einsatz im Griff habe und den Einsatzzweck begrenze sowie die Risiken im Griff habe. Wobei ich der Meinung bin, dass ich die Risiken schlicht niemals in den Griff bekomme &#8211; was der Agent an Dokumenten und Abl\u00e4ufen sieht, wird er verarbeiten und bei erfolgreichen Angriffen auch an unbefugte Dritte weiter geben.<\/p>\n<p>Ich hatte vor einigen Tagen im Beitrag\u00a0<a href=\"https:\/\/borncity.com\/blog\/2025\/07\/16\/energieverbrauch-und-funktionale-fails-ki-auf-dem-weg-zum-crash\/\" rel=\"bookmark\">Energieverbrauch und funktionale Fails: KI auf dem Weg zum Crash?<\/a> einige Aspekte im Themenumfeld aufgeworfen und auch die schlechte Bilanz der AI-Agenten angesprochen. So gesehen best\u00e4tigt Sam Altman die hier im Blog aufgeworfenen Fragestellungen und dass er kein Marketing-Vertreter ist, der die Risiken und Probleme mit Hochglanzfolien unter den Tisch quatscht.<\/p>\n<p><strong>\u00c4hnliche Artikel:<\/strong><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/10\/15\/warnung-ki-energiebedarf-bald-so-hoch-wie-fr-die-niederlande\/\" rel=\"bookmark\">Warnung: KI-Energiebedarf bald so hoch wie f\u00fcr die Niederlande<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/09\/26\/ai-microsoft-explodierende-energieverbraeuche-und-kosten\/\" rel=\"bookmark\">AI + Microsoft: Explodierende Energieverbr\u00e4uche und Kosten<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/05\/17\/auf-dem-weg-zur-co2-neutralitt-microsofts-co2-emissionen-2023-dank-ai-um-30-gestiegen\/\" rel=\"bookmark\">Auf dem Weg zur CO2-Neutralit\u00e4t? Microsofts CO2-Emissionen 2023 dank AI um 30% gestiegen<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/10\/20\/microsoft-und-die-quatschmaschine-copilot\/\" rel=\"bookmark\">Microsoft und die Quatschmaschine Copilot<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/07\/10\/microsoft-die-ai-die-erfolge-und-die-kosten-greenwashing\/\" rel=\"bookmark\">Microsoft, die AI, die Erfolge und die \"Kosten\" (Greenwashing)<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/09\/16\/rechenzentrumskostenausgleich-google-amazon-microsoft-und-meta-kaempfen-gegen-vorschlag-von-ohio\/\" rel=\"bookmark\">Rechenzentrumskostenausgleich: Google, Amazon, Microsoft und Meta k\u00e4mpfen gegen Vorschlag von Ohio<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/06\/25\/der-ki-ressourcenverbrauch-wird-stromnetze-und-lnder-berfordern\/\" rel=\"bookmark\">Der KI-Ressourcenverbrauch wird Stromnetze und L\u00e4nder \u00fcberfordern<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/07\/16\/energieverbrauch-und-funktionale-fails-ki-auf-dem-weg-zum-crash\/\" rel=\"bookmark\">Energieverbrauch und funktionale Fails: KI auf dem Weg zum Crash?<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/05\/13\/lethal-injection-microsoft-ai-bot-fr-das-gesundheitswesen-mal-eben-gehackt\/\" rel=\"bookmark\">Lethal Injection: Microsoft AI-Bot f\u00fcr das Gesundheitswesen mal eben gehackt<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/06\/13\/echoleak-erste-ai-0-click-sicherheitsluecke-in-microsoft-copilot\/\" rel=\"bookmark\">EchoLeak: Erste AI 0-Click-Sicherheitsl\u00fccke in Microsoft Copilot<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/06\/01\/copilotai-recall-funktion-ki-gesttzter-diebstahl\/\" rel=\"bookmark\">Copilot+AI: Recall-Sicherheitsdesaster- KI-gest\u00fctzter Diebstahl<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2024\/11\/24\/chatgpt-wenn-bei-der-code-entwicklung-schadcode-injiziert-wird\/\" rel=\"bookmark\">ChatGPT: Scam Crypto-API in Quellcode-Vorschlag sch\u00e4digt Opfer um 2.500 US-Dollar<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/04\/19\/chatgpt-co-chance-oder-eher-dsgvo-risiko\/\" rel=\"bookmark\">ChatGPT &amp; Co: Chance oder eher (DSGVO-)Risiko?<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/03\/03\/doctolib-will-patientendaten-fuer-ki-training-nutzen\/\" rel=\"bookmark\">Doctolib will Patientendaten f\u00fcr KI-Training nutzen<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/05\/11\/kriminelle-geschaefte-mit-boesartigen-ki-modellen-im-darknet-aufgedeckt\/\" rel=\"bookmark\">Kriminelle Gesch\u00e4fte und b\u00f6sartige KI-Modellen im Darknet<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2025\/01\/28\/ki-im-alltag-was-verbraucher-wissen-sollten\/\" rel=\"bookmark\">KI im Alltag: Was Verbraucher wissen sollten<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>[English]OpenAI hat zum 17. Juli 2025 seinen \"ChatGPT-Agenten\" ver\u00f6ffentlicht. In einem l\u00e4ngeren Post auf X greift OpenAI-Chef Sam Altman dies auf. Gleichzeitig warnt Altman vor potentiell gro\u00dfen Risiken beim Einsatz dieses ChatGPT-Agenten. Es sei alles immer noch experimentell.<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426,7459],"tags":[8621,4903,4652,4328,3836],"class_list":["post-313768","post","type-post","status-publish","format-standard","hentry","category-sicherheit","category-software","tag-chatgpt-agent","tag-ki","tag-risiko","tag-sicherheit","tag-software"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/313768","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=313768"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/313768\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=313768"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=313768"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=313768"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}