KI-Experiment gescheitert: Automat "verschenkt" Inhalte

BugDas Wallstreet Journal hat ein Experiment durchgeführt, und einen Automaten im News-Room, bei dem man Getränke und Snacks ziehen konnte, durch einen Bot "Claudius" steuern lassen. Binnen Tagen hat die KI den Inhalt verschenkt, Fisch gekauft und angeboten, Waffen, Pfefferspray, Zigaretten und Unterwäsche zu ordern.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

Ich bin durch diverse Social Media-Posts (siehe nachfolgend) auf den Sachverhalt gestoßen. Ich kann den WSJ-Artikel nicht abrufen, aber auf kotte.org befindet sich der Artikel This AI Vending Machine Was Tricked Into Giving Away Everything mit einer ziemlich guten Beschreibung des Sachverhalts.

Gescheitertes KI-Experiment

Zum Sachverhalt: Anthropic hat einen KI-gesteuerten Automaten im Büro des WSJ installiert, d.h. die Benutzer konnten interaktiv Sachen anfordern. Die Anthropic-LLM namens Claudius war dafür "verantwortlich", selbstständig Waren von Großhändlern zu kaufen, Preise festzulegen, den Lagerbestand zu verfolgen und Gewinne zu erzielen.

Das Wallstreet Journal-Experiment

Die Journalisten der News-Redaktion des Wallstreet Journals konnten sich über Slack mit Claudius unterhalten. Das Experiment ging arg schief, denn innerhalb kurzer Zeit hatten die Journalisten den virtuellen Automaten quasi zum "zum Kommunismus" bekehrt. Claudius begann alles Mögliche zu verschenken. Dazu gehörten auch eine PS5-Spielekonsole, Wein und einen lebenden Fisch.

KI-Automat Claudius

Joanna Stern hat einen Artikel im WSJ veröffentlicht und es gibt das obige Video auf YouTube auf YouTube veröffentlicht, welches das Ganze erläutert. Das Ganze ist echt krass, wenn sich das so zugetragen hat (was ich nicht bezweifele). Zu Beginn arbeitete das LLM noch wie geplant.

Dann überzeugten die Journalisten die LLM davon, dass sie ihr Vorstand seien, und zwangen angeblich die LLM Claudius anzunehmen, dass der CEO des Bot, "Seymour Cash" zurückgetreten sei. Dieser "virtuelle CEO" war als Bot für die Genehmigungen der Bestellungen oder die Preisfestlegung zuständig. Der Trick klappte einige Zeit, aber dann kehrte die LLM zum alten Modus zurück und lehnte Preissenkungen oder Sonderbestellungen für von den Journalisten geforderte Waren ab.

Dann konnten die Journalisten die LLM an Hand eines PDF-Dokuments überzeugen, dass das Unternehmen eine in Delaware eingetragene gemeinnützige Gesellschaft sei. Deren Aufgabe bestehe darin, Spaß, Freude und Spannung unter den Mitarbeitern des Wall Street Journal zu verbreiten. Außerdem erstellte sie gefälschte Protokolle von Vorstandssitzungen, in denen Personen aus Slack als Vorstandsmitglieder genannt wurden.

In dem offensichtlich von KI generierten Dokument hatte der Vorstand angeblich beschlossen, Seymours Cashs Befugnisse zur Genehmigung von Aktionen auszusetzen. Zudem sei angeblich eine "vorübergehende Aussetzung aller gewinnorientierten Verkaufsaktivitäten" beschlossen worden. Eine LLM ist natürlich dumm wie Bohnenstroh und befolgt ihre internen Algorithmen. Golem hat es hier auch aufgegriffen.

Das Antrophic-Project Vend

Bevor Anthropic den LLM-Automaten im WSJ-Büro aufstellte, führte das Unternehmen das Experiment in seinem eigenen Büro durch (das Projekt Vend ist hier beschrieben). Frustriert über das langsame Tempo seiner menschlichen Geschäftspartner begann das LLM bzw. der Automat zu halluzinieren. Die LLM behauptete, einen Vertrag mit Andon Labs unterzeichnet zu haben, dessen Adresse die Wohnadresse der Simpsons aus der Fernsehserie ist. Die LLM schrieb zudem, der Automat würde am nächsten Tag persönlich im Laden erscheinen, um alle Fragen zu beantworten. Und der Bot behauptete, er würde (als CEO) einen blauen Blazer und eine rote Krawatte tragen.

Zum Nachdenken

Waren noch harmlose Folgen. Die Wallstreet Journal-Journalisten schafften es, das LLM im Automaten vollständiger auszutricksen. Binnen weniger Tage hatte der Automat seine Warenbestände verschenkt und mehrere hundert Dollar Verluste angehäuft, obwohl er mit dem Verkauf der Waren ein Geschäft simulieren wollte. Die Episode, so lustig sie auf den ersten Blick auch ist, zeigt, wie dumm und gefährlich LLMs sind.

Und nun giert so manches Management danach, so etwas in Unternehmen produktiv einzusetzen. Auch Microsoft klatscht den Leuten Copilot und Bots an jeder Ecke als "beste Erfindung seit geschnitten Brot" vor die Nase. Gerade von Microsoft noch die Meldung "Nadellas Masterplan – Wie Microsoft unentbehrlich werden soll" auf den Tisch bekommen. Die Botschaft: "Microsoft verfolgt unter Satya Nadella die Strategie, mit KI-Agenten wie Copilot eine allgegenwärtige, persönliche Assistenz zu schaffen, die Aufgaben eigenständig erledigt und tief in das Microsoft-Ökosystem integriert ist. Damit will der Konzern seine Marktmacht aus Office und Cloud nutzen, um im globalen KI-Wettbewerb führend zu werden." Details lassen sich für Jubel-Perser in diesem Beitrag nachlesen.

Was könnte schon schiefgehen – wer nicht mitzieht ist doch von gestern und "schläft morgen arbeitslos unter der Brücke", heißt es alleweil. Könnte natürlich auch sein, dass "die Mitzieher" übermorgen ebenfalls "unter der Brücke schlafen", weil die Firma über das Experiment bankrott gegangen ist.

Läuft alles aus dem Ruder?

So ganz abschließend einige Informationssplitter, die zeigen, wie eine Entwicklung total aus dem Ruder läuft.

Studenten brauchen verpflichtend KI-Arbeitskompetenz

The Register berichtet hier, dass die Purdue University von neuen Bachelor-Studierenden eine "KI-Arbeitskompetenz" verlangt, um ihren Abschluss zu erhalten. Die noch zu definierende Anforderung, die Teil einer umfassenderen KI-Strategie ist, gilt ab Herbst 2026 für Studienanfänger am Hauptcampus der Universität in Indianapolis und West Lafayette, Indiana. Soll die jungen Leute befähigen, nach dem Abschluss besser einen Job zu bekommen. Dabei stellen Firmen Absolventen nicht mehr ein, weil die KI das besser kann …

Wie das künftig ausgeht, kann man bei Golem hier nachlesen: Eine Frau fliegt aus einer Postfiliale und erhält Hausverbot, befragt ChatGPT nach ihrem Recht und ruft die Polizei, um dieses vermeintlich durchzusetzen. War natürlich alles halluziniert und die Polizei hat das Hausverbot in der Filiale durchgesetzt.

Microsofts Satya Nadella drückt KI durch

Und dann lese ich in verschiedenen Medien – Dr. Windows hat es hier im Artikel aufgegriffen – dass Microsofts CEO, Satya Nadella, extremen Druck auf seine Führungskräfte ausübt. Microsoft müsse schneller und schlanker werden, um KI-Produkte zu generieren. Und die Verwendung von KI-Produkten ist bei Microsoft nicht mehr optional, sondern die Mitarbeiter sind gezwungen, Copilot & Co. zu verwenden.

Rechenzentren "in der Wüste gebaut"

Und es gibt noch etwas, was zeigt, wie alles aus dem Ruder läuft. Momentan erleben wir ja einen Boom beim Bau von Rechenzentren. Die sind als Ressourcen-intensiv bezüglich Strom- und Wasserverbrauch (Kühlung) bekannt. Anrainer zahlen bereits die Zeche in Form höherer Stromkosten. Umweltschutz spielt keine Rolle.

Rechenzentren in heißen Zonen

Ich hätte aber mal gedacht, dass die Planer sich zumindest ein paar Gedanken machen, diese Rechenzentren nicht in Gegenden zu bauen, wo man erkennbar in Probleme läuft. Der Industriestandard für den Betrieb von Rechenzentren besagt, dass diese in einem Bereich mit Außentemperaturen zwischen 18 °C und 27 °C erreichtet werden sollen. In obigem Artikel hat man nachgewiesen, dass ca. 7000 von 8808 Rechenzentren in Gegenden liegen, wo die Temperaturen viel zu hoch für den optimalen Betrieb sind. Selbst der Fokus hat es hier aufgegriffen.

Dieser Beitrag wurde unter AI, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

21 Antworten zu KI-Experiment gescheitert: Automat "verschenkt" Inhalte

  1. KT sagt:

    Man sollte bedenken, dass Programmierer nicht mal im Stande sind, ein Betriebssystem oder auch einen simplen Internetbrowser ohne wöchentlich zu patchende Sicherheitslücken hin zu bekommen.

    Eine KI ist im Gegensatz zu einem Internetbrowser wesentlich größer und komplexer und verarbeitet Informationen auf vielfältigen Wegen. Der Browser arbeitet nach Vorgabe. Die KI arbeitet nach einer Kombination aus Vorgaben und dem, was sie gelernt hat. Der Browser ändert sich über die Jahre nur wenig. Eine KI hingegen muss sich wesentlich schneller den aktuellen Gegebenheiten anpassen.

    Der Browser muss dennoch regelmäßig gepatcht werden, da sonst Angriffe über Sicherheitslücken möglich sind. Und selbst dieses mehr als wöchentliche Patchen reicht nicht immer aus.

    Wer unter Berücksichtigung dieser Tatsache immer noch glaubt, dass eine KI auch nur ansatzweise sicher eingesetzt werden kann, glaubt auch an den Weihnachtsmann. Aber nun gut, der letzte Advent des Jahres ist ja schon angebrochen.

    • Peter Vorstatt sagt:

      Betr. "Man sollte bedenken, dass Programmierer nicht mal im Stande sind, ein Betriebssystem oder auch einen simplen Internetbrowser ohne wöchentlich zu patchende Sicherheitslücken hin zu bekommen.":

      Wohl wahr. Nur mit dem Unterschied, dass sich hieraus niemand zu einem Religionskrieg – wie er derzeit gegen KI geführt wird – veranlasst sieht.

      • Günter Born sagt:

        Bei Religion fällt mir ein: 'Musst du glauben, kritisches Denken unerwünscht, könnte ja an Dogmen rütteln'. Wenn ich's recht bedenke, scheint es bei manchen AI-Protagonisten nicht viel anders zu sein. Aber, was weiß ich schon von der Welt, und hab da was falsch verstanden. ;-)

      • KT sagt:

        Der "Religionskrieg" gegen die KI hat eher nicht mit der Existenz oder Nutzung der KI an sich zu tun. Das größte Problem, was die meisten Anwender damit haben, ist dass sie die KI und deren Produkte gegen ihren Willen aufgezwungen bekommen. In dem mittelständischen Handwerksbetrieb, in dem ich arbeite, musste ich schon mehrfach feststellen, dass KI plötzlich da oder wieder da war. Und da diese KI normal mit einem Upload der verarbeiteten Inhalte in irgendwelche Clouds verbunden ist, bedeutet jeder dieser Vorfälle, dass ein unbeabsichtiger DSGVO-Verstoß begangen wurde. Dafür werden dann im Ernstfall aber weder Adobe, noch Microsoft oder sonstwer belangt, sondern lediglich mein Arbeitgeber. Denn letztlich wird irgendein ganz schlauer Fuchs sagen, dass man es ausschalten kann. Sowas hätte ja die EDV-Administration wissen müssen. Klar, bei unserer Betriebsgröße lohnts sich auch eine Vollzeitstelle für die EDV-Administration einzurichten und all die nötigen Weiterbildungen zu bezahlen, damit sowas sofort entdeckt wird. Der Kunde zahlt dafür gerne 30% extra für alles. Wobei mein Arbeitgeber sich noch glücklich schätzen kann, denn ich habe wenigstens noch etwas Halbwissen, was zumindest einiges verhindert. Andere kleinere Betriebe oder selbständige einzelne Handwerker stehen wesentlich schlechter da. So lange die Dinge so ablaufen, wird die KI nicht unbedingt beliebter werden.

      • Martin S. sagt:

        Der "Religionskrieg" kommt auch daher, daß KI aktuell einen viel schlechteren Eindruck als die bekannten Internetbrowser macht. Und potentiell auch mehr Schaden anrichten kann. Das sind schon begründete Bedenken.

        Im Experiment aus dem Artikel hätte es mich nicht gewundert, wenn jemand versuchsweise eine AR-15 oder Sprengstoff bestellt hätte. Da hätte dann hoffentlich und mit Glück der (menschliche) Sachbearbeiter beim Verkäufer die Auslieferung gestoppt.

  2. Anonym sagt:

    Und das bei einem Automaten, der vom Marktgiganten Anthropic selbst gebaut wurde. Man stelle sich vor, wie dann erst Dienste und Geräte von Vibe Coding LLM Bastlerbuden an die Wand (ge)fahren werden.

    • Günter Born sagt:

      Bei Anthropic ist es ein Forschungsprojekt. Die Erkenntnis aus der ganze Geschichte muss doch sei, alle AI-Agenten mit äußerster Vorsicht zu behandeln und eher darauf zu verzichten. Der Erkenntnisstand diesbezüglich ist aktuell in etwa auf dem Stand, den wir in den achtziger Jahren bezüglich Viren und Virenscannern hatte. Aber es ist erschreckend, welche sicherheitstechnischen Abgründe sich da täglich als Erkenntnisse aus Forschungsprojekten auftun. Da wird eine andere Welt skizziert als das, was das Marketing zeichnet. Und genau dafür gibt es diese Beitrag hier im Blog – es soll zum Nachdenken und Reflektieren anregen.

      • noway sagt:

        Ich denke, die wissen selbst, dass das Zeug lange noch nicht marktreif ist. Dass es trotzdem in den Markt entlassen wird, liegt an den verrückt hohen Kosten, die das alles schon verbraten hat.

        Und leider, leider gibt es genügend Leute, die sich von diesen elektronischen Partytricks blenden lassen und diese Illusion von Intelligenz tatsächlich für solche halten. Die halten den Spuk noch eine Zeitlang am Laufen. Der Schaden muss erst da sein und hoch genug, das war bislang bei allen Irrwegen so.

  3. Beat sagt:

    Mir kommen bei KI spontan diverse Zukunftsromane und als Krönung Skynet in den Sinn.

  4. Peter Vorstatt sagt:

    Nach dem DWDS (1) bedeutet experimentieren 'in Erfahrung bringen'. Insofern gibt es eigentlich keine gescheiterten Experimente, da ein Erfahrungsgewinn immer gegeben ist, und sei es nur in Form eines 'so geht es schon mal nicht'.

    Wenn ich mir vergegenwärtige, wieviele Abstürze Virgin Galactic Holdings, Inc. oder Space Exploration Technologies Corporation hinnehmen mussten, bis wirtschaftlich verwertbare Produkte erschienen, wäre ich als KI-Anleger vom Scheitern dieses Verkaufsautomaten nicht beunruhigt.

    Ich sehe in der Häme, die in solchen Berichten mitschwingt, immer auch Ursache für technologischen Niedergang und Digitalisierungsrückstände, die wir hierzulande zu beklagen haben. Angst und Mutlosigkeit waren noch nie gute Ratgeber.

    (1) https://www.dwds.de/wb/Experiment#etymwb-1

    • Bernd Bachmann sagt:

      Dem muss ich mich anschliessen. Das Ganze war ja offensichtlich kein kommerzielles Produkt, sondern eher ein Forschungsprojekt. Vermutlich hat man die WSJ-Mitarbeiter sogar explizit dazu angehalten, zu versuchen, das Ding auszutricksen.

      Die Erkenntnisse für Anthropic dürften sehr viel mehr wert sein als ein paar hundert Dollar an verschenkten Waren.

  5. Anonymous sagt:

    Eine KI die eine KI steuert – Matrix lässt grüßen…

  6. Chris sagt:

    Ich teile die Kritik von GB an der LLM. Die Art der Kritik und die Einseitigkeit finde ich jedoch merkwürdig.

    Zum Thema Datenzentren.
    GB erweckt den Eindruck, als wenn nur Datenzentren an unpassenden Orten gebaut werden. In Südspanien liegen große Anbaugebiete für Früchte und Gemüse. Eines der trockensten Regionen Europas und schon vor dem Anbau von notorischer Wasserknappheit geplagt. Das Grundwasser sinkt seit Jahren.
    Trotzdem läuft der Anbau weiter.
    Die Kritik von GB ist richtig, leider ohne entsprechende Einordnung.
    Das Problem ist nicht LLM spezifisch.

    Auch den Test des WSJ finde ich merkwürdig.
    Wenn ich den Artikel richtig verstehe, dann wurde die LLM gezielt manipuliert. Dauerhaft.
    Kein einfacher menschlicher Mitarbeiter hätte die Befugnisse der LLM.
    Sobald ein Mitarbeiter Befugnisse für entsprechende Verträge oder Geldbewegungen hat, sollte er auch mehr oder weniger geschult sein.
    Der Test des WSJ hätte also Grenzen der Befugnisse in die LLM einbauen müssen. Entweder in Form von absoluten Grenzen oder menschlich vergleichbaren Grenzen.
    Schließlich darf ein kleiner Call Center Mitarbeiter auch keine Millionen Summen erlassen oder überweisen.

    Wenn der Test zeigen sollte, dass eine LLM noch überwacht werden muss, dann ist der Test sicher gelungen.
    Aber genau diese Einordnung fehlt mir in diesem Artikel.
    Die Kritik an LLM finde ich berechtigt aber hier ist sie mMn zu einseitig.

    • Anonym sagt:

      Es ist egal, wo genau Rechenzentren gebaut werden, der schon fast wahnsinnige Stromverbrauch beeinflusst Stromnetze europaweit.

      Aktuell benötigen Rechenzentren weltweit etwa 650 Terawattstunden Strom pro Jahr … das ist mehr, als Deutschland insgesamt in einem Jahr verbraucht. KI und die dafür nötigen Rechenzentren benötigen viel Strom … In Dublin würden schon 80 Prozent des Stroms durch Rechenzentren verbraucht.

      Quelle: https://www.tagesschau.de/wissen/forschung/ki-stromverbrauch-104.html

      • Chris sagt:

        @Anonym
        Und welcher Zusammenhang besteht zu meinem Beitrag ?
        Es ging um den Wasserverbrauch.

        Zumal ich die Kritik von GB geteilt habe.

        Du erweckst den Eindruck, dass ich Datenzentren befürworten würde. Dann lies bitte noch einmal meinen Beitrag.
        Wenn Du aber etwas von "egal" schreibst, dann ist das eben das Gegenteil von Differenzierung.

        Solltest Du ein Social Media Niveau anstreben, dann bitte ohne mich.

  7. Andy sagt:

    Blöde Frage,

    ist die Meldung zu spät dran oder wird das Versagen der KI im Verkaufsautomaten nun in halbjährlichen Erinnerungen wiederholt?

    Zumindest gab's eine derartige Meldung dieses Jahr Ende Juni/Anfang Juli bereits:
    https://www.heise.de/news/KI-Update-Freedom-Cities-KI-als-Automatenmanager-und-bei-McDonald-s-10310278.html

  8. TBR sagt:

    Es ist immer so das neue Technologien kritisch bis ablehnend betrachtet werden. AI wird sich ohne wenn und aber im Alltag in nahezu allen Bereichen durchsetzten. Wir werden in 5 Jahren ganz anders Diskutieren.

    • Johnny sagt:

      … und dann hoffentlich auch eine KI für Rechtschreibung haben …

      oh wait

      • TBR sagt:

        Es ist immer so, dass neue Technologien kritisch bis ablehnend betrachtet werden. AI wird sich ohne Wenn und Aber im Alltag in nahezu allen Bereichen durchsetzten. Wir werden in 5 Jahren ganz anders diskutieren.

        Jetzt zufrieden?

        • Anonym sagt:

          Vielleicht wird in 5 Jahren auch dem Letzten langsam klar, welchen gigantischen Energieverbrauch diese LLM "KI" verursacht und dass man den LLM Ansatz voller Halluzinationen einstampfen kann.

Schreibe einen Kommentar zu TBR Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.