OpenClaw-Entwickler Peter Steinberger heuert bei OpenAI an

CopilotMit seinem Bot OpenClaw hat Peter Steinberger ja im Januar 2026 eine ziemliche Lawine losgetreten und sich auf eine Achterbahnfahrt begeben (das Teil musste 2 Mal umbenannt werden und patzt in Bezug auf Sicherheit). Nun hat Peter vor zwei Stunden mitgeteilt, dass er bei OpenAI anheuert, um einen "Bot für Alle" zu entwickeln.

Die Secure-Boot-Zertifikate laufen ab. Was sollen Admins tun? Kostenloses eBook » (Sponsored by IT Pro)


Ich habe zwar nicht jeden Wasserstand bezüglich des OpenClaw-Projekts hier im Blog gemeldet. Aber zum 26. Januar 2026 hatte ich im Beitrag Clawdbot: Ein OpenSource KI-Assistent – cool und ein Sicherheitsdesaster einen erste Blick auf das Projekt geworfen.

Rückblick auf OpenClaw

ClawdBot war der erste Name eines von Peter Steinberger entwickelten Open Source KI-Assistent zum Selbsthosten. Der Bot ist in Messaging-Apps (Telegram, WhatsApp, Slack) integriert und hat ein persistentes Gedächtnis. Der Bot kann im im Internet surfen, E-Mails abrufen, Code ausführen und Aufgaben automatisieren. Das Projekt nahm seit Anfang Januar 2026 Fahrt auf und der ClawdBot macht seitdem in der AI-Szene Furore, weil er auf einem Mac Mini läuft (aber man kann auch Linux oder Windows mit WSL nutzen). Das Ganze läuft rund um die Uhr auf einem Server für 5 $/Monat, heißt es.

Allerdings kristallisierten sich schnell zwei Probleme heraus. Mit dem Namen ClawdBot geriet das Projekt in Schwierigkeiten mit Antrophic, so dass Steinberger das Ganze in Moltbot und später in OpenClaw umbenannt hat. Kann man als Petitesse abtun, aber es gibt einen zweiten Aspekt, der schwerer wirkt. OpenClaw ist ein Open-Source-Projekt, was zum Experimentieren gedacht ist. Aber die Leute haben es real genutzt und auf echte Daten angesetzt. Zudem wurden weltweit Tausende OpenClaw-Server aufgesetzt, die auf Grund gravierender Sicherheitslücken in der Software oder wegen Fehlkonfigurierungen angreifbar waren.

Ich hatte einige Stunden nach Veröffentlichung des Beitrags Clawdbot: Ein OpenSource KI-Assistent – cool und ein Sicherheitsdesaster diesen Aspekt nachgetragen. Cyberkriminelle nutzten den Hype um ClawdBot zur Verbreitung von Malware – und ein Agent machte Schlagzeilen, weil er einen negativen Blogpost über den matplotlib-Entwickler Scott Shambaugh veröffentlichte (siehe diesen heise-Beitrag). Theoretisch hätte ich hier im Blog gefühlt täglich zwei oder mehr Artikel über OpenClaw und dessen negativen Impakt veröffentlichen können.

Peter Steinberger heuert bei OpenAI an

Gerade beim Scollen meines X-Nachrichtenstreams die nachfolgende Meldung von Peter Steinberger gelesen, in dem er bekannt gibt, dass er bei OpenAI anheuert.

Peter Steinberger geht zu OpenAI

In einem Blog-Beitrag schreibt Peter Steinberger, dass die letzten Wochen für ihn eine Achterbahn gewesen seien (was ich gut nachvollziehen kann). Sein Projekt OpenClaw war eigentlich nur zum Experimentieren und Herumspielen gedacht und er wurde vom Erfolg total überrascht. Der Hype führte dazu, dass Leute nachfragten, ob sie investieren könnten.

Er kann sich vorstellen, dass OpenClaw die Basis für ein großes Unternehmen werden könnte. Aber er habe das Thema Unternehmensgründung bereits durchgespielt, 13 Jahre meines Lebens darin investiert und viel gelernt. Aber im Grunde seines Herzens sieht er sich als Entwickler. Seine nächste Mission sei es, einen Agenten zu entwickeln, den sogar seine Mutter benutzen kann. Das erfordert eine viel umfassendere Veränderung, viel mehr Überlegungen, wie man das sicher bewerkstelligen kann, und Zugang zu den neuesten Modellen und Forschungsergebnissen.

Er hat das Projekt OpenClaw für sich als "Spielwiese" gestartet, mit dem Ziel, Spaß zu haben und Menschen zu inspirieren. Der Hype hat ihm nun aber andere Möglichkeiten eröffnet. Laut seiner Aussage hat er vergangene Woche in San Francisco verbracht, um mit den großen AI-Labors zu sprechen. Dabei hat er auch Zugang zu Menschen und unveröffentlichten Forschungsergebnissen erhalten, was für ihn in jeder Hinsicht inspirierend war.

In der Woche seines Aufenthalts in den USA hat er sich wohl entschieden, bei OpenAI anzuheuern. Laut seiner Aussage freut er sich sehr darauf, bei OpenAI mitzuarbeiten, und Teil der Avantgarde der KI-Forschung bzw. -Entwicklung zu sein. Peter Steinberger war es laut seiner Aussage schon immer wichtig, dass OpenClaw Open Source bleibt und die Freiheit hat, sich weiterzuentwickeln. Er schreibt, dass OpenAI der beste Ort sei, um seine Vision weiter voranzutreiben und ihre Reichweite zu vergrößern.

OpenAI habe sich fest dazu verpflichtet, schreibt Steinberger, ihm zu ermöglichen, seine Zeit für die Arbeit am OpenClaw-Projekt einzusetzen, und sponsert das Projekt bereits. Um dies in eine geeignete Struktur zu bringen, arbeite Peter Steinberger daran, eine Stiftung zu gründen. Diese soll ein Ort für Denker, Hacker und Menschen bleiben, die ihre Daten selbst verwalten möchten. Ziel sei es, noch mehr Modelle und Unternehmen zu unterstützen.

Einerseits ein riesiger Erfolg für Peter Steinberger (da kann man nur gratulieren) – der zeigt, dass führende AI-Köpfe nicht aus den USA kommen müssen (Steinberger ist Österreicher). Andererseits ist es auch ein erneuter Beleg für die Erkenntnis, dass die Umsetzung solcher Ideen leider immer noch in den USA erfolgen – in der EU gibt es da noch keine geeigneten Inkubatoren und VC-Fonds. Bleibt jetzt nur zu hoffen, dass OpenAI länger durchhält, und Steinberger sein Projekt in sicherere Gewässer steuern kann. Es bleibt auf jeden Fall spannend zu beobachten, wie es weiter geht.

Ergänzung: Inzwischen hat sich auch Sam Altman in diesem Tweet zu Wort gemeldet und schreibt.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our product offerings. OpenClaw will live in a foundation as an open source project that OpenAI will continue to support. The future is going to be extremely multi-agent and it's important to us to support open source as part of that.

Die interessantere Hintergrund-Story findet sich im implicator.ai Artikel Peter Steinberger Chose OpenAI. The Code Was Never the Point. Seit November machte Steinberger mit OpenClaw Verluste. Nach seiner eigenen Schätzung sind das zehn- bis zwanzigtausend Dollar pro Monat. Die Sponsoren-Einnahmen leitete er an die Entwickler weiter. Wie in den Kommentaren weiter unten erwähnt, hat Steinberger mit 13 Jahre damit verbracht, PSPDFKit zu einem PDF-Tool-Unternehmen mit einem Wert von über 100 Millionen Dollar aufzubauen, bevor er es an Insight Partners verkaufte. Es folgten drei Jahre, die er als Selbstfindung beschrieb. Dreiundvierzig gescheiterte Projekte.

Dann kam OpenClaw ins Rollen. Steinberger wurde faktisch von jedem der großen Player kontaktiert. Marc Zuckerberg diskutierte mit Steinberger über IDE-Präferenzen. Zuckerberg habe OpenClaw anschließend auf seinem eigenen Rechner getestet und gab anschließend unverblümtes und konkretes Feedback, was großartig oder Mist sei und was zu verbessern sei. Aber am Ende des Tages hat sich Steinberger für OpenAI entschieden.

Ähnliche Artikel:
Clawdbot: Ein OpenSource KI-Assistent – cool und ein Sicherheitsdesaster
Clawdbot – Moltbot – Openclaw: Heißer AI-Scheiß und Sicherheitsdesaster

Dieser Beitrag wurde unter AI, Software abgelegt und mit , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

26 Kommentare zu OpenClaw-Entwickler Peter Steinberger heuert bei OpenAI an

  1. Tahir Akkaya sagt:

    Toll, ich war Feind von Antropics Claude, Googles Gemini, Chinas DeepSeek und OpenAIs Chat-GPT. Kein einziges Europäisches Mitglied hat dieses Potential wahrgenommen und hat Ihn wieder in die Hände der Amerikaner gespielt. Super. Auch seine Entscheidung depremiert mich. Kann mir vorstellen, was für eine Summe er dafür bekommen hat, aber reich ist er ja schon, mit seinem PDF Kit geworden was er damals entwickelt hat.

    Antropics Claude hat in der Coding Szene die meiste Macht, weil es am besten funktioniert für Software Entwickler. Wieso aber hat er sich dann an den Teufel Sam Altman gewendet. Wieso nicht gleich zu Elon Musk, oder noch besser Trump? Lol

    All die Macht an die Amerikaner also …. na toll…..

    • Tobo sagt:

      Was Coding angeht hat Claude aktuell die Nase vorn.

      • Gänseblümchen sagt:

        Beim Lesen von Handschriften des 16-19 Jahrhunderts ist es Gemini 3.

        Und?

      • Günter Born sagt:

        Hört man so. Hab am Wochenende für einige Stunden ein Vibe-Coding-Projekt probiert (habe jetzt ca. 1 Woche immer mal wieder den Ansatz probiert, weil ich mit Plugins nicht weiter kam). Claude Code war meine erste Wahl (weil das Teil gut sei). Claude Code wollte mich nach dem ersten Prompt sofort auf eine Anmeldung schieben. Der bis dahin erzeugte Code war erinnerungsmäßig der schlechteste, oder anders ausgedrückt: "Faktisch unbrauchbar".

        Hab dann ChatGPT und vorher Grook probiert. Am Ende des Tages musste ich viele Prompt-Versuche in ChatGPT unternehmen, weil das WP Plugin mein Test CMS teilweise auf's Kreuz geworfen hat. Aktueller Stand: Mit ChatGPT und mehrfach modifiziertem Prompt sowie vielen Nachfragen habe ich ein funktionierendes Rumpf-Plugin hin bekommen. Dann habe ich mir von Grook den Code erklären und modifizieren lassen. Da war Grook gut – und er hat mir auf Nachfragen auch erklärt, warum bestimmte Funktionen nicht hingehauen haben.

        Aktueller Stand: Der Rumpf steht und macht weitgehend, was er soll (ist unkritisch, da noch keine Credentials im Plugin benötigt werden). Aktuell hänge ich noch an einer API der EU, die ich brauche. Die haben alles so schlau aufgesetzt, dass die Beantragung der Zugangsdaten nicht funktioniert. Wenn ich den API-Key bzw. die Zugangsdaten habe, werde ich das Projekt fertig stellen lassen, den Code nochmals kritisch durchgehen und vielleicht mal hier drüber bloggen.

        Erkenntnis: So ein, zwei dumme Fragen "ich will das" stellen, funktionierte für mich nicht. Und ohne vernünftige Kenntnisse der WordPress-Umgebung (wie man Code modifiziert, wie man ein aufs Kreuz gelegtes CMS wieder zum Laufen bringt etc.) wird das nie was. Und ohne wenigstens Grundkenntnisse, um den Code durchzugehen und zu prüfen, was der macht, würde ich einen weiten Bogen um diesen Ansatz machen. Allerdings wäre ich ohne die LLMs nicht in der Lage gewesen, binnen so kurzer Zeit den Code für einen Prototypen selbst zu schreiben, weil mit zu viel Wissen und praktische Erfahrungen um aufzurufende Methoden und viele Coding-Feinheiten in PHP und JavaScript fehlt.

        • xx sagt:

          Ohne API Key/Plan wundert mich nichts.
          In der freien Version können die ganzen KI Systeme nicht viel.

          • Günter Born sagt:

            Dann sind die LLMs aber faktisch unbrauchbar – denn die werden den Leuten aufs Auge gedrückt. Und warum soll ich mir einen teuren Plan buchen, nur um bei Tests festzustellen "taugt nichts"? Finde ich "a bisserl schwierig".

            • Anonym sagt:

              LLMs sind faktisch unbrauchbar, mit oder ohne API Key/Plan, da man immer selbst Wissen mitbringen muss, um in der Lage zu sein, die zusammengewürfelten Antworten wenigstens ansatzweise zu prüfen.

            • xx sagt:

              Ich würde eher sagen.. typische Deutsche Mentalität.
              LLMs werden aktuell alle nach Aufwand abgrechnet, selbst die Pauschlen Pläne.
              Das Risiko für einen Plan ist aber nicht sonderlich hoch, kann man doch alle nach einem Monat wieder kündigen.

              Damit das Zeug Freude macht, braucht man aktuell Zugang zu den Modellen: GPT5.2/5.3, Gemini3 Pro, Opus 4.6

              Das bekommt man z.b. via:
              – Github CoPilot -> ermöglicht in der Business Variante alle Modelle, hat aber Einschränkungen bzgl. Context Fenster
              (kostet ca. 20 EUR/pro Monat)
              – Google Antigravity
              – Claude Code -> wirklich alle Features bekommt man erst ab dem Max Plan für ca. 200 EUR/Monat

              Zum Probieren kann man z.b. bei https://openrouter.ai/ ein Guthaben kaufen.

              Relevant für den "Erfolg" ist dass die Modelle ein ausreichend großes Context Fenster haben. Die ganzen Freien-Pläne haben hier meist schlimme Einschränkungen. Und was bringt das beste Modell beim Programmieren, wenn es gefühlt alle 2 Sekunden vergisst was es gerade gemacht hat?

              Hier kommt auch die Programmier-Umgebung ins Spiel, diese unterscheiden sich leider auch erheblich. Claude-Code auf der CLI funktioniert super, Opus-4.6 via VS-Code Plugin ist wie mit angezogener Handbremse unterwegs.

          • Phadda sagt:

            Für meine Use Cases ist Gemini um längen besser als ChatGPT, was ich schon gar nicht mehr nutze :-) Und Gemini ohne Insert Coin, kann aus meiner Erfahrung deutlich mehr und "länger". Meine 5ct :)

    • Andi sagt:

      Noch viel schlimmer ist, dass sich viele keine Gedanken über mögliche Folgen eines solchen Agenten machen. Ein KI-Agent darf meiner und auch der Ansicht einiger Experten, niemals Systemrechte haben! Es gibt unzählige Szenarien, welche fatal enden würden, wenn so ein Agent einfach einen Aufgaben-Prompt missinterpretiert. Er könnte ja z.B. zu dem Schluss kommen, um eine gestellte Aufgabe zu erfüllen, muss er weitere Agenten von sich auf anderen Systemen installieren. Wo so etwas enden würde, kann sich wohl jeder vorstellen. Im Grunde bräuchten wir internationale Regeln für KI-Systeme und KI-Agenten, aber da habe ich derzeit wenig Hoffnung.

      • xx sagt:

        Falls die KI die Notwendigkeit sehen sollte, sich selbst zu replizieren.
        Ist ganz klar wo das endet. Nämlich in einem sehr schnellen aufbrauchen der verfügbaren Tokens -> Geld Limits.

  2. TBR sagt:

    Es liegt auch an Ihnen, Sie veröffentlichen immer nur Negatives über KI und die meisten Kommentare machen es nicht besser.

    • Günter Born sagt:

      Soll ich das jetzt als "Ritterschlag" nehmen, oder ist das ein Anwurf in Richtung "betreutes Denken"?

      • TBR sagt:

        Nein, aber eine ganzheitliche Betrachtung wäre wünschenswert. Besonders kritikfähig sind Sie nicht.

        • Ottilius sagt:

          das sagt der Richtige….

          Immer schön die Pro MS und Pro KI Agenda fahren und dann gerne die Leberwurst spielen, wenn es Gegenwind gibt. Das Ganze dann noch toppen, indem man von Ganzheitlichkeit fabuliert.

          @GB: kritische Betrachtungen scheinen gewissen Jubelpersern hier sehr sauer aufzustoßen – umso wichtiger und sinnvoller, nicht mit einzustimmen, sondern auch die anderen Seiten der Medaille zu zeigen.

    • topas sagt:

      Wieso darf man keine differenzierte Meinung haben?
      Es gibt KI-Modelle, die ihre Existenzberechtigung haben, keine Frage. Gerade in der Datenanalyse, Mustererkennung können die echt hilfreich sein. In Millionen Datensätzen Korrelationen erkennen – why not. Also alternative Referenz beim Wetterbericht ist es durchaus interessant. Bei bildgebenden Verfahren in der Medizin als Zweitmeinung – gern.

      Aber das, wo mit KI sonst beworben wird ist einfach nur Bullsh#t. Ich will mir keine Mails durch KI zusammenfassen lassen, die eine Gegenstelle mit KI aufgebläht hat. Keine KI-zusammengefassten Infos, deren Wahrheitsgehalt ich aufwendig händisch nachrecherchieren muss statt einfach direkt die valide Ausssage zu bekommen. Wenn ich einen Text schreiche schreibe _ich_ ihn, nicht eine KI, die weder meinen Stil noch meine Intention darstellen kann. Ich brauche keinen KI-gesteuerten Backofen, den Braten kriege ich selbst dank Expertise ganz gut selbst hin.
      Ich glaube der Anspruch an die eigene MI (Menschliche Intelligenz) ist nicht sonderlich hoch, wenn man solche Banalitäten an eine KI auslagern muss.

  3. Gänseblümchen sagt:

    Auch wenns Opensource ist und man es selber betreiben könnte. Ich würde niemals Deepseek einsetzen. Besser Mistral Le Chat unterstützen, das Projekt ist vielversprechend, ist aber im Vergleich zu den amerikanischen Anbietern etwas im Rückstand.

  4. O365 user sagt:

    Letztens hat ein junger Mensch die KI gefragt, wieso er bei einem Mädchen nicht "gelandet" ist – wirklich, nicht gelogen, ich musste 2 mal hinhören.

    In die Richtung geht die ganze Sch…, der allgemeinen Verblödung ist Tür und Tor geöffnet.

    • MichaelB sagt:

      vielleicht wollte er jemand fragen, der neutral ist, nicht persönlich, nicht über ihn lacht – was soll daran ungewöhnlich oder schlimm sein. Nicht jeder verliert gleich den Kontakt zur Realität nur weil er mal einen Freund der besonderen Art braucht.

      Nicht mal ernsthafte Psychologen lehnen KI-Fürsorge in allen Fällen ab.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.