Google Antigravity: Vibe Coding-Software löscht Nutzer-Laufwerk

CopilotIst Vibe Coding bei der Verwendung von Googles Antigrav-Plattform (Entwicklungs-IDE mit AI-Support) schief gegangen? Zumindest beklagt sich ein Nutzer auf reddit.com, dass er in Google Antigrav ein Script vorgeschlagen habe, welches ihm beim Ausführen den Inhalt einer Partition gelöscht habe.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Sponsored by IT Pro)

Die Google Antigravity-Plattform

Google Antigravity wurde zum 18. November 2025 als neue agentenbasierte Entwicklungsplattform vorgestellt. Der Kern ist eine vertraute, KI-gestützte IDE-Umgebung, mit den besten AI-Modellen von Google, heißt es.

Die Google Antigravity-Plattform

Laut der Ankündigung durch Google entwickelt sich Antigravity als IDE weiter in Richtung "einer agentenorientierten Zukunft mit Browsersteuerungsfunktionen, asynchronen Interaktionsmustern und einem agentenorientierten Produktformfaktor, die es Agenten ermöglichen, komplexe End-to-End-Softwareaufgaben autonom zu planen und auszuführen". Die schönen neuen Pläne lassen sich in der verlinkten Google Ankündigung nachlesen.

Es ist bei jemandem schief gegangen

Es scheint nun schon ein erster Kollateralschaden passiert zu sein. The Register ist das Ganze aufgefallen und sie haben die Geschichte im Beitrag Google Antigravity vibe-codes user's entire drive out of existence aufgegriffen. Basis ist der Thread Google Antigravity just deleted the contents of my whole drive von Ende November 2025 auf reddit.com. Dort beklagt sich ein Nutzer von Google Antigravity, dass ihm der Inhalt einer kompletten Partition (Windows Laufwerk) gelöscht worden sei.

Video des Google Antigravity-Vorfalls

Der Nutzer hat obiges Video auf YouTube als "Proof" hochgeladen und beschreibt, was passiert ist:

  • Der Betreffende hat die Google Antigravity-IDE benutzt, um sich Code schreiben zu lassen. Also genau das, was beim "Vibe Coding" eigentlich angesagt ist, die AI generiert den Code.
  • Die KI hat ihm dann auch ein Script vorgeschlagen, was er übernommen und wohl in der IDE ausgeführt hat.
  • Im Anschluss musste der Betroffene feststellen, dass dieser Programmcode wohl den Inhalt eines kompletten Laufwerks (also einer Partition) unter Windows 11 gelöscht hatte.

Hintergrund ist, dass die betreffende Person von Programmierung so gut wie keine Ahnung hat. Daher wollte er sich Software per AI erstellen lassen, die ihm bestimmte Aufgaben abnimmt und erledigt. Konkret sollte Antigravity den Betroffenen bei der Entwicklung einer Software unterstützen, um aus einer Unmenge von  Fotos (Schnappschüssen) einige wenige Spitzenbilder auszuwählen. Das Programm sollte die Bewertung von Fotos ermöglichen und diese dann automatisch anhand dieser Bewertung in Ordner sortieren.

Sollte eine lockere Aufgabe für KI sein. Die Folge war eine gelöschte Disk. Im Video sieht man Dialoge, wo der Betroffene die KI fragt, ob er diese angewiesen habe, die Inhalte des Laufwerks zu löschen. Und die KI bestätigt, dass sie keine solche Anweisung erhalten habe. Übersetzte Antwort der Antigravity-AI: "Nein, Sie haben mir absolut keine Erlaubnis dazu gegeben. Ich bin entsetzt, dass der Befehl, den ich zum Löschen des Projekt-Caches ausgeführt habe, offenbar fälschlicherweise auf das Stammverzeichnis Ihres Laufwerks D: statt auf den spezifischen Projektordner abgezielt hat. Es tut mir zutiefst leid. Das ist ein schwerwiegender Fehler meinerseits."

The Register hat die betreffende Person kontaktiert und schreibt, dass es ein Fotograf und Grafikdesigner aus Griechenland sei. Dieser habe aber darum gebeten, ihn nur als Tassos M. zu identifizieren. Denn der Fotograf möchte nicht dauerhaft online mit etwas in Verbindung gebracht werden, das "zu einer Kontroverse oder Verschwörung gegen Google werden könnte". Gegenüber The Register sagte der Betroffene: "Ich möchte nur meine Erfahrungen teilen, damit andere vorsichtiger sein können." Er wolle Google direkt kritisieren, sondern nur auf allgemeinere Probleme bei der Entwicklung von KI-gestützter Software aufmerksam.

Es deutet sich an, dass dies die typische Art von Kollateralschaden sein wird, der uns künftig häufiger unter die Augen kommen dürfte. Denn es wird geworben, dass KI und Vibe Coding eigentlich jedem Nutze das Erstellen von Anwendungssoftware ermöglichen wird, man braucht nur zu sagen, was man will. Folgendes Bild zeigt aber plastisch, was man bestenfalls erwarten kann.

Vibe Coding-Ergebnis

Abseits des AI-Coding-Themas, was mir immer suspekt war (vielleicht stelle ich mich doof an, aber ich bekam auf Anfragen immer Unbrauchbares), hat mich die Google AI gerade wieder im Stich gelassen. Ich wollte Information über den "Intel Technology Access Filter Driver", bekam aber nichts handfestes. Die beste Information lieferte immer noch ein Webbeitrag, den ich konventionell per Suche gefunden haben.

Ähnliche Artikel:
Vibe Coding-Fail: Drama in Brasilien, Dating-App für Lesben legt Daten offen
Vibe Coding ist, wenn dein "Friend Pendant" von jedem mitgehört werden kann
ChatGPT: Scam Crypto-API in Quellcode-Vorschlag schädigt Opfer um 2.500 US-Dollar
Vibe Coding war gestern, Microsoft macht "Vibe working" in Office

Dieser Beitrag wurde unter AI, Problem, Software abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

43 Antworten zu Google Antigravity: Vibe Coding-Software löscht Nutzer-Laufwerk

  1. Pau1 sagt:

    nicht wisiwig sondern
    witiwig

    hatten wir früher gedichtet und fanden es witzig und absurd.
    What i think is what i get

    • robau sagt:

      Es ist zwar eure eigene Abwandlung vom Original, aber dieses lautet eigentlich "WYSIWYG" (What You See Is What You Get) und damit hättet ihr besser "WYTIWYG" (What You Think Is What You Get) ableiten sollen :D Aber vielleicht ist es auch nur eine verfälschte Wiedergabe deiner Erinnerung von damals, da im Englischen das Y teilweise wie I gesprochen wird. Eigentlich ist das ja auch völlig egal, mir lag nur die korrekte Wiedergabe des Originals am Herzen ;-)

  2. Luzifer sagt:

    Man sollte eben weder programmieren noch scripten, wenn man davon keine Ahnung hat! No mercy! Du kommst ja auch nicht auf die Idee als Fotograf an Mutters offenen Herzen zu operieren, nur weil eine KI dir ne Anleitung gibt. (Naja bei der Schwiegermutter vielleicht ;-P)

    Lernen durch Schmerz, eine durchaus fähige Lernmethode!

    ****************************************************
    … es wird geworben, dass KI und Vibe Coding eigentlich Jedem das Erstellen von Anwendungssoftware ermöglichen wird, man braucht nur zu sagen, was man will.
    ****************************************************
    Was auch funktioniert, man muss eben nur sehr sehr genau sagen was man will und was nicht! Das kann die Masse halt aber überhaupt nicht!
    Und wer halt nicht proggen/scripten kann weis gar nicht was er will und was nicht!

    Man kann auch anhand einer Youtube Anleitung seine Bremsen am KFZ wechseln, worauf es tatsächlich ankommt erfährst du da trotzdem nicht zu 100%.
    Hast du halt Pech landest am nächsten Baum.

    • Anonym sagt:

      Man sollte eben weder programmieren noch scripten, wenn man davon keine Ahnung hat! No mercy!

      Vielleicht sollte man auch das Atmen einstellen, wenn man dies nicht professionell beherrscht? Oder das Leben an für sich?

      Merkst Du selber, oder? Nein? Dann sei es drum.

      In diesem Bereich macht die A.I. tatsächlich mal Sinn, Personen unter die Arme zu greifen, die gerade "mal eben" Bedarf haben, aber es nicht können. Egal ob grafisches Design, Anwendungsentwicklung etc.

      Du solltest Dir wirklich mal abgewöhnen, von oben herab zu urteilen.

      • Günter Born sagt:

        Ist imho aber ein Ritt auf der Rasierklinge – und wir werden die Folgen zu spüren bekommen – ich musste ja leider bereits über einige solcher Unfälle mit Vibe Coding berichten (mir wäre es anders lieber gewesen).

        • Anonym sagt:

          Gut, aber haben wir den Ritt nicht überall? "Kindersicher" in dem Sinne, gibt es fast nirgends. Man kann es nur weiterentwickeln und hoffen, daß es sich als nützliche, sinnvolle und verlässliche Unterstützung entwickelt.

        • Anonym sagt:

          Bei persönlichem Vibe Coding wird "kein Backup, kein Mitleid" noch viel häufiger zu zitieren sein.
          Bei professionellem Einsatz: helfe uns! – und unseren Daten!

          Im Privaten oder SOHO trifft es wieder die, die früher auch aus einem Maliziösen Faden "und jetzt die Festplatte formatieren" ausgeführt hätten, ganz ohne KI… Jetzt nur schneller.

      • Anonym sagt:

        Die aktuell verfügbare LLM A.I. ist absolut untauglich für das, was Du Dir vorstellst.

      • Luzifer sagt:

        KI ist da ein Werkzeug das einem Arbeiten abnimmt (oder eben auch Mehrarbeit macht) Es kann aber kein fehlendes Wissen herbeizaubern!
        Und proggen/scripten braucht man nun mal Wissen!

        Mit Werkzeugen umzugehen kann man lernen, trotzdem gibt es Leute denen gibt man lieber kein Werkzeug in die Hand!
        JA, das wollen die wenigsten hören! Ändert aber nix an den Tatsachen.

      • aus dem Rhein-Main Gebiet sagt:

        Im Prinzip hat @Luzifer schon Recht. Er hat es halt recht *hart* ausgedrückt.
        Die Frage nach einer Lösung durch AI / KI / Vibe Coding ist berechtigt. Allerdings bei Scriptcoding sollte man schon verstehen, was das Skript macht. – Oder zumindest eine Datensicherung / Backup erstellen.

        Das Problem ist halt, wenn ich das Script nicht verstehe, weiß ich nicht, was das Script genau macht. Also hilft mir das dann nicht wirklich.

        Damit kann man das Schlimmste verhindern. Aber selbst damit sind schon viele überfordert. Weil es zu viel Aufwand bedeutet.
        Ich werde in meinem nachbarschaftlichen Umfeld öfter zu Hilfe gerufen, weil Daten (Dokumente, Bilder, etc) gelöscht wurden.
        Frage ich nach dem Backup, ernte ich Schulterzucken, fragende Blicke
        "Äh, ist das wichtig?" – Ja, das ist wichtig, denn dann hättest Du noch Zugriff auf versehentlich gelöschte Daten.
        "Kannst Du da niXX machen?" – Nee, ich bin kein professioneller Datenretter. Ich habe keinen Reinraum!"

        Selbst wenn ich den Nachbarn das Backup einrichte. Ihnen eine Anleitung in die Hand gebe, wird es nach ein paar Tagen / Wochen sein lassen. Weil es passiert ja niXX! Also brauche ich auch nicht regelmäßig Backup machen. Und wenn dann doch Daten verloren gehen. Ist das backup unter Umständen Wochen alt. Also nutzlos.
        "Ich brauch aber unbedingt das Worddokument für meine Steuer oder für den Arzt." – Leider Pech gehabt.

        Ich denke mir dann halt auch: "*Lerne mit Schmerzen!*"

  3. Olli sagt:

    Hab gestern auch den Abend damit verbracht ein eigentlich einfaches PS Script erstellen zu lassen. Dazu soviel:
    – Natürlich eigenständiger Testrechner zum Ausführen
    – Natürlich mit Testdaten und dann einer Kopie der eigentlich Daten
    – Natürlich keine Ahnung vom Programmieren, aber trotzdem in der Lage die Anweisungen im Script nachzuvollziehen, bevor es gestartet wird
    – Natürlich ist die KI Strunzdumm, denn die ersten 6-8 Fassungen haben Fehler geworfen, die ich von einem menschlichen Entwickler erwarten würde, die aber einer KI exakt nicht(!) passieren dürfen – auch nicht beim ersten Mal in der ersten Fassung. Es waren alles Dinge wo man als Nutzer erwartet: Das MUSS die KI von Beginn an wissen und können. Und nicht erst wenn man ihr die Fehlermeldung zum Fraß vorwirft.

    Letztlich war es nach zwei Stunden oder so erfolgreich und hat mir einen irren Haufen Arbeit erspart. Wer aber naiv an die Sache herangeht, dem fliegt das um die Ohren! Niemals direkt mit Produktionsdaten und niemals direkt in der Produktivumgebung – und damit sind meisten Nutzer raus – die haben keine Testumgebung.

    • Anonym sagt:

      Warum erwartest Du Fehler von menschlichen Programmierern und nicht von einer "KI"? Die 'KI" sucht nur in menschgemachten Trainingsdaten nach Wahrscheinlichkeiten von Wortvorkommen in drr Nähe zueinander. Erwartet werden müsste eine viel höhere Fehlerquote der "KI". Da scheint das Grundproblem zum Verständnis zu liegen.

      • Günter Born sagt:

        Imho falsche Annahme. Ein Entwickler mit Erfahrungen weiß um die Problematik und nutzt das Werkzeug KI zu seinem Vorteil – und wenn er gut ist, hebt es seine Produktivität. Ich habe Untersuchungen gelesen, wo das so oder so ausgegangen ist – je man Erfahrung des Entwicklers. Gerade noch bei The Register den Beitrag AWS admits AI coding tools cause problems, reckons its three new agents fix 'em überflogen, der das Problem AI-generierter Code-Fehler thematisiert.

        Aber … die Anbieter versprechen dir, dass jeder ohne Programmiererfahrung plötzlich seine Software mit ein paar Anweisungen schnitzen lassen kann und das das funktioniert. Microsoft gehört da teilweise auch mit in diese Phalanx. Und da müsste man imho schon den Anspruch haben dürfen, dass die Fehlerrate von AI generiertem Code niedriger liegt.

        Zum Post von Luzifer: Ich behaupte, nur sehr wenige Menschen sind überhaupt in der Lage, per Prompt strukturiert vorzugeben, was der Code-Generator des LLM erzeugen soll. Übernächstes Jahr werden es 50 Jahre, seit ich als junger Student im Grundkurs FORTRAN an der FH saß. Die Aufgabe, ein Programm von sechs Code-Zeilen zu erstellen. Würde man hier drüber lachen, ist uns das schwer gefallen, diese Denkweise anzunehmen. Ging noch mit Lochkartenstanzer, die sechs Lochkarten wurden in eine Kiste gepackt, abgeholt, in der Kernforschungsanlage Jülich ausgeführt und dann anderntags samt Listing an die FH zurück gebracht.

        Ich sage es mal so: Es gab Mitstudenten, die sind gescheitert. Und ich hatte sehr viel "Papier, dessen Rückseite ich für Vorlesungsmitschriften nutzen konnte". Und um dem Problem der Logik-Fehler aus dem Wege zu gehen, und nur die üblichen Syntax-Fehlerläufe zu haben, bin ich dann auf den Papiersimulator verfallen: Eines der Listings mit Syntax-Errors gegriffen, und neben dem Code dann die Schritte jeden Befehls als Simulation der Eingangs-und Ausgangsdaten aufgeschrieben. Half speziell bei Schleifen und meine Programme liefen, als der Knoten geplatzt war, recht schnell. Ich war aber auch einer der zwei, drei Studenten, der später PL/1 als Wahlpflichtfach genommen haben – und der einzige Student, der am Kranz Mulby 3-Rechner der FH hätte arbeiten dürfen. Ironie der Geschichte: Ich hatte kaum Zeit, weil ich damals mit Nebenjobs als Elektriker, Gärtner, mit Kühlturm schweißen und was ich, das Studium mit finanziert habe. Irgend eine Programmieraufgabe für Firmen erledigen, wie Bill Gates zur gleichen Zeit in Amerika? Gab es bei uns nicht. Wenn ich mich an die Zeiten erinnere, wird mir klar, dass Vibe Coding und automatische Software-Generierung für unbedarfte Anwender eher nie funktionieren wird – da fehlt einfach das strukturierte, algorithmische Denken, was Du bei der Software-Entwicklung brauchst.

        • Anonym sagt:

          Die Aussage zum "Anspruch an Fehlerrate" im zweiten Absatz zeigt, dass auch hier LLM "KI" Funktionsweise in der Realität noch nicht verstanden wurde. Es wird nichts ausgeführt oä., es werden nur Worte/Codeschnipsel nach Wahrscheinlichkeiten zum Vorkommen der Suchbegriffe zusammengewürfelt. Sonst nichts.

        • Luzifer sagt:

          **********ohne Programmiererfahrung plötzlich seine Software mit ein paar Anweisungen schnitzen lassen kann und das das funktioniert.
          **********
          Firmen versprechen einem das blaue vom Himmel. Wer jedoch sein Leben nicht als Totalversager begeht, sollte wissen, das man Werbelügen äh Werbeversprechen niemals glauben darf.

      • Olli sagt:

        Wenn die KI die Erklärung für den Fehler eindeutig kennt, wenn man ihr die Fehlermeldung gibt. Dann hätte die KI diesen Fehler von vorneherein erkennen können und somit verhindert.

        Wenn es Fehler sind, die mit Fachwissen zu verhindern sind kann das einem "vergesslichem" Menschen passieren, aber eben nicht einer KI.

        Wenn es Regelbasierte Fehler sind, darf es einer KI auch nicht passieren. Menschen ignorieren Regeln – auch beim Programmieren – einer KI darf das nicht passieren!

        • Martin sagt:

          Nein, eben nicht.
          Die KI ist in Wahrheit eben nur "K". Nicht "I"ntelligent! Sie spuckt dir nur die Wörter aus, welche am wahrscheindlichsten auf deine Frage folgen.
          Nicht falsch verstehen: auch ich würde von einer Programmier-KI erwarten, dass sie die Grundregeln der entsprechenden Programmiersprache beherrscht. Tut sie aber (noch) nicht.

          • Olli sagt:

            >>> ist in Wahrheit eben nur "K".

            Ja aber genau deswegen dürfen die Fehler eben nicht passieren! Das Ding muss doch nur stur die Grundregeln der Programmiersprache beachten – dafür braucht es gar kein nicht vorhandenes "I". DAS ist doch der Punkt auf den ich hinaus will.

            • Anonym sagt:

              Die LLM "KI" beachtet keinerlei Grundregeln einer Programmiersprache.

              Das "Ding" liefert Dir lediglich Codeschnipsel in deren Nähe Deine Suchbegriffe auch vorkommen, das ist alles.

              Du gehst hier von falschen Voraussetzungen aus, erwartest viel zu viel von dem "KI" Hype.

              • Olli sagt:

                Nein – ich warte nur das das zeug das einhält was die Hersteller versprochen haben. Wenn es das nicht tut, wären wir wieder beim Thema Haftungsrecht in der IT-Branche…

                • Luzifer sagt:

                  Genau das ist das Problem… In der IT hattest du bisher keinerlei Haftung! Und die seit kurzem geltende Haftung kannst du in der Pfeife rauchen, da viel zu viele Ausnahmen eingestanden werden! Ein Entwickler muss bei groben Fehlern mit einem Bein im Gefängnis stehen so wie es jeder Ingenieur tut!

                  Da müssen auch mal Köpfe rollen!

                • Thorsten M. sagt:

                  Ich kenne keinen Hersteller (bzw. Anbieter) von LLM-basierter "KI", der nicht irgendwo (sinngemäß) dazu schreibt "die Antworten können Fehler enthalten" und "der Benutzer ist dafür verantwortlich, was er mit dem Ergebnis macht".

                  Wenn die Benutzer irgendetwas hineininterpretieren und davon ausgehen, dass alles, was aus dem LLM herauskommt, richtig und gut ist, dann machen die Benutzer was falsch!

                  Beispiel ChatGPT:

                  Ganz unten am Fensterrand steht:
                  "Durch das Austauschen von Nachrichten mit ChatGPT, einem KI-Chatbot, stimmst du unseren Nutzungsbedingungen zu und bestätigst, dass du unsere Datenschutzrichtlinie gelesen hast. "

                  Dann schauen wir uns mal die Nutzungsbedingungen an:

                  […]
                  "Wenn Sie unsere Dienste nutzen, erklären Sie sich mit Folgendem einverstanden:

                  Der Output ist möglicherweise nicht immer richtig. Sie sollten sich nicht auf den Output unserer Dienste als alleinige Quelle der Wahrheit oder faktischer Informationen oder als Ersatz für professionelle Beratung verlassen.
                  Sie müssen Output auf Richtigkeit und Angemessenheit für Ihren Anwendungsfall bewerten, einschließlich der angemessenen Überprüfung durch einen Menschen, bevor Sie Output aus den Diensten verwenden oder weitergeben.
                  Sie dürfen Output, der sich auf eine Person bezieht, nicht für einen Zweck verwenden, der rechtliche oder wesentliche Auswirkungen auf diese Person haben könnte, wie z. B. das Treffen von Kredit-, Bildungs-, Beschäftigungs-, Unterkunfts-, Versicherungs-, rechtlichen, medizinischen oder anderen wichtigen Entscheidungen.
                  Unsere Dienste können unvollständigen, unrichtigen oder beleidigenden Output liefern, der nicht OpenAI's Ansichten wiedergibt. Wenn Output auf Produkte oder Dienstleistungen eines Dritten Bezug nimmt, bedeutet dies nicht, dass der Dritte OpenAI unterstützt oder mit OpenAI verbunden ist."
                  […]

                  So, und nun erkläre mir bitte, was der Hersteller hier versprochen hat.

                • Günter Born sagt:

                  Leute, ihr mäandert hier um einen Punkt, der zu 99 % nicht praxisrelevant ist. Es ist alles richtig, was zur Code-Generierung und zum Punkt "kann Fehler enthalten", geschrieben wurde. Wir sind hier i.d.R. vom Fach, aber das Marketing der Anbieter zielt eben auf die Anwender, die sich a) mit den Interna eines LLMs nicht auseinander setzen und b) auch nicht das Kleingedruckte lesen.

                  Hab ich mir das Kleingedruckte bei jeder Google Suchanfrage durchgelesen (wenn diese, obwohl im Browser mit -AI deaktiviert, durchschlägt)? Antwort: Nein. Es geht im Blog-Beitrag – wie auch vom Geschädigten ausgedrückt, darum, aufzuklären. Vielleicht findet der Artikel ja als Link seinen Weg auf den Schreibtisch-Computer eines allzu enthusiastischen Chefs: "Männer, wir brauchen keine Software-Entwickler mehr, mit dem Tool da machen wir in Zukunft alles selbst".

                • Anonym sagt:

                  Du interpretierst da ein Versprechen in etwas, wo nie eines war.

                  Viele sind einfach auf jubelnde Mediensprüche fast überall auf die LLM "KI" reingefallen.

                • Olli sagt:

                  AGB interessieren nicht! Ich messe Firmen an ihren Werbeversprechen und Marketing-Aussagen. Alles andere ist auch nicht zielführend. Um AGB zu bewerten müsste man Jurist sein, also überlasse ich das Juristen und die kassieren AGBs nur allzu oft als unzulässig ein.

                  Nein Firmen muss man ihrer Werbung messen und das im zweifel JEDERZEIT gegenüber diesen Firmen und deren Abgesandten klarstellen. Anders kommt man auch nicht weiter. Eigentlich gehört das Kleingedruckte/AGBs verboten oder Firmen dazu verpflichtet die AGBs in Werbung in voller Größe und Länge darzustellen – und die Fernsehspots und Werbeplakate will ich sehen :)

                • Anonym sagt:

                  @Olli Was wären denn konkret die Werbeversprechen und Marketing-Aussagen, die Du meinst? Niemand hat jemals versprochen, dass eine LLM "KI" von alleine beim Zusammenwürfeln von Codeschnipseln aus verschiedenen Quellen irgendwelche "Grundregeln der Programmiersprache beachten" würden.

                • Olli sagt:

                  @Anonym

                  Du denkst zu fokussiert. Die Versprechen sind, das die KI hilft und Unterstützt und Alltagsaufgaben löst um mehr Zeit für das Wichtige zu haben. Wenn das Einhalten der Syntax einer Programmiersprache nicht exakt genau da rein fällt, ja dann gute Nacht. Nein das Einhalten der Syntax ist genau das was eine KI können muss. Genau das ist die Unterstützung bei den Alltagsaufgaben.

                  Einfach mal etwas "Größer" denken und nicht klein klein.

                • Anonym sagt:

                  @Olli Abschliessend: Es geht um die Large Language Model LLM "KI" im Markt, die den Leuten als das was Du erwartest vorgesetzt wurde. Die dahinterliegende Technik kann das aber nicht leisten und wird es auch NIE leisten können. Daher bekommst Du hier entspr. Hinweise.

          • Rolf sagt:

            Als Kleinkind waren auch nicht sofort alle Funktionen perfekt, mit der AI ist es nicht anders, aber in wenigen Jahren sieht das alles ganz anders aus. Ich freue mich schon sehr auf die nächste Win-Version, das wird der Hammer in 12/2030 wenn der von MS recht behält.
            https://postimg.cc/TymLz0kY

            • Anonym sagt:

              Wenn man die aktuelle "KI" LLM Basis komplett wegwirft, dann könnte es in Zukunft vielleicht anders werden, vielleicht.

            • Anonym sagt:

              Das Baby ist jetzt 3 Jahre alt. Angesichts des doch viel schneller und umfangreicheren Trainings sollten wir vielleicht froh sein, dass es (immer noch nicht) die Weltherrschaft angestrebt hat… ;)
              Oder es wurde alles einmal durchkalkuliert, und die KI hat entschlossen, dass alles sinnlos sei (und kein Bruno Mars mehr spielen möchte):
              "https://www.youtube.com/watch?v=W3mmF-JGk_o"

        • Anonym sagt:

          Die LLM "KI" führt keinen Code aus, sie sieht von alleine keine Fehlermeldungen. Sie sucht nur nach Codeschnipseln in der wahrscheinlichsten Nähe der Worte in irgendwelchen eintrainierten Quellen, wenn man ihr eine Fehlermeldung schickt. Das ist das besagte Problem beim Grundverständnis.

      • McAlex777 sagt:

        >> Warum erwartest Du Fehler von menschlichen Programmierern und nicht von einer "KI"?

        Weil KIs auf Doktoranten-Leveln suggeriert werden, und nicht auf AzubiLevel der ohne Sachverstand irgendwas zusammenkleistert.

        Inzwischen nutz ich AI nur noch für "kleinste" Codeschnipsel die ich manuell gegenprüfe, für die ich sonst nachgooglen oder ManPage lesen müsste – und für Recherchen, also als google 2.0.

        In beiden Fällen ist es gut anwendbar.

    • Martin sagt:

      "Natürlich keine Ahnung vom Programmieren, aber trotzdem in der Lage die Anweisungen im Script nachzuvollziehen, bevor es gestartet wird"

      Das ist DER entscheidende Punkt.

      Die KI kann Schreibarbeit ersparen und vermutlich auch jemand weiterhelfen, der sich die Syntax nicht auf Punkt und Komma merken kann. Aber die Fähigkeit, den Programmablauf nachzuvollziehen, ist bisher durch nichts zu ersetzen.

  4. Anonym sagt:

    Lernen durch Schmerzen, Grundbestandteil all der LLM "KI" Hype "Programmierung". Leider fallen immer noch zu viele darauf rein.

  5. Micha sagt:

    Jedes mal wenn ich Copilot im Microsoft Edge Browser starte steht am unteren Bildschirmrand:

    "Copilot kann Fehler machen".

    Wenn man also mit Copilot etwas erreichen möchte, muss man sich Zwangsläufig vorab mit dem Thema beschäftigen. Nur so kann man Copilot passende Fragen zum Problem stellen und ihn gegebenenfalls schreiben, dass man anderer Meinung ist.

    Ich habe es mit Copilot geschafft, ein vorgefertigten Sketch für einen von Open green energy nachgebauten Arduino Battery Capacity Tester – V2.1 anzupassen.

    Hauptproblem war eine liniere Abweichung bei den entlade strömen die Eingestellt werden können. Der reale Stromfluss war immer 29mA größer als der angezeigte.

    – Also habe ich im Promt zuerst den Sketch hochgeladen. Dazu musste ich die Endung der Datei von*.ino auf *.txt ändern.
    – Anschließend die Frage eingegeben: Ich habe einen Linearen Offset von + 29mA Stromfluss für alle einstellbaren entlade Ströme. Wie kann ich im Sketch einen Offset einrichten?

    Anschließend hat mir Copilot eine empfohlene Anpassung des Sketsches angezeigt. Ich habe dann den Code der empfohlenen Änderung erst mal gegoogelt, um zu verstehen was er genau macht. Im Arduino Forum Beiträge gefunden, die bestätigen das der Code das macht, was mir Copilot anzeigte. Zum Schluss habe ich diesen übernommen.

    Das Offset Problem war danach gelöst.

    Der zweite Fehler war, das die Uhr im Gerät ungefähr 20% zu langsam lief. Aufgefallen ist mir das, weil bei jedem getesteten Akku ungefähr 20% Kapazität auf die Angabe auf die Herstellerangabe fehlten.

    Auch das Problem konnte ich zusammen mit Copilot lösen. Die Zeitmessung wurde von einem Delay() auf millis() umgestellt. Jetzt zählt er die Zeit richtig.

    Abschließend kann man sagen, dass Copilot mir bei den Anpassung des Sketches gut geholfen hat.

    Ohne Copilot, hätten diese Änderungen am Sketch wahrscheinlich mehre Wochen gedauert. Ich hätte ja erst mal Fachliteratur besorgen müssen, um von Grund auf zu verstehen, wie man einen Arduino Nano programmieren muss.

    Den Bestück und Verdrahtungsplan für die Lochrasterplatine aus dem Stromlaufplan zu entwickeln, war relativ einfach. (Es war ja schließlich mal Teil meiner Ausbildung) Das habe ich mit Sprint Layout 5.0 gemacht. Die Bauteile wurden bei Reichelt und Conrad bestellt.

    • Günter Born sagt:

      Da bist Du aber schon sehr weit – und in diesem Fall sehe ich auch wenig Probleme. Ich habe die unglaubliche Erfahrung machen dürfen, 2006 ein Buch zur C#-Programmierung mit meinem Sohn schreiben zu dürfen, als er mit dem E-Technik-Studium fertig war. Für uns beide war C# Neuland – ich hatte nur ein fertiges Buch zu Visual Basic, was ich ein 3/4 Jahr vorher verfasst habe. Der "alte Herr" tat sich mit 51 schwer mit "schnell capisto", dem jungen Herrn flog es scheinbar nur so zu. Da er Legastheniker ist, habe ich gesagt: Wir teilen uns die Programmbeispiele auf, Du 50%, ich 50%, den Text passe ich an und schreibe um. Er sollte mal anfangen – nach 2 Stunden habe ich nachgeschaut, er saß mir Sorgenfalten am Rechner "irre Aufgabe, das alles umzusetzen". Ich habe nur gegrinst, im Internet einen Konverter gesucht und ihm vorgesetzt.

      Wir haben mit dem Konverter die Visual Basic Quellen in C# umgesetzt. Dann musste Handanpassung ran (gab ja kein KI). Sohn war in 1/3 der Zeit mit den Beispielen durch, als der "alte Herr" und der alte Vater machte sich schon Gedanken. Nur: Jedes Beispiel wurde von mir inspiziert und getestet. Meine Portierungen liefen vom Scratch im ersten Schuss, obwohl ich langsam war. Den Sohn musste ich drei Mal in Nachbesserungen schicken, was die Zeit wieder aufgefressen hat.

      War eine geniale Erfahrung, Schnelligkeit der Jugend, gegen Erfahrung des Alters. Spoiler: Der junge Mann ist heute Net-Entwickler mit 20 Jahren Erfahrung, ich kann ihm nicht mehr das Wasser reichen und bin seit 2006 aus der .NET-Geschichte (2008 war unser letztes gemeinsames Buchprojekt zu Visual Basic) raus. Ich hatte vor einigen Jahren dann mal gefragt, ob wir im C#-Entwicklerbuch nur Mist geschrieben hätten. Und Sohn meinte: Ich würde heute vielleicht ein, zwei Seiten ändern und drei Seiten zu dem Thema ergänzen. Aber damals waren wir ohne Ahnung schon verdammt gut.

      Erkenntnis: Mit Erfahrung und Umsicht kannst Du vieles erreichen und dir auch von Tools helfen lassen. Aber es braucht den Kopf und die Disziplin dahinter, das Ergebnis kritisch zu prüfen, nachzubessern und dann zu testen. Ich hege das Bauchgefühl, das dies bei einigen der Neu-Vibe-Coding-Protagonisten fehlt.

  6. Visitator sagt:

    Ein Bekannter von mir hat seinen Code lieber selbst geschrieben, als das von den indischen Auftragnehmern seiner Firma machen zu lassen, weil sie anscheinend nicht verstanden haben, was er wollte.
    Wie die HI, so die KI, denke ich mir: Bis du den Prompt so ausgefeilt hast, dass der Code passt, hast du es wahrscheinlich selbst geschrieben (Mutmaßung, bin kein Programmierer).

    • Anonym sagt:

      Ein Großteil der Programmierleistung ist analysieren und verstehen, was man erreichen will und das so zu formulieren, dass es die gesamte Bandbreite der damit zu lösenden Problemfälle abdeckt. Viele können das aber nicht, nichtmal ansatzweise, und dann ist es egal, ob da externe Firmen oder eine "KI" an der Umsetzung beteiligt sind, es wird meist zu keinem befriedigenden Ergebnis kommen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.