Umfrage: ChatGPT hat ein Vertrauensproblem

ChatGPT hat ein Vertrauensproblem – das hat eine Umfrage von Malwarebytes. Im Rahmen einer „Consumer Pulse"-Umfrage, die Malwarebytes zwischen dem 29. und 31. Mai 2023 über die Plattform Alchemer Survey durchführte, zeigten die Befragten tiefe Vorbehalte gegenüber dem dialogbasierten Chatbot von OpenAI – entgegen dem Hype, den er in den vergangenen Monaten erfahren hat.


Anzeige

Zum Hype selbst: Trotz der enormen Medienberichterstattung und den Wellen, die ChatGPT online geschlagen hat, stimmten nur 35 Prozent der Aussage "Ich bin mit ChatGPT vertraut" zu. Darüber hinaus konnten nur zehn Prozent der Befragten, die überhaupt mit ChatGPT vertraut waren, der Aussage "Ich vertraue den von ChatGPT bereitgestellten Informationen" uneingeschränkt zustimmen, während 63 Prozent hier explizit nicht zustimmten.

Die Aussage "Die von ChatGPT bereitgestellten Informationen sind korrekt" fand in dieser Gruppe ebenfalls nur zwölf Prozent Zustimmung – und 55 Prozent Ablehnung. Das Misstrauen gegenüber ChatGPT geht jedoch noch viel tiefer:

  • 81 Prozent der Befragten, die mit ChatGPT vertraut sind, sind der Meinung, dass ChatGPT ein potenzielles Sicherheitsrisiko für sie selbst oder ihr Unternehmen darstellen könnte.
  • Rund die Hälfte (52 Prozent) forderte sogar eine temporäre Zwangspause bei der Weiterentwicklung von ChatGPT, damit Regierungen und Regulatoren die Möglichkeit bekommen, Gesetze und Vorschriften zu erlassen, die ChatGPT und generative KI in ein regulatorisches Gerüst einbetten.

Ähnliche Forderungen wurden bereits von verschiedenen Tech- und KI-Experten Anfang des Jahres geäußert, darunter OpenAI-CEO Sam Altman selbst.

"KI ist in verschiedenen Formen und in begrenzten Anwendungsbereichen schon lange Teil unseres Arbeits- und privaten Alltags – jeder von uns nutzt bereits KI-gestützte Anwendungen, meist sogar, ohne es zu bemerken. Bei Malwarebytes nutzen wir beispielsweise die Möglichkeiten von KI und Machine Learning schon seit Jahren, um Malware und andere Schadsoftware noch effektiver zu identifizieren und so die Gesamtleistung unserer Lösungen signifikant zu verbessern", sagt Pieter Arntz, Malware Intelligence Researcher bei Malwarebytes. "Umso überraschender ist es, dass hinsichtlich ChatGPT und seinen potenziellen Auswirkungen auf unser Leben noch so viel Unsicherheit und Bedenken bestehen. Eine Erklärung dafür wäre, dass generative KI und ihre Funktionsweise für viele momentan noch eine Art ‚Black Box' darstellt – und dass mit größerem Verständnis auch mehr Akzeptanz und Vertrauen kommt."


Anzeige

Die wichtigsten Ergebnisse auf einen Blick – alle beziehen sich dabei auf die Antworten von Befragten, die mit ChatGPT vertraut sind (35 Prozent der Gesamtgruppe):

  • Nur zwölf Prozent der Befragten, die mit ChatGPT vertraut sind, stimmen zu, dass die von ChatGPT bereitgestellten Informationen korrekt sind.
  • 81 Prozent zeigen sich besorgt über mögliche Sicherheitsrisiken für sie oder ihr Unternehmen.
  • 63 Prozent misstrauen Informationen von ChatGPT.
  • 52 Prozent fordern, dass die Weiterentwicklung von ChatGPT pausiert wird, um Gesetze und Vorschriften zu erlassen, die ChatGPT und generative KI in ein regulatorisches Gerüst einbetten.

Die kompletten Ergebnisse der Umfrage finden sich hier.


Anzeige

Dieser Beitrag wurde unter Software abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

51 Antworten zu Umfrage: ChatGPT hat ein Vertrauensproblem

  1. Norddeutsch sagt:

    Umfrage an Leser: Sind dies die reduzierten & angekündigten Blog- Aktivitäten von Herrn Born? Ich freu mich ja über die News der Berufsschulleher und Officenutzung oder die (für mich bisher im EU-Raum selten gesehene) Hacker-VPN-News von i2VPN

    HERR BORN. Sie sind auch ein Workoholic?! Urlaub sieht anders aus.
    Frei nach Peter Lustig: Abschalten, Bitte !

    Für Nerds: Wie umgehe ich via Race condition in snap-confine – unter Linux Security und Co. selbst mit Hilfe von AppArmor viele Sperren? (Apparmor ist ein Mandatory Access Control, vgl auch Selinux. CVE-2022-3328, Link ist simples Textfile, scheinbar nicht voll verlinkt auf Qualys-WWW).

    Wer soll da heut noch Vertrauen haben – egal ob zu ChatGPT oder sonstwem?

    • Günter Born sagt:

      Zum ersten Absatz: Macht euch mal keine Sorgen. Ich habe eine geniale Woche in Zell an der Mosel hinter mir (ganz nah an der Heimat, wo ich geboren wurde – und mir seinerzeit nie vorstellen konnte, an der Mosel Urlaub zu machen). Es gibt dort geniale Wanderwege, von der Mosel die Steilhänge hoch auf Hunsrück und Eifel. Ein Stück Mosel Camino war auch dabei (BTW: 1 km von meinem Wohnort kann ich in einen Nebenzweig einsteigen, 2021 habe ich in Bad Ems an der Lahn ein Stück Camino auf einer alten röm. Heerstraße erwandert). Die alte Passion, bei einem lokalen Winzer vorbei zu schauen, um Wein zu probieren und zu kaufen, gab es auch – hab die Moselweise ganz neu kennen gelernt (als Kind der Eifel war ich Mosel-Wein-geschädigt, ging gar nicht).

      Und wenn Du dann am Ende des Tages mit müden Beinen so auf der Terrasse des Appartements sitzt, auf die Mosel schaust und die Wahrheit suchst, musst Du schauen, dass dir nicht zu schummerig wird. Dann passt es schon, mal ein Stündchen nebenbei zu investieren, um einen oder zwei Blog-Beiträge raus zu hauen. Zudem hatte ich ja für jeden Tag einen Beitrag aus der Konserve vorbereitet.

      Freitag geht es zum Kurzbesuch der Schwiegermutter im Pflegeheim, dann die Tochter bei der Schwester abholen und nach Hause düsen. Etwas einkaufen, schauen, was der Garten macht und ins Wochenende starten. Vielleicht mit den Nachbarn grillen – we will see. Nächste Woche geht es mit Umsatzsteuer, Sport, Physiotherapie, noch mehr Sport, im Taunus wandern und a bisserl bloggen weiter. Was will man mehr.

      • H.-P. Fischelmanns sagt:

        Sie Glücklicher. Mein erster Kommentar. Ich lese Ihren Blog schon einige Zeit. Er hat mir zwar noch nicht gholfen, ist aber trotzdem interessant.
        Ich bewundere Ihr Stehvermögen und Ihren Kampfgeist im Bezug auf Ihre gesundheitlichen Probleme.
        Hoffentlich gibt es Ihren Blog noch lange.
        Gruss
        Peter

  2. Luzifer sagt:

    Naja ChatGPT und KI soll ja eine Erleichterung für mich darstellen, Aber eine KI welche mich belügt und Wahrheiten erfindet, sprich ich muss dann sowieso wieder erst alles recherchieren ist kein Erleichterung. Vertrauenswürdig schonmal gar nicht!
    Belügen tun mich tagtäglich genug Leute Politiker Vertreter Berater Werbe/Pressefuzzies usw. ne zusätzliche KI dafür brauch ich nicht auch noch!
    KI im Sinne von ChatGPT ist ne "nette Spielerei" mehr aber nicht und intelligent schon dreimal nicht.

    Weckt mich wenn Skynet die Macht ergreift ;-P

  3. Mira Bellenbaum sagt:

    KI ist für bestimmte Bereiche und Anwendungen gut, also alles was mathematisch sich berechnen lässt,
    aber Gespräche und menschliche Kommunikation?
    Wohl eher nicht.
    Man muss also immer unterscheiden!
    Zur besseren Erkennung eines gesprochenen Wortes, ja.
    Zur Recherche eventuell auch, ABER da gibt es gerade masieve Probleme, da das "Ding" sich gerade verselbständigt und anfängt zu "fantasieren" und zu "lügen"! So wird das nichts.
    Zur leichteren Bildbearbeitung, ja.
    Zum Spielen (Schach, Go usw.) wohl auch, wobei es mir bange wird,
    wenn es für "WarGames" genutzt wird.

    • Bernd Bachmann sagt:

      Das "Ding" fantasiert nicht und lügt nicht. Das kann es gar nicht; es weiss nicht einmal, was "fantasieren" und "lügen" ist. ES IST EIN SPRACHMODELL. Ein extrem gutes, aber nicht mehr als das.

      • Amiga sagt:

        Das "Ding" erfindet z.B. Konstanten für Code.

        Beispiel: https://eab.abime.net/showthread.php?t=112744

        Die im Code genannte Message Class "IDCMP_CLOSEPATTERN" ist frei erfunden, die gibt es einfach nicht.

      • Mira Bellenbaum sagt:

        Ich habe ja keine Ahnung was genau Sie mit "das Ding" gemeint haben,
        ich bezog mich direkt auf KI.
        Und diese gerät durchaus teilw. außer Kontrolle und "fantasiert" und zu "lügt".
        Bemerken Sie die " "?
        Natürlich ließe sich das wissenschaftlich besser ausdrücken, aber für den Anwender macht es keinen Unterschied!

        • Bernd Bachmann sagt:

          Ah — ich hatte "Ding" auf ChatGPT bezogen.

          Nein, die (sogenannte) KI gerät nicht ausser Kontrolle. Sie tut genau das, wofür sie programmiert wurde — und im Fall von ChatGPT tut sie das sogar extrem gut. Sie kann nur nicht das leisten, was manche fälschlich in sie hineininterpretieren.

          Die Worte "fantasiert" und "lügt" finde ich deswegen geradezu gefährlich, weil sie implizieren, dass man davon ausgeht, dass die KI die Wahrheit sagt oder sagen sollte. Und zumindest im Fall eines Sprachmodells wie ChatGPT ist das einfach nicht so und wird auch nie so sein.

          • Luzifer sagt:

            Das mag ja im Hintergrund so sein, aber es wird einem so vermarktet! Und für mich als "Endkunde" ist es dann egal ob mich der Betreiber da belogen hat oder die KI lügt… die Ergebnisse sind einfach nicht brauchbar als Quelle, da reiner Zufall mit ewtas Statistik gewürzt!

      • Singlethreaded sagt:

        Ich musste sofort an diesen Artikel von heise denken:

        https://www.heise.de/news/Mit-fiktiven-Faellen-von-ChatGPT-argumentiert-US-Anwalt-muss-Strafe-zahlen-9196497.html

        ChatGPT ist auf jeden Fall "kreativ". :-)

        Gruß Singlethreaded

  4. Ralph D. Kärner sagt:

    Ihr beiden verwechselt immernoch KI und LLM. ChatGPT hat _keine_Intelligenz, ist also keine AI/KI.

    • Bernd Bachmann sagt:

      Völlig richtig. Ich weiss nicht, wie oft auch ich das schon gesagt habe.

      ChatGPT ist ein Sprachmodell, das wahrscheinliche Sätze generiert. Es ist keine Wissensdatenbank. Es ist, pardon, idiotisch, das, was es von sich gibt, zu glauben. Praktisch alle Antworten, die ich von ihm auf konkrete, spezifische Fragen bekommen habe, waren schön formuliert, aber inhaltlich falsch.

      • ThBock sagt:

        "Praktisch alle Antworten, die ich von ihm auf konkrete, spezifische Fragen bekommen habe, waren schön formuliert, aber inhaltlich falsch."
        Das trifft übrigens auch auf einen signifikanten Teil der menschlichen Antworten in sozialen Medien zu.
        …und das ist ein richtiges Problem.

      • Mira Bellenbaum sagt:

        Warum versteifen Sie und Herr Kärner sich immer nur auf ChatGPT?

        Und egal was ChatGPT im Detail auch ist, ChatGPT verhält sich zuweilen wie eine KI.
        Ich frage nach einem Skript, ich bekomme ein Skript, die Frage stellung muss halt stimmen.
        Ich frage nach dem Wetter in meinem Wohnort, ich bekomme eine Antwort, ob richt oder falsch sei mal dahingestellt.
        Auch nach Aktienkursen kann ich fragen und ChatGPT liegt sehr oft richtig.
        Ich kann auf Englisch, Französisch, Spanisch, Italienisch und Deutsch fragen,
        ist ChatGPT egal.

        Für den Nutzer ist es ohne Belang was genau es ist, es verhält sich "menschlich"
        und es wird Intelligenz dahinter vermutet.

        Und doch ist es im Grunde nichts weiter als eine "Matheaufgabe", ein komplexe,
        aber immer noch nur eine "Matheaufgabe". ;)

        • Bernd Bachmann sagt:

          >> Warum versteifen Sie und Herr Kärner sich immer nur auf ChatGPT?

          Weil es im Artikel von Herrn Born, über den wir hier diskutieren, um ChatGPT geht.

    • 1ST1 sagt:

      Eines Tages wird man entdecken, dass auch wir Menschen nur mit dem reagieren, was wir zuvor erlernt haben. Und zwar in allen Belangen, aus jedem Blickwinkel in jeden Blickwinkel. Sprich, wir sind auch nur ein sehr komplexes LLM. Der Hauptunterschied ist, wir haben ganz andere Sensoren und Aktoren als ChatGPT, um zu lernen und zu reagieren. Und alles wird von einem mehr oder weniger komplexen Belohnungssystem gesteuert. Und auch Quatsch erfinden und lügen können wir.

      • Bernd Bachmann sagt:

        Die These, dass Menschen letztlich nur deterministische Automaten sind, deren Handlungen durch das, was sie ererbt oder gelernt haben, vorbestimmt sind, gibt es ja schon lange.

        Im Gegensatz zur heute bekannten, fälschlich so genannten "künstlichen Intelligenz" verfügen Menschen aber über die Fähigkeit, sich auch in völlig neuen Situationen, die nicht von den "Trainingsdaten" abgedeckt wurden, zurechtzufinden und mehr oder weniger sinnvoll zu agieren. Oder grundlegend Neues zu erschaffen: Für das Rad gibt es kein Vorbild in der Natur. Für die Tastatur, auf der ich das schreibe, und die Buchstaben, die dort aufgedruckt sind, auch nicht.

        Aus meiner Sicht spricht das gegen diese These und deutet darauf hin, dass es schon noch etwas mehr geben muss, eben "echte" Intelligenz.

        • 1ST1 sagt:

          "verfügen Menschen aber über die Fähigkeit, sich auch in völlig neuen Situationen, die nicht von den "Trainingsdaten" abgedeckt wurden, zurechtzufinden und mehr oder weniger sinnvoll zu agieren"

          Auch das sind irgendwann erlernte Sachen oder "Instinkte". Instinkte sind sowas wie "Basisprogramme die das Überleben sichern sollen".

          Und es gibt auch in solchen Situationen genug Menschen, die instinktiv genau das Falsche machen.

          Wir sind letztendlich nicht (viel) besser als diese Programme, da bin ich mir sicher.

        • Jackie sagt:

          Wenn man sich allerdings so anschaut was z.B. in der Schule passiert dann hat das auch eher was mit dem Trainieren eines LLMs gemein. Da reicht auswendiglernen auch oft aus bzw. ist sogar das Ziel. Viele machen dann auch im Studium so weiter. Kommen damit auch teilweise ganz gut durch, sind dann aber einfach nicht fähig ihr Wissen später auch nur ein bisschen an eine geänderte Situation anzupassen.

          Ich würde also sagen Menschen sind zu echter Intelligenz fähig, ist aber oft nicht gefordert oder gewünscht.

          • 1ST1 sagt:

            Dazu müsste man erstmal definieren, was "eche Intelligenz" ist, oder ob das nicht auch nur ein (in besonderen Themengebieten) besonders ausgeklügelt trainiertes und vor allem schnell reagierendes LLM ist.

            • Bernd Bachmann sagt:

              Keine Definition, aber ein Beispiel, das ich gerne verwende.

              Nehmen wir an, eine Mustererkennung (also explizit keine (künstliche) Intelligenz, auch wenn sie oft so bezeichnet wird) ist auf menschliche Augen trainiert und soll die Frage beantworten, ob eine Fliege Augen hat. Sie wird zum Schluss kommen: Nein.

              Ein intelligentes System würde feststellen, dass sich eine Fliege offensichtlich irgendwie im Raum orientiert. Es würde ausserdem feststellen, dass eine Fliege ein Fenster nicht als Hindernis erkennt. Sie scheint also irgendwelche für (für Menschen) sichtbares Licht empfindliche Sensoren zu haben — was wir bei Lebewesen gerne als "Augen" bezeichnen.

              • Mira Bellenbaum sagt:

                Dieses Beispiel ist aber echt doof und hinkt obendrein.
                Nimm eine KI, zeige ihr die Grundzüge von Schach,
                lass sie einige Spiele spielen und du wirst feststellen, dass sie besser wird.
                Sie lernt.

        • Ben sagt:

          Wenn Menschen "echte" Intelligenz hätten wurde die Welt anders aussehen! Wir sind und bleiben für immer Affen, nicht mehr und nicht weniger. :) ChatGPT ist keine echte Hilfe, da von Daten der Menschen erstellt!

          • Anonymous sagt:

            "Wir" waren noch nie Affen. Gemeinsame Vorfahren, bitte.

            • Herr IngoW sagt:

              Ja ja die Verwandtschaft kann man sich nicht aussuchen, aber meiden wenn es nicht passt.
              Von den Vorfahren hat man das eine oder andere geerbt. Auch die Intelligenz gehört dazu. Hat bei dem einen halt besser bei dem anderen halt schlechter gewirkt, aber läst sich durch lernen ausgleichen.
              Ist bei der KI eben anders, die weiß nur was ihr gesagt wurde, der Rest ist oft im Internet zusammengesuchter Unsinn, das hat eben nix mit Intelligenz zu tun, denn Denken kann eine Maschine noch lange nicht.

              • Mira Bellenbaum sagt:

                Das stimmt so eben nicht!
                Einer KI kann man z.B. die Grundzüge von Schach "zeigen", und sie dann Spiel die schon gespielt wurden durchspielen lassen.
                Mit jedem Spiel, das sie spielt, "lernt" sie!
                Das ist bei Go auch so.

        • R.S. sagt:

          Warum suchen denn Forscher nach intelligentem Leben im Weltall?
          Weil sie auf der Erde nicht fündig geworden sind.

          Was "Lernen" angeht:
          Ich hatte in der Schulklasse jemanden, der immer durch sehr gute Noten glänzte. Aber hat man die Person 2 Wochen nach einer Klassenarbeit nach dem dort abgefragten Stoff gefragt, kam da nichts.
          Das war wie bei Kelly Bundy: Platz machen im Hirn für den Lernstoff bis zur Prüfung, danach den Platz wieder frei räumen für neuen Lernstoff oder andere Dinge.
          Das Wissen war also nur temporär bis zur Prüfung vorhanden.
          Im Grunde hat die Person absolut gar nichts gelernt und war wissensmäßig nach dem Abitur auf dem Stand eines Grundschülers.

          • Ralph D. Kärner sagt:

            "Warum suchen denn Forscher nach intelligentem Leben im Weltall?
            Weil sie auf der Erde nicht fündig geworden sind."
            YOU, Sir (or Madam), made my day! ^^

      • Ömmes sagt:

        "Und auch Quatsch erfinden und lügen können wir."

        Gespickt mit Provokationen sieht man das ja gut an vielen Ihrer Beiträge hier.

  5. Chris sagt:

    So wie man auch bei einem Navigationssystem nicht Blind auf die Anweisungen vertrauen darf, darf man dies auch nicht bei den Antworten von ChatGPT.
    Was anderes ist ChatGPT aktuell nicht, es ist eine Navigationshilfe und als das sollte man es auch sehen, nicht mehr und nicht weniger. Es kann schon jetzt gut ein Grundgerüst erstellen, das Gebäude fertig bauen muss in vielen Fällen aber weiter der Mensch.

    ChatGPT lernt von menschlichen Antworten, was aber passiert wenn kein Mensch mehr antworten generiert da alle nur noch ChatGPT nutzen?

    • Cornelia sagt:

      "ChatGPT lernt von menschlichen Antworten, was aber passiert wenn kein Mensch mehr antworten generiert da alle nur noch ChatGPT nutzen?"

      Das ist eine sehr interessante Frage. Solange es Menschen gibt, werden diese bestimmt weiterhin Antworten generieren. Aber was, wenn nicht?

      Das erinnert mich an den Film "AI" aus dem Jahr 2001. Darin gibt es am Ende keine Menschen mehr, sondern nur noch Roboter.
      Nachdem ich den Film damals gesehen hatte, überlegte ich mir, wie er wohl weitergehen würde. Würde sich "David" auseinandernehmen (zerstören) lassen, weil er sich derart einsam fühlt als einziges 'menschenähnliches' Exemplar unter all den anderen? Oder würde ein neuer Roboter gebaut, der ansatzweise in die Lücke seiner verstorbenen 'Mutter' treten könnte und ihm einen neuen 'Sinn zum Leben' gäbe?

    • Ralf Lindemann sagt:

      "ChatGPT lernt von menschlichen Antworten, was aber passiert wenn kein Mensch mehr antworten generiert da alle nur noch ChatGPT nutzen?" – Dann kommt es zu einer Rückkopplung und ChatGPT befindet sich in einer Echokammer. In dieser Echokammer passiert ChatGBT dann exakt das, was auch Menschen passiert, die sich im Internet in Echokammern verlieren: Sie sind gefangen im Teufelskreis der Selbstreferenzialität und gezwungen, immer wieder aufs Neue die eigene Dummheit zu reproduzieren.

      Ich kann mich Cornelia nur anschließen: Das ist eine sehr interessante Frage!

  6. McAlex777 sagt:

    Wenn ich mir so ansehe welche Datenübergriffigkeiten sich Microsoft bereits ohne KI rausnimmt, grauts mir vor einem Windows mit integrierten AI Prozessen die von Microsoft angewiesen wird solche Datenübergriffigkeiten durchzuführen!

    Dann wirds nicht mehr lange brauchen bis dritte begehrlichkeiten zum Anzapfen der KIs anmelden …

    KIs werden so Werkzeuge zu flächendeckenden Überwachungsdystropien nach chinesischem Vorbild..

  7. Michael sagt:

    Ich finde gerade im Software Engineering ist ChatGPT eine große Unterstützung und spart uns gut 20% an Arbeitszeit ein, die ansonsten für Codeerstellung, Software-Tests und Dokumentation verwendet werden.
    Auch hier gilt natürlich kein blindes Vertrauen, aber je besser man das gewünschte Ergebnis beschreibt, desto besser das erhaltene Ergebnis. Und der Code den man im ersten Durchlauf selbst produziert ist im Regelfall auch nicht sofort perfekt, sondern bedarf einer ausführlichen Verifizierung und ggf. Validierung mit anschließenden Korrektur-Intervallen.
    Im Bereich der Codeerstellung führt es meiner Ansicht auch dazu, sich bevor überhaupt eine Zeile Code entstanden ist, intensiv mit der gewünschten Lösung zu beschäftigen. Ich erkenne hier Parallelen zur testgetriebenen Entwicklung, wo man erst einen Test schreibt der das Ergebnis validiert, bevor man mit der eigentlichen Implementierung beginnt.

    Wir haben ChatGPT auch in anderen Bereichen ausprobiert, wie z.B. der Formulierung von Angeboten, um die kostbare Zeit von Ingenieuren und Technikern nicht damit zu vergeuden sich einen gut klingenden, Vertriebs-Text aus den Fingern zu saugen oder bei Google nach einer Vorlage zu suchen. Die Ergebnisse waren auch hier ganz brauchbar – jedoch ist auch hier eine Verifizierung und Validierung notwendig – blindes Vertrauen ist meist keine gute Sache.

    • Georg sagt:

      Ich hab' mal einfach nur probiert, mir eine Batch mit robocopy (Dateialter, Rekursion…) von und mit ChatGPT erarbeiten zu lassen.
      Auch nach mehrfachen Hinweisen meinerseits, dass die Vorschläge falsch wären und nicht zu funktionsfähigen Aufrufen führen würden, habe ich aufgegeben.
      ChatGPT war nicht in der Lage die robocopy-Datumsfunktion (bis 1999 wird das Datum als Tage interpretiert, ab 2000… als absolutes Datum – glaube ich) richtig darzustellen.

      Als politische Frage habe ich ChatGPT nach den Gemeinsamkeiten der Abwahl Milosevic', der orangenen Revolution und der Rosen-Revolution gefragt – und praktisch die drei Abstracts von Wikipedia bekommen…

      Seitdem bin ich überzeugt, dass KI auf absehbare Zeit keine Bedrohung darstellt – sondern die Leute, die glauben, dass KI eine Bedrohung darstellt.

  8. Manuela Berger sagt:

    Zitat:
    "Ich vertraue den von ChatGPT bereitgestellten Informationen" uneingeschränkt….
    Zitat Ende

    Mit Sicherheit nicht! So naiv kann ich gar nicht sein.
    Solche Dinge wie ChatGPT und Co. sind nette Spielzeuge und für die Unterhaltung ok.

    Niemals jedoch, sollte soetwas wirklich Einfluß oder gar freien Handlungsspielraum haben.

    • Manuela Berger sagt:

      Guten Tag Gerd

      Ja sicher, das Bild von deinem Link ist in der Tat momentan brisanter.
      Du hast recht, wer weiß was der Verrückte aus Rusland noch alles vorhat……

      • Smirnow sagt:

        Das „Tscheget-mehr-Knöpfe-Prinzip" sollte alle „Spezialladungen" verhindern aber ein „Perimetr-System" existiert und ist in Betrieb, wurde erst aufgerüstet und war mutmaßlich ein Ziel des paramilitärischen Aufstand, eine militärische Fortentwicklung eines ChatGPT-Clones könnte dann eventuell in Zukunft auch so ein „US-Dead-Hand -System" werden, KI-Entwickler Hinton warnt nicht ohne Grund vor Risiken Künstlicher Intelligenz.

      • Kusnezow sagt:

        Manuela es gibt da noch ganz andere, alle 12, am 24., in der Region Voronezh in der Il-22MII mit Surowikin im Com-Leitstand vom paramilitärischen Aufstand abgeschossen und auch sechs weitere eigene Helis an diesem Tag von dieser W-Truppe abgeschossen, ich glaube nicht das der noch sehr alt werden wird, der Prigo, frage doch mal ChatGPT, bin auf die Anwort gespannt.

      • Gerd sagt:

        Putin sagt: "Der böseWesten wolle, dass die Russen sich gegenseitig besiegen" Hä.. -Realitätsverlust im Elfenbeinturm?! der sollte besser mal mit ChatGPT sprechen statt mit seiner Elite. Schau mal..
        https://abload.de/img/unbenannttdiny.jpg

  9. Mac sagt:

    Nun das Misstrauen ist durchaus gerechtfertigt. Ich würde darüber aber nicht vergessen, das diese zu ChatGPT aufgezählten Faktoren, genauso auf Menschen zutreffen. Skepsis, Umsicht und Vorsicht, sollte man immer wallten lassen.

    • Günter Born sagt:

      Es ist ja bereits viel kommentiert worden. Deine Aussage würde ich zwar unterschreiben, aber Du übersiehst das psychologische Moment: "wenn der Computer es sagt, wird es wohl stimmen"; "hat noch immer gepasst, das muss ich jetzt nicht mehr überprüfen"; "der Kollege hat schon x Vorgänge bearbeitet, wenn ich das jetzt alles auch noch kontrolliere, schaffe ich das nie". Dann noch der Punkt, dass Leute schlicht einen Vorgang nicht mehr verstehen und dann auf die AI-Modelle vertrauen.

      Ich sehe es an mir selbst – seit 30 Jahren lese und schreibe ich beruflich bedingt, sehr viel – beim Lesen geht es oft nur mit Querlesen. Inzwischen bin ich nur noch mit höchster Konzentration in der Lage, einen Text wirklich im Detail zu lesen – ständig ist der Drang, quer zu lesen. Dann noch gleichzeitig Aussagen zu hinterfragen, das bringt mich schon an eine Grenze. Und jetzt mappen wir das auf AI-Modelle, die mir versprechen, die Aufgaben zu übernehmen …

      • Ralph D. Kärner sagt:

        "Bequemlichkeit" und "Zeitnot" sind zwei Begriffe, die in keinen nicht negativen Zusammenhang in einem Satz unterzubringen sind mit Worten wie "Sicherheit", "Zuverlässigkeit" oder "Vertrauenswürdigkeit", um nur mal 3 Beispiele zu nennen.

      • Mac sagt:

        Blindes Vertrauen endet dann, wenn es enttäuscht wird. Die Erfahrung hat jeder in seinen Leben gemacht. Darum unterscheidet man bei seinen Mitmenschen zwischen Vertrauenswürdig und nicht. Im Berufsleben gibt es deshalb Methoden der Qualitätskontrolle. Schlussendlich wird es bei KI-Algorithmen den gleichen Lernprozess geben. Am Ende wird man lernen damit umzugehen, das auch KIs Fehler machen können.

  10. Ingo Westen sagt:

    Von Intelligenz kann bei dem Zeugs wohl eher nicht die rede sein.
    Es wird ja nur im Internet zusammengesucht was man auch mit etwas mehr Aufwand auch selber finden kann.
    Manche aussagen sind echt grottig und schlicht weg Falsch. (zB. bei Fachfragen wenn man weis was die Antwort ist).

  11. Gabi sagt:

    Und obwohl jeder (hier) weiss, dass ChatGPT keine verlässliche KI ist, wird anderswo darauf gesetzt, letze Absätze hier, u.a. "Lehrer könnten es aber etwa für Korrekturen nutzen"

    https://www.heise.de/news/Bundesagentur-fuer-Arbeit-kommt-bei-Automatisierungsoffensive-voran-9203304.html

  12. Foegi sagt:

    ChatGPT ist aktuell noch wie ein Kind welches ein enormes Potential hat aber noch Fehler macht.
    Ich verwende es gerne für VBA, PS und C# Programmierungen und ich möchte die Arbeitserleichterung nicht mehr missen. Wo ich ansonsten mal eine Stunde unterwegs bin, bin ich mit ChatGPT in 10min fertig. Aber man muss den Code lesen und verstehen können, den es macht Fehler, erfindet auch mal eine Funktion die es nicht gibt.
    Oder wenn ich mal nicht weiss wie ich einen Text schlussig und verständlich formulieren soll bekomme ich mit ChatGPT in Sekunden verschiedene Textvorschläge. Auch als Korrekturhilfe ist das Teil unschlagbar.

    Es wird total unterschätzt wie wichtig der Chatprompt sein kann. Dazu gibt es schon viele gute ChatGPT Prompt Generator und Listen im Internet zu finden. Je besser der Prompt desto besser die Qualität der Antworten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.