MIT-Studie: "ChatGPT"- bzw. LLM-Nutzung und Gehirn-Aktivitäten

CopilotEs ist eine Studie des Massachussets Institutes of Technology (MIT) zur Frage "wie beeinflusst die LLM-Nutzung unsere Gehirn-Aktivitäten, die im Sommer erschienen ist und Debatten auslöste. Das Ergebnis in einem Satz: "ChatGPT & Co. machen das Gehirn fauler und lassen die kognitiven Leistungen sinken – und das hält nach dem Absetzen der LLM-Nutzung an". Es bedarf aber noch weiterer Forschungen, um die Zusammenhänge zu klären.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Sponsored by IT Pro)

Die MIT ChatGPT-Gehirn-Scan-Studie

Im  Juni 2025 wurde eine Studie des MIT in Nature veröffentlicht (nicht frei abrufbar, die arxiv.org-Fassung ist aber als PDF frei abrufbar), die die Nutzung des Gehirns von Probanden mit und ohne ChatGPT-Nutzung mittels Gehirn-MRT-Scans untersuchte. Die Studie fragte: "Verändert die Nutzung von ChatGPT Ihre Gehirnaktivität?" und kam zum Schluss, dass dies zutrifft. Das Ergebnis, soweit man es im Nature-Artikel im Anreißertext lesen kann, lautet: Das Gehirn von Menschen, die einen Aufsatz mit ChatGPT schreiben, ist weniger aktiv als das von Menschen, denen die Verwendung von Online-Tools für diese Aufgabe untersagt ist. Die Untersuchung des MIT war Teil einer breiter angelegten Bewegung, die untersuchen will, ob künstliche Intelligenz (KI) uns kognitiv träge macht.

MIT ChatGPT Gehirn-Studie

Ist seinerzeit an mir vorbei gegangen – ich bin die Woche über obigen Tweet auf den Sachverhalt gestoßen. In der MIT-Studie wurden die Gehirne der Teilnehmer während der Nutzung von ChatGPT gescannt. Die Ergebnisse sind eigentlich naheliegend, aber aufschlussreich:

  • 83,3 % der Nutzer konnten sich an keinen einzigen Satz erinnern, den sie nur wenige Minuten zuvor geschrieben hatten.
  • Im Gegensatz dazu hatten diejenigen, die ohne KI schrieben, keine Probleme, sich zu erinnern.
  • Die Konnektivität des Gehirns sank stark – von 79 auf 42 Punkte. Das entspricht einem Rückgang der neuronalen Aktivität um 47 %, die niedrigste kognitive Leistung unter allen Nutzergruppen.

Selbst nachdem die Teilnehmer die Nutzung von ChatGPT in späteren Sitzungen eingestellt hatten, zeigten diese weiterhin eine unterdurchschnittliche Aktivität. Die Leistungen dieser Personen blieb geringer als die derjenigen, die nie KI genutzt hatten. Die Ergebnisse deuten auf mehr als nur Abhängigkeit hin – wird eine kognitive Schwächung vermutet.

Zusammenfassung der MIT-Forscher

Das umfangreichere Abstract gibt es hier und legt eine Prinzipien des Studiendesigns, sowie was untersucht wurde, offen. In der Studie wurden die neuronalen und verhaltensbezogenen Folgen des Schreibens von Essays mithilfe von Lernwerkzeugen (LLM) untersucht – die Triggerwörter ChatGPT oder AI kommen nicht vor. Die Teilnehmenden wurden in drei Gruppen eingeteilt:

  • Beim Schreiben der Essays wurden die Gruppen in Teilnehmer, die ein LLM, eine Suchmaschine und nur das Gehirn (ohne Hilfsmittel) benutzten unterteilt.
  • Jede Gruppe absolvierte drei Sitzungen unter denselben Bedingungen. In einer vierten Sitzung wurden die LLM-Nutzer der Gruppe, die ohne Hilfsmittel, als nur mit ihrem Gehirn, gearbeitet hatte, zugeordnet.

Insgesamt nahmen 54 Personen an den Sitzungen 1–3 teil, 18 davon schlossen auch die Sitzung Nummer 4 ab. Untersuchungen zeigten bezüglich NERs, N-Gramm-Muster und Themenontologie eine Homogenität in der Gruppe – heißt, die Studienteilnehmer waren vergleichbar.

  • In der Studie nutzten die MIT-Forscher Elektroenzephalografie (EEG), um die kognitive Belastung während des Schreibens zu erfassen, und analysierten die Essays mithilfe von NLP.
  • Zusätzlich wurden die Essays von menschlichen Lehrkräften und einem KI-Bewerter bewertet.

Das EEG offenbarte signifikante Unterschiede in der Konnektivität des Gehirns: Die Teilnehmenden aus der der Gruppe, die nur ihr Gehirn zum Verfassen der Essays verwenden durften, wiesen die stärksten und am weitesten (neuronal) verteilten Netzwerke im Gehirn auf. Bei den Nutzern der Suchmaschine wurde noch ein moderates Engagement des Gehirns gemessen. Die Nutzer von Sprachmodellen (LLM) wiesen die schwächste Konnektivität auf. Die kognitive Aktivität nahm im Verhältnis zur Nutzung externer Tools ab.

In Sitzung 4 zeigten die Teilnehmer der LLM-zu-Brain-Gruppe eine reduzierte Alpha- und Beta-Konnektivität, was auf eine geringere Beteiligung des Gehirns hindeutet, schließen die MIT-Forscher. Die Teilnehmer, die nur mit ihrem Gehirn die Essays verfasst hatten, wiesen eine höhere Erinnerungsleistung und eine stärkere Aktivierung okzipito-parietaler und präfrontaler Areale auf. Das zeigte sich bei den Teilnehmern, die eine Suchmaschine verwenden durften, noch in ähnlicher Form

Die Selbstwahrnehmung der Urheberschaft von Essays war in der LLM-Gruppe am geringsten und in der Brain-only-Gruppe am höchsten. LLM-Nutzer hatten zudem Schwierigkeiten, ihre eigenen Arbeiten korrekt zu zitieren.

"Obwohl LLMs unmittelbaren Komfort bieten, verdeutlichen unsere Ergebnisse potenzielle kognitive Nachteile.", schlossen die Forscher. Über vier Monate hinweg schnitten LLM-Nutzer auf neuronaler, sprachlicher und Verhaltensebene durchgehend schlechter ab. Diese Ergebnisse geben Anlass zur Sorge hinsichtlich der langfristigen Auswirkungen der LLM-Nutzung auf die Bildung und unterstreichen die Notwendigkeit einer eingehenderen Untersuchung der Rolle von KI im Lernprozess, schreiben die MIT-Forscher. Die Studie hat zu einer größeren Debatte in Fachkreisen geführt. Ist aber eine Thematik, die ich im Beitrag Gesellschaftliche Risiken durch KI fürs Lernen – werden wir immer dümmer? schon mal angerissen hatte.

Ähnliche Artikel:
KI-Irrsinn Teil 2: Amazon schickt Unterlassungserklärung an Perplexity AI für Einkäufe über Comet
KI-Irrsinn Teil 3: KI-generiere "Nichtigkeitsklage" vom Gericht abgewiesen
KI-Irrsinn Teil 4: Wenn die Anwender mal selber machen
KI-Irrsinn Teil 5: Deloitte, die KI und der versemmelte Report in Australien

Perplexity Comet Browser Prompt Injection als großes Sicherheitsrisiko
Sicherheit: AI-Browser und Copilot-Schwachstellen
Vivaldi positioniert sich gegen KI-Agenten

Dieser Beitrag wurde unter AI, Problem, Sicherheit abgelegt und mit , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

43 Antworten zu MIT-Studie: "ChatGPT"- bzw. LLM-Nutzung und Gehirn-Aktivitäten

  1. R.S. sagt:

    Die Studie bestätigt nur, was hier schon häufiger behauptet wurde:
    Die Leute werden immer dümmer.

    Wenn man alles vorgesetzt bekommt, braucht man weniger zu denken.
    Und ganz fatal wird es, wenn schon Kinder und Jugendliche LLMs nutzen.
    Da leidet dann erheblich die Entwicklung des Gehirns.
    Und es wächst dann eine Generation von dummen Menschen heran.

    Das erinnert mich an den Film Idiocracy.
    Die Wahrscheinlichkeit, das es tatsächlich so kommt wie im Film ist gar nicht so niedrig.

    • Anonym sagt:

      Jede Hochkultur in der Vergangenheit hatte auch mal ein Ende. Es ist scheinbar wieder an der Zeit.

    • WLanHexe sagt:

      Eine Freundin von mir arbeitet als Logopädin, spezialisiert im Umgang mit Kindern und Jugendlichen. Fragt besser nicht… sie berichtet jetzt schon regelmässig von so unfassbaren Defiziten, dass ich mir echt Sorgen mache um die Bildung zukünftiger Generationen. Ich hab das Gefühl das wird alles nicht besser. Bis jetzt war es in den meisten Fällen die Nachlässigkeit der Eltern. Kinder werden vor den PC gesetzt, bekommen ein Tablet in die Hand gedrückt,… Hauptsache es ist Ruhe und man muss sich nicht mit seinem Kind beschäftigen. Wenn jetzt noch dieser ganze KI-Wahnsinn dazu kommt, will ich mir gar nicht ausmalen wo wir in ein paar Jahren sind.

    • Peter Vorstatt sagt:

      Betr. "Wenn man alles vorgesetzt bekommt, braucht man weniger zu denken.
      Und ganz fatal wird es, wenn schon Kinder und Jugendliche LLMs nutzen.":

      Ganz fatal wird es, wenn sich Fachinformatiker als Lehrer gerieren!

      Wo bekommt man da was vorgesetzt? Schon mal ein LLM genutzt? Ich meine 2 Stunden am Stück und nicht bloss nach einer Google Suche noch ganz schnell und verstohlen auf "KI-Modus" geklickt?

      Man muss intelligente Fragen stellen, dann noch mehr Fragen stellen, das Ganze mit zielführenden Hinweisen unterfüttern und kanalisieren, Quellen würdigen, Antworten verifizieren, umformulieren usw. usf.

      Umgekehrt wird ein Schuh draus: Wer sich darin als junger Mensch nicht schult, wird einer dummen Generation angehören.

      Man kann den Film Idiocracy auch anders auslegen: Als Kritik an einer Mentalität des 'Das haben wir schon immer so gemacht, was anderes kommt gar nicht in die Tüte' und somit Ausdruck grassierenden Altersstarsinns.

      • Chris sagt:

        Zitat ."Man muss intelligente Fragen stellen, dann noch mehr Fragen stellen, das Ganze mit zielführenden Hinweisen unterfüttern und kanalisieren, Quellen würdigen, Antworten verifizieren, umformulieren usw. usf. "

        Also nichts Anderes, was man schon heute in der normalen Google Suche machen muss.
        Man muss Fragen stellen oder mit Stichworten suchen, die ein sinnvolles Ergebnis erwarten lassen.
        Dann muss man sich durch viele Seiten wühlen und mit den dort gefunden Informationen, Schlagworten oder Hinweisen erneut mit präzisierten Schlagworten suchen. Das ist eine Form von kanalisieren.
        Auch hier muss man die gefunden Webseiten, also die Quellen, ständig würdigen und die gefunden Quellen durch andere Quellen verfizieren. Durch umformulieren bekommt man weitere Ergebnisse und das Spiel geht von Neuem los.

        Bei LLM sucht man sich die Ergebnisse nicht in duzenden Webseiten zusammensuchen, sondern in der KI selbst.
        Und wie bei der Google Suche muss man die richtige Fragestellung und das Verfeinern der Antworten lernen.

        Zitat :"Wer sich darin als junger Mensch nicht schult, wird einer dummen Generation angehören."
        Warum muss man sich als junger Mensch darin schulen ?
        Bei LLM wird es genauso sein, wie bei der Websuche heute.
        Wer sie nicht nutzt und sich irgendwann in der Art der Fragestellung schult, der lässt großes Informationspotenial liegen und hat einfach deutliche Nachteile. Aber das ist schon heute bei der Websuche so.

        • Steter Tropfen sagt:

          Das Problem ist doch, dass man gar keine Fragen zu stellen braucht: Die KI serviert einem zu einem Thema gleich angeblich „häufig gestellte Fragen" und dazu irgendwelche Antworten. Gestern jemanden dabei beobachtet, wie er sich von Google aufs Glatteis führen ließ: Erst ein Happen Wikipedia, dann Googles Ergänzungen dazu, die eine haarscharfe Themaverfehlung waren, mit Antworten, die die aufgeworfenen Fragen gar nicht trafen. Aber den Nutzer ließ sich davon in den Bann ziehen, klickte brav Punkt für Punkt an und las die Google-Darstellung. Völlig kritiklos.
          Das Thema, wegen dem er ursprünglich nachschauen wollte, war plötzlich ganz vergessen. – So wie das Rotkäppchen im Märchen, das vom Wolf zum Blumenpflücken in den Wald gelockt wird.

          Schulen muss man (nicht nur junge) Menschen darin, Dinge selbst zu hinterfragen und bei jeder Antwort kritisch zu schauen, wo sie herkommt und ob sie auf belastbaren Quellen beruht. Es ist bestürzend zu sehen, wie viele Menschen ehrfürchtig alles, was ihnen auf einem Display präsentiert wird, als pure Wahrheit sehen!

    • Luzifer sagt:

      Idio(t)crazy ist längst keine Fiction mehr, sondern bittere Realität!
      Kann jeder bestätigen der ausbildet.
      War aber seit Anbeginn der Zeit so: Aufstieg-Höhepunkt-Fall
      Jede Kultur hat das durchgemacht, unsere hat den Zenit längst überschritten.

      Es geht dabei auch nicht um einige wenige Nerds die das beherrschen und für sich nutzen können, sondern um die Masse!
      War auch schon immer so, jede Generation hat Nobelpreisträger hervorgebracht… während die Masse versagt.

      • Peter Vorstatt sagt:

        Betr. "Idio(t)crazy ist längst keine Fiction mehr, sondern bittere Realität!
        Kann jeder bestätigen der ausbildet.":

        Bereits Anfang der Achtziger haben über 80 Prozent meines Abiturjahrgangs nie etwas von einer Differentialgleichung gehört geschweige denn eine gelöst.

        Wir Gecken vom Mathe LK sahen schon damals den Untergang des Abendlandes heraufziehen. Kam dann doch anders.

        Im übrigen bin ich mir gar nicht so sicher ob uns trotz Deindustrialisierungsängsten weniger Technik nicht gut täte. Z. B. könnte ich auf die industriellen Errungenschaften angewandter Ewigkeitschemikalien angesichts einhergehender Trinkwasserbedrohungen gut verzichten. Auch ausser Kontrolle geratene Automobilität (Tunertreffen, Strassenrennen, Vierpersonenhaushalte mit 3 Pkws) killen Lebensqualität – ich schweife ab.

        • Anonym sagt:

          Bereits Anfang der Achtziger haben über 80 Prozent meines Abiturjahrgangs nie etwas von einer Differentialgleichung gehört geschweige denn eine gelöst.

          Geschichten aus dem Paulanergarten…

          • Günter Born sagt:

            Ich bin mir auch nicht sicher, ob vorherige Abi-Jahrgänge Differentialgleichungen im Stoff hatten. Kann allerdings als FOSler nicht mitreden, Differentialgleichungen kamen bei uns im FH-Studium in den Mathematik Grundvorlesungen. Erinnere mich auch nicht mehr, ob unsere Abiturienten 1976 das schon als Stoff kannten. Woran ich mich erinnere, war, dass die Leute aus dem Gymnasium doch arge Schwierigkeiten hatten, da wir sehr viel Maschinenbau, Mechanik etc. hatten. Da musste man ochsen, um durchzukommen. Aber ist jetzt auch egal, ich kann ja immer noch als schlechtes Beispiel dienen, denn das Wissen habe ich nach dem Studium nie wieder gebraucht und inzwischen alles wieder vergessen – Google und jetzt ChatGPT haben voll durchgeschlagen, und Deepl raubt mir die Sprachkenntnisse…

          • Peter Vorstatt sagt:

            Da fragt man sich schon, wo hier manche Foristen zur Schule gingen. Ich tippe mal in Richtung Bremen. Jedenfalls nicht in Baden-Württemberg, Bayern, Hessen.

        • Visitator sagt:

          Die Gecken vom Mathe-LK haben auch in der Physik-LK-Prüfung mit Differentialrechnung geschwitzt; die ohne Mathe-LK waren angeschmiert. Nicht, dass wir vorher im Physik-LK damit zu tun gehabt hätten …

  2. Yumper sagt:

    Diese Diskussion gab es schon mit den Taschenrechnern in der Schule.
    Wenn man sich etwas mit ChatGPT befasst erkennt man wie unvorstellbar leistungsfähig dieses System heute schon ist. Ich bin einmal gespannt wie lange es dieses "Tool" noch kostenlos gibt. Die Proversion kostet nun ja schon 39.-€ im Monat um den Strom der da verbraten wird zu bezahlen.

    Ein Beispiel

    Mein Sohnemann ist nur ein normaler PC Benutzer und kennt sich da nicht besonders aus. Er ist jedoch ein begeisteter MS Flugsimulatorspieler und hat sich da auch schon einige offizielle Zertifikate erspielt. Er kennt sich da wirlklich proffessionell damit aus.
    Nun wollte er von ChatGPT einmal wissen wie er seine vielen hundert Einstllungen seines Flugsimulator verbessern kann. ChatGPT hat ihn dazu nach Screenshot seiner PC Version, der Grafikkarte und nach seinen vielen Erweitrungen wie Auswertung von externen Radarsignalen usw. gefragt.
    Als Antwort kamen dann mehr als 5 DINa4 Seiten mit Vorschlägen. Er konnte sich auf gleich Batchfiles zum Ändern der Einstellungen generieren lassen.
    Das Ganze war wirklich kein Wischi Waschi sondern für mich als IT Systemspezialist eher eine Sensation. Da wurden Bilder (Screenshots) in Texte übersetzt und ausgewertet usw.

    Für mich stellt sich dann eher die Frage in wie weit nutzen Doktoranten ChatGPT und was sind deren akademische Titel in der Zukunft noch wert.

    Das ChatGPT die Menschen dümmer macht ist in meinen Augen nur Populismus von einigen Medien bzw- Menschen die längst von der Materie keine Ahnung mehr haben.

    • TBR sagt:

      Korrekt. Wir nutzen ebenso KI um Scripte zu prüfen etc. Das Ganze KI-Thema wird leider von vielen noch belächelt aber die Leistungsfähigkeiten sind enorm. Alle XDR Schutzsysteme nutzen schon lange KI ( AI).

      • R.S. sagt:

        LLMs nehmen einem die Aufgabe ab, die Logik hinter bestimmten Sachen zu verstehen.
        Das ist aber fatal!
        Was macht jemand, der immer nur LLMs nutzt und nun eine Aufgabe ohne LLMs lösen muss?

        Beispielsweise in einen Hochsicherheitsbereich.
        In solchen Bereichen ist alles von der Außenwelt isoliert.
        Es gibt da kein Internet, kein Handyempfang, keine Verbindung zu anderen internen Netzwerken, etc. etc.
        Man darf absolut gar nichts mit rein oder raus nehmen.
        Da muß man das Wissen selbst haben.

        • Luzifer sagt:

          Nix! So eine Person kommt nämlich nie in solche Bereiche ;-P

        • Rolf sagt:

          #R.S.
          Im Hochsicherheitsbereich "der Dienste" sind schon lange diverse LLMs im Einsatz. Mit der richtigen Berechtigungsstufe könnte der die auch jederzeit nutzen. 😊

        • Peter Vorstatt sagt:

          Betr. "Was macht jemand, der immer nur LLMs nutzt":

          Die dahinterstehende Befürchtung geht von falschen Prämissen aus und verkennt völlig, dass die intensive Nutzung von LLMs selbst zum Erwerb von Wissen und Fähigkeiten beiträgt, mithin Lernen ist!

          Auch die Annahme 'immer nur LLMs' ist lebensfremd. In welchen Lehrplänen soll das stehen?

          KI-Kritiker unterschätzen massiv die Menge an Wissen, die sie in ihrer Biographie selbst ungeprüft übernommen haben und auch später nicht selbst hätten herleiten können. Nur die wenigsten Anwender von Verfahren der numerischen Mathematik wären in der Lage, diese selbst zu entwickeln oder zu beweisen. Wieviele Basic-Programmierer könnten einen Basic-Interpreter selbst schreiben?

          Also immer schön vorsichtig mit der Glorifizierung der vermeintlich ach so schlauen Vorfahren.

          • Luzifer sagt:

            Also unser Prof sagte damals schon: Ihr müsst nicht alles wissen, aber ihr müsst in der Lage sein euch das Wissen bei Bedarf anzueignen und zwar aus zuverlässigen Quellen!

            Und genau da haperts in der Masse!

            • janil sagt:

              Das trifft es meiner Meinung nach ziemlich gut.
              Oute mich mal, weiß zwar, das es Differentialgleichung, -rechnung gibt, habe davon aber nicht die Ahnung und brauch es auch nicht. Aber ich kann lesen und denke mal, werde auch genug finden, um mich damit auseinandersetzen zu können.

              • Günter Born sagt:

                Diese Aussage "man muss nicht alles wissen, aber man sollte wissen, wo etwas steht und wie man da dran kommen kann", wurde uns ab der Berufsaufbauschule ebenfalls vermittelt.

                Zum Thema Differentialgleichungen: Meine persönliche Erfahrung ist da auch wieder – ich war solange darin gut, solange ich das täglich bis zum Excess im Studium gebraucht und angewendet habe. Du hast auf eine Gleichung geschaut und sofort gesehen, wo Ersetzungen und Auflösungen möglich waren. Gab aber (zumindest bei mir) drei Jahre intensiven Vorlauf, bis wir im Studium so weit waren – und es gab für uns Ingenieurstudenten direkt auch praktische Beispiele zur Umsetzbarkeit. Nur hatte ich auch angemerkt, dass ich das Wissen nach dem Studium nie wieder benötigte und das ist jetzt definitiv weg. Ich weiß auch nicht, ob ich noch in der Lage wäre, mir das Wissen wieder soweit anzuschaffen, um es wie im Studium umzusetzen.

                So viel "zur Masse muss das können". Von meinem Kardiologen habe ich nie verlangt, dass er mir eine Differentialgleichung auf die OP-Tisch lösen konnte – der sollte den Eingriff möglichst professionell durchführen. Dass die Ingenieure aus der Medizintechnik, die die Gerätschaften entwickelten, eventuell mit Differentialgleichungen und Fourier-Transformation per Du waren, als sie die Auswerte-Algorithmen entwickelten, steht auf einem anderen Blatt. Aber alle diese Leute sollten in der Lage sein, das alles kritisch zu analysieren, kritisch zu bewerten und dann umzusetzen – und vor allem "durch jahrelange Anwendung Excellenz zu entwickeln". Da trennt sich dann die Spreu vom Weizen – imho.

            • Mark sagt:

              Kenne ich auch so! Man muss nicht alles wissen, man sollte aber im Ernstfall wissen, wo man nachschauen muss! (In der Regel gab es dazu dann ein nettes Buch (aka eine vernünftige Quelle) in dem man sich im Vorfeld Markierungen setzen konnte / sollte ;) )

    • Anonym sagt:

      Man kann überrascht sein: es ist nicht alles schwarz oder weiß…

      Für manches, was man nachschlägt (aka "Suchen"), möchte man keine Lernkurve, dann ist das Ziel einfach das Ziel, nicht der Weg dorthin. Und wenn das LLM Müll erzählt, kommt das dann schnell raus*).
      Wenn man was lernen möchte, kann der klassische Weg hilfreich sein + ein LLM kann das unterstützen. Z.B beim Lernen einer Sprache (menschliche oder programmier-Sprache).

      In allen Fällen sollte man sich der Risiken bewusst sein, und das ist das eigentliche Problem: blindes Vertrauen… und da kommt dann der Sternchentext:
      Man braucht kein LLM, um abstruse, lebensgefährdende oder einfach nur falsche Vorschläge zu erhalten (Beispiel: amerikanischer Präsident ;)

    • Anonym sagt:

      ChatGPT "weiss" das alles nur, weil irgendjemand irgendwo entspr. Beschreibungen in crawlbaren Daten online gestellt hat und sucht dann in all en Daten Ähnlichkeiten zu den Eingaben des Sohnemanns.

  3. Compeff-Blog.cf2.de sagt:

    Interview aus den 1990ern mit Peter Lustig:
    "Herr Lustig, macht Fernsehen dumm?"
    (pause, überlegt)
    "Die Dummen machts dümmer, die Schlauen schlauer."

    In meinen Augen werden viele Denkfaule durch Chatbots denkfauler. Das Problem in vielen Gesellschaften ist nach zu langem Wohlstand die Denkfaulheit sowie die ständige Verfügbarkeit von Information.
    Am Stammtisch kaum noch eine Diskussion zu Stande, weil sofort man sich nicht mehr zuhört, keine Ansichten austauscht, sondern irgendjemand googelt und dann wortlos dad Display vor die Gesichter der anderen hälf. Das ist nicht erst seit LLMs so.

    Die Denkfaulheit wird sich (das legt die Studie indirekt nahe) durch Chatbots verschlimmern.

    Mich würden mal die Prompts interessieren, die in die LLMs eingeben. An den Prompts wird man schon erkennen, wer LLMs wie nutzt.

    Ich übertreibe jetzt mal mt 3 Prompts:

    – Name von Frau von Thomas bei Bauer sucht Frau

    – Welche Tabletten bei zu hohem LDL?

    – Erstelle mir anhand valider nicht halluzinierter fundierter wissenschaftlicher Studien für einen Menschen mit zu hohen LDL-Blutwerten eine Massnahmenliste. Der betroffene Mensch wiegt 85kg, ist 180cm gross, hat wenig Muskeln, leidet an Diabetes2, hat Schlafprobleme und arbeitet viel im Sitzen.
    Die Massnahmenliste soll kleine Veränderungen durch Ernährung und bessere Lebensgewohnheiten im Alltag einführen, um in 6 Monaten den LDL-Wert gesenkt und neue Routinen im Alltag etabliert zu haben. Maximaler Zusatzaufwand am Tag:20 Minuten.
    Bitte mit validen Quellenangaben mit funktionierenden Internetadressen.

    Das letzte Prompt ist sicher das "gebildeste" von den Dreien. Bevor man sich jetzt aber überlegen fühlt, sollte man sich darüber bewusst sein,
    dass selbst ein solch "komplexes, intelligentes Prompt" (und das zeigt die von Gúnter beschriebene Studie) das Gehirn bei Weitem weniger fordert als das Selbststudium etlicher Quellen zum Thema.
    Nicht das "richtige Ergebnis" ist beim Denken zwingend das Ziel, sondern der Weg zu einer eigenen Erkenntnis, bei der man dennoch damit rechnen sollte, dass man damit "objektiv" falsch liegen könnte.

    Unsere Gesellschaften sind stark darin, wissenschaftliche Studien wie diese oben zu erstellen, jedoch sehr schwach, feige, bequem sowie zu geld- und technik-fixiert um daraus "was zu Lernen", sprich z.B. grundlegende bildungspolitische Reformen abzuleiten und umzusetzen.
    Seit Langem ist bekannt, dass man am Besten lernt, je mehr Sinne angesprochen werden, je mehr man sich bewegt, je wacher man ist und je mehr man dem Gehirn Zeit gibt, Informationen nach der Befassung mit einem Thema zu "verschalten". Ich sehe hierzu keine Schulreform seit 40 Jahren.

    Die Studie bietet jedenfalls viel Food for Thought über den Umgang mit Technik.

    • Anonym sagt:

      Diese ganze Stammtischkultur gibt es leider fast nicht mehr.
      Es ist nur noch "Du bist nicht meiner Meinung, also bist du gegen mich und weil ich das persönlich nehme, weil ich das nicht unterscheiden will, will ich mit dir nichts mehr zu tun haben."

      • TBR sagt:

        So sieht es aus. Ich toleriere andere Ansichten die auch richtig sein könnten. Ich wäre aber erfreut wenn auch meine Meinung akzeptiert werden würde. Das nennt sich Toleranz.

      • Anonym sagt:

        Diese Art Sichtweise hat man den Leuten leider "erfolgreich" nahegebracht in den letzten Jahren.

      • Compeff-Blog.cf2.de sagt:

        Volle Zustimmung.
        Interessanterweise sind die "Demokatiefreunde" (Linkes Spektrum) deutlich diskussionsunfähiger und unresistenter gegenüber Denkangeboten als die "Demokratiefeinde" im eher rechten Spektrum (einstmals bürgerliche Mitte).
        Wir tauschen keine Gedanken mehr aus, nurmehr Meinungen.

  4. Anonym sagt:

    Als sei das hier ein Unterschied zu TikTok- und Socialmedia-Nutzern allgemein. Wer sich da mal rumgetrieben hat weiß, wie heruntergekommen der menschliche Intellekt mittlerweile ist.

    Aber interessant allemal, die Studie!

    Was lernen wir daraus? Eine URALTE Weisheit: Je weniger man sein Hirn fordert/fordern läßt, desto weniger Aktivität erbringt es. Darum sind die ganzen Erleichterungen im Abitur und den Gymnasien, bzw. schon in Grundschulen, ein übler Scherz! Man bringt den Leuten nicht mehr bei, in dem man die Hürden fortwährend herabsetzt.

  5. noway sagt:

    Genau das ist doch das Ziel, mach die Masse der Menschen abhängig, dumm und lenkbar. Es fing an mit dem Fernsehen, dann gab es einen großen Sprung mit Social Media und Smartphones, jetzt sind wir halt bei ChatGPT angekommen. Nennt mich einen Kulturpessimisten, aber ich kann nicht verdrängen, was ich tagtäglich beobachte.

    • Luzifer sagt:

      Das ist doch der Trick dabei… als Sklaventreiber die Sklaven dazu bringen das sie die Peitsche nicht mehr aktiv wahrnehmen… ;-P

      panem et circenses funktioniert hervorragend!

  6. G4G4 sagt:

    Immer wieder Verschwörungstheorien. "Mach die Masse abhängig, dumm und lenkbar." Wer denn? Die Akademiker, die die Technologien erfunden haben? Die Verkäufer? Die Konzerne?
    Ich bin da bei Peter Lustig – mit alledem an neuer Technologie werden viele auch unabhängiger, schlauer und selbstbestimmter – andere das Gegenteil.

  7. Jascha sagt:

    KI ist gekommen, um zu bleiben und es wird immer weiter und schneller verbessert.
    Ein „Pause-Knopf" gibt es nicht und wird es auch nicht geben.

    Die Studie ist gut und wichtig und wir müssen mehr erfahren. Wir müssen mit den negativen Seiten lernen weise „umzugehen", so wie auch mit anderen Dingen die Gut sind, wenn man sie „richtig" einsetzt/umgeht. Stichwort ABC: Atomare-Biologische-Chemische Erfindungen. Und vieles mehr…

  8. McAlex777 sagt:

    Bereits jetzt hat ChatGPT rein sachlich auf die Breite gesehen weit mehr Wissen als die allermeisten Menschen. Menschen können zwar noch derzeit in ihrem Fachbereichen besser sein, aber nicht KI im Allgemeinwissen in allen Sprachen dieser Welt konkurrieren.

    Schon in wenigen Jahren werden wir SuperIntelligenzen immer näher kommen, welche solches Wissen dann auch vollumfassend Anwenden können. Dann werden Arbeitgeber menschliches Knowledge zunehmend immer weniger brauchen: KIs werden dann zu unter Mindestlohn sehr viel günstiger, allumfasender arbeiten als Menschen.

    Damit das nicht global auf alle Arbeitsgebiete nahezu zeitgleich durchschlägt sollten wir unsere Abgeordneten dazu drängen Maßnahmen zu ergreifen solche Entwicklungen abzufedern. Wir brauchen strake Rahmenbedingungen in denen KI agieren kann.

    • Günter Born sagt:

      Gerade zum Thema "Superintelligenzen" hat der IBM CEO die Tage seine Zweifel angemeldet, dass wir mit heutiger Technologie überhaupt in die Nähe einer AGI (allgemeinen künstlichen Intelligenz) kommen.

      KI-Rechenzentren: Hardware-Wechsel verhindert Wirtschaftlichkeit

      Im Sommer 2024 ging eine Aussage von Joanna Maciejewska (Autorin) viral: "I want AI to do my laundry an dishes so that I can do art an writing, not for AI to do my art and writing so that I can do my laundry and dished". Als jemand, dessen Wurzeln ursprünglich im Handwerk liegen, hat diese Aussage für mich einen sehr gewichtigen Kern, der in unserer Blase der Geistesarbeiter immer gerne vergessen wird.

      • McAlex777 sagt:

        >> Gerade zum Thema "Superintelligenzen" hat der IBM CEO die Tage seine Zweifel angemeldet, dass wir mit heutiger Technologie überhaupt in die Nähe einer AGI (allgemeinen künstlichen Intelligenz) kommen.

        Ich glaube das Wirtschaftlichkeit derzeit noch nicht im primären Fokus steht – sondern die Schaffung einer SuperIntelligenz, und Aufbau von zukünftigen Infrastrukturen. Man braucht derteit massive Rechenkapazitäten um eine sich selbst verbesserbare KI zu schaffen, zu trainieren, etc.

        Sobald eine SuperIntelligenz einmal steht, wird etreme Wirtschaftlichkeit, Militärmacht, allgemeine Macht, Wissens- und Technologieexplosion vermutlich von ganz allein folgen – jedenfalls sofern diese Intelligenz uns dann nicht auch gleich abschaffen will.

        Ich glaube ohne starke Rahmenbedingungen sieht unser aller Zukunft dystropisch aus, insbesondere auch weil jene TecFirmen ebenfalls massiv in den Bereichen human Robotik forschen/entwickeln.

        Nicht heute, nicht morgen …. aber vielleicht in 10, 20 Jahre entfernt … irgendwann wird ein findamentaler Durchbruch gelingen – dann wird all das sehr schnell gehen.

  9. janil sagt:

    Ich benutze KI noch nicht wissentlich und suche auch nicht in Google damit. Solange ich permanent gegen prüfen muss, ob es richtig oder falsch oder wahr oder unwahr ist, wende ich doppelt Zeit auf. Das tue ich mir nicht an. Ich weiß nicht, wann KI halluziniert oder wann nicht. Es ist nur Software, wenn sie richtig programmiert ist und dann z.B. im medizinischen richtig funktioniert, sehr gut aber was soll der "allgemeine" Mensch, außer nachlassender Hirnleistung, davon haben?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.