Test von KI-Chatbots: Die falschen Antworten sind ein Problem!

CopilotDie Verwendung von großen Sprachmodellen (LLMs) und AI-Chatbots, neumodisch als "künstliche Intelligenz" (KI) bezeichnet, ist kaum noch aufzuhalten. Schnell ist die "KI" um Rat gefragt und liefert auch scheinbar "beeindruckende" Antworten. Britische Verbraucherschützer haben AI-Chatbots mit den verwendeten LLMs getestet und arg Bedenkliches gefunden. Das beste AI-Produkt (Perplexity) kam nur auf 72 Prozent richtige Antworten, d.h. jede vierte Antwort ist falsch! Kleiner Beitrag zu diesem Thema.

Künstliche Intelligenz lauert ja seit gefühlt 2 – 3 Jahren an allen Ecken und Enden. Kaum eine Suchmaschine, die ohne LLM-Unterstützung auskommt. Google und Bing drängen den Nutzern die KI-gestützten Zusammenfassungen regelrecht auf. Und im Microsoft-Universum wird der Nutzer durch Copilot erschlagen, während bei Google Gemini an allen Ecken lauert. Wer hat noch nicht ChatGPT & Co. nach bestimmten Sachverhalten befragt und "beeindruckende" Antworten erhalten?

Falsche Antworten als echtes Problem der AI

Es gibt sicherlich eine Reihe Einsatzgebiete, wo der Einsatz von großen Sprachmodellen (LLMs) Vorteile bringt und durchaus gerechtfertigt ist. Aber beim Einsatz dieser Technologie lauert immer das Risiko, dass da was "in die falsche Richtung" läuft. Fachleuten ist geläufig, dass große Sprachmodelle (LLMs) zum Halluzinieren neigen und mit "dem Inbrunst der Überzeugung" falsche Antworten liefern. Das führt zu bedenklichen Entwicklungen. Mal zwei Informationssplitter dazu.

BullshitBench im Rechtsbereich

Juristische Schriftsätze, die erfundene Urteile zitieren, sind länger bekannt. Ich hatte das Thema hier im Blog bereits in diversen Artikeln (z.B. im Beitrag Technische Hypotheken: Muss die KI-Revolution ausfallen? – Teil 2) auf diese Problematik hingewiesen. Der britische KI-Experte Peter Gostev untersucht mit BullshitBench v2 die Leistung von KI-Lösungen für den englischsprachigen Rechtsmarkt. 100 bewusst unsinnige Fragen aus fünf Fachbereichen – darunter 15 aus dem Rechtsbereich – werden an über 70 KI-Modellvarianten gestellt.

Die Tage hat mir ein Blog-Leser einen Link auf den Artikel Neue Studie: Mehrheit der KI-Modelle spielt bei unsinnigen Rechtsfragen einfach mit, erschienen beim juristischen Fachportal Beck aktuell, geschickt. Der Artikel greift die Ergebnisse der Untersuchungen auf und zieht das Fazit: Die Mehr­heit der KI-Mo­del­le er­kennt nicht, wenn ju­ris­ti­sche Fra­gen in­halt­li­cher Blöd­sinn sind. Das ist im juristischen Bereich ein echtes Problem.

Warnung vor Fehlaussagen der KI

In diversen Artikeln, die ich in den letzten Monaten so gelesen habe, bezeichnen Personen aus dem akademischen Umfeld die aktuellen KI-Lösungen "als Werkzeug", was man aber nur mit Vorbehalt und Sachverstand einsetzen soll. Das Buch "Weiß die KI, dass sie nichts weiß?" von Informatik-Professorin Katharina Zweig seziert diese Thematik. Irgendwo ist mir in einem Interview die Aussage untergekommen, dass die Professorin KI-Modelle wegen der auftretenden Fehler nie im privaten Umfeld verwenden würde.

Hat Heino Plattfüße und andere Fragen

Wenn ich es mal platt ausdrücken will, lässt sich feststellen, dass eine KI-gestützte Suche nach Fragen der Art "hat Heino Plattfüße", "trinkt Wolfgang Niedecken zum 75 Geburtstag  ein Kölsch", oder "hat Andrea Kiewel Lippenherpes" echt die Nase vorne hat. Da kann auch eher nicht so arg viel an gravierenden Folgen auftreten. Kritischer wird es, wenn Leute Antworten auf Fragen erhalten und ihre Entscheidungen oder Handlungen auf Basis falscher Antworten treffen.

Bei meinen ersten Gehversuchen vor geraumer Zeit habe ich gestaunt, was Perplexity mir da an "Fragen und Antworten" vorgeschlagen hat. Ich hatte das LLM nach Informationen zu meiner Person befragt und kam schnell auf den Trichter, dass da durchaus "bedenkliche Aussagen" aus öffentlich verfügbaren Informationen geschlossen wurden. Mal vage geäußerte Ideen oder Fragen wurden als "Fakt oder gegeben" mit der Inbrunst der Überzeugung als Antworten von den LLMs präsentiert. Ich konnte so recht schnell sehen, wo Antworten ziemlich schnell "schief und in die falsche Richtung" liefen.

Die "Begeisterung" klang spontan gänzlich ab, als Perplexity mir erzählen wollte, dass ich leider gestorben sei – ich war in dem Moment so platt, dass ich keinen Screenshot gemacht habe. Und bei den nächsten Abfragen ließ sich das Ergebnis nicht mehr reproduzieren. Das war der Punkt, an dem ich begann, mich mehr mit der Thematik auseinander zu setzen. Heute setze ich auf LLMs, wenn ich mich mit einem Thema halbwegs auskenne, oder bestimmte Dinge überprüfen und Gegenpositionen abchecken will.

Test: Jede 4. Aussage von KI-Chatbots falsch

Mark Heitbrink hat mir gestern – mit der Bemerkung "Hast du das gesehen? Der erste Platz geht an 28% Falschaussagen. Wahnsinn." – den Link auf den Artikel KI-Chatbots im Test: Perplexity schlägt ChatGPT und Meta AI der Stiftung Warentest geschickt.

Britische Verbraucherschützer von Which haben untersucht, wie sich gängige KI-Chat-Bots bei Fragen schlagen. Der Artikel Can you trust AI? ChatGPT and other AI chatbots put to the test fasst die Ergebnisse eines Tests zusammen. Die Erkenntnis: Die Mehrheit der Menschen verlässt sich bei der Online-Informationssuche zunehmend auf KI-Tools wie ChatGPT und Google Gemini. Diese Werkzeuge machen jedoch grundlegende Fehler und geben übertrieben selbstbewusste, ja sogar riskante Ratschläge. Das ist aber ein Problem.

Man kann es "positiv" wie Stiftung Warentest formulieren und schreiben: "Fazit des Tests: Die meisten Chatbots schlagen sich recht anständig", das aber mit der Warnung "blind vertrauen kann man aber keinem" ergänzen. Das Fazit bezieht sich auf die Quote der Aussagen von KI-Chatbots, die falsch oder sogar kritisch waren.

  • Perplexity kommt im Test auf eine Quote von 72 % richtige Antworten
  • Googles KI-Zusammenfassungen liefern in 70% der Fälle richtige Antworten
  • Google Gemini liefert in 68 Prozent der Fragen korrekte Antworten
  • Bei Microsofts Copilot werden nur in 67 % der Fälle richtige Antworten gegeben
  • Das omnipräsente ChatGPT  von OpenAI liefert in mageren 65 Prozent der Fälle korrekte Antworten.
  • Und die Meta AI fällt mit 54 % richtiger Antworten extrem ab und landet auf dem letzten Platz.

Man kann es aber auch kritischer sehen, wenn man die obigen Ergebnisse bei Licht betrachtet: Im Grunde sind die KI-Chatbots unbrauchbar, weil beim besten Modell immer noch über ein Viertel der Antworten schlicht falsch oder sogar gefährlich ist. Bei Meta AI ist quasi jede zweite Antwort falsch. Nehmen wir an, ein Messgerät, eine Uhr, ein Maßband etc. würde diese "Fehlerrate" aufweisen, dann dürfte in der modernen Welt nichts mehr klappen. Aber bei "irgendwas mit KI" wird das als "Stein der Weisen" gefeiert, was alles revolutioniert.

Ich denke, wir haben ein Problem

Ich hatte 2025 ja im Artikel Finger weg: Die Google AI-Suchergebnisse sind eine Katastrophe! eigene Erfahrung mit Googles KI-Suchergebnissen aufbereitet. Bei der Suche ignoriere ich inzwischen die Google AI-Zusammenfassungen und versuche diese sogar auszublenden. Aber ich nutze LLMs durchaus gezielt, um Fragen zu stellen (was findest Du im Web zu xxxx, nenne mir auch die Quellen) und mir Zusammenfassungen zur Fragestellung vorlegen zu lassen. Allerdings gibt es auch die Erkenntnis, dass das Studium der Quellen meist arg ernüchternd ist und wenig bis nichts mit der ursprünglichen Fragestellung zu tun hat.

Aus meiner Sicht sage ich "Ja, KI-Lösungen sind ein Mittel, um eventuell schneller an Ergebnisse zu kommen. Aber die Überprüfung der Ergebnisse ist ein aufwendiger und zeitauffressender Vorgang, der die Vorteile oft auffrisst." Vorteile gibt es nur, wenn die KI-Antwort mir einen Vorschlag oder einen Ansatz vorlegt, auf den ich selbst nicht gekommen wäre.

Und das ist die große Gefahr, die ich beim "KI-Einsatz" so sehe: Die Masse der Nutzer ist nicht in der Lage oder bereit, diese kritische Haltung samt Überprüfung zum Maßstab des Handelns zu machen. Daher dürfte der "KI-Einsatz" in dieser momentanen Ausprägung eher zum Scheitern verurteilt sein. Oder wie seht ihr das so?

Ähnliche Artikel:
KI-Irrsinn Teil 1: Wenn ChaptGPT, Copilot & Co. dich zu Fake-Orten locken
KI-Irrsinn Teil 2: Amazon schickt Unterlassungserklärung an Perplexity AI für Einkäufe über Comet
KI-Irrsinn Teil 3: KI-generiere "Nichtigkeitsklage" vom Gericht abgewiesen
KI-Irrsinn Teil 4: Wenn die Anwender mal selber machen
KI-Irrsinn Teil 5: Deloitte, die KI und der versemmelte Report in Australien
KI-Irrsinn Teil 6: Autohändler gibt Kundendaten zum KI-Training an obskure Firma

Dieser Beitrag wurde unter AI, Problem, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

51 Kommentare zu Test von KI-Chatbots: Die falschen Antworten sind ein Problem!

  1. harfes sagt:

    Nun, die aktuelle KI ist eben keine Intelligenz, sondern eine geschickt programmierte mathematische Verarbeitung von Wahrscheinlichkeiten. Das da was schief geht war und ist vorhersehbar – insofern wundern mich die Ergebnisse nicht. Bei etwas komplexeren Fragen ist es meist einfacher und schneller, selber zu recherchieren. Und wenn die Trolle erstmal ihre Fake-Informationen in grösserer Menge in die Wahrscheinlichkeiten einfliessen lassen, dann wird's mindestens lustig bei den Antworten…oder auch gefährlich.

    Bis zur wahren Intelligenz ist es also noch ein weiter Weg!!!

    • max sagt:

      Ich verstehe diese ganze reißerische Argumentation gar nicht. Und schief gehen, ist sehr subjektiv … Computer die Fehler machen … schon fast menschlisch könnte man meinen.
      Das Einzige was man wirklich verurteilen sollte, das aus Kostengründen den LLMS wirklich ohne Kontrolle alles zum Lernen reingestopft wird anstatt geziehlt, ansonsten ist die sogenannte KI eines der besten Werkzeuge dieser Zeit.
      Ja Werkzeug, nicht mehr nicht weniger. Wenn ein Semi talentierter Mensch sich den besten Bohrhammer der Welt kauft, wird er sicher nur Semi gute Ergebnisse erziehlen oder wie hiess es, es geht sicher was schief, für ein geübten Handwerker wird er hingegen eine echte Erleichterung auf Arbeit sein.
      Wenn das so weiter geht haben wir bald wieder Weberaufstände und die Maschinenstürmer kommen um die Ecke

  2. Froschkönig sagt:

    Stiftung Warentests hat KI Modelle verglichen. Ja, können sie. Haben sie das europäische (französische) Mistral Modell absichtlich nicht getestet? Oder wollen sie den einzigen ernst zu nehmenden (reusper) Anbieter (ver)schonen?

  3. Rocco Siffredi sagt:

    Ich bin seit 1977 in der Musikindustrie und kann mich mit Fug und Recht als Musikexperten bezeichnen. Also stellte ich der Google-KI folgende Frage: War „Thriller" von Michael Jackson der erste Song, bei dem Vincent Price mitwirkte?

    Google-KI Antwort: Ja, „Thriller" (1982) von Michael Jackson war der erste Song, bei dem der Horror-Schauspieler Vincent Price mitwirkte.

    Auch wenn sich diese Information seit Jahrzehnten in der öffentlichen Wahrnehmung hält – sie ist falsch und die KI weiß es offenkundig auch nicht besser. Schon 1975 sprach Vincent Price den Eingangsmonolog für den Song „The Black Widow" von Alice Cooper auf dessem Album „Welcome to My Nightmare".

    • Froschkönig sagt:

      Man wird abermilliarden Beispiele finden, wo KI eine falsche Antwort gibt. Das ist bekannt. Geh mal in eine Fußgängerzone und stelle die selbe Frage mal Passanten.

      • Björn. E. Kevalonen sagt:

        Als Unternehmer gehe ich doch nicht in die Fußgängerzone, um mir bei der Leitung der Firma von zufällig vorbeikommenden Passanten Unterstützung zu holen. Ich lasse mich vielmehr, falls mein Wissen dazu nicht ausreicht, von qualifizierten Experten beraten. Wenn sich KI nicht mindestens auf Expertenniveau bewegt, ist sie nutzlos. Eigentlich, so war ja ursprünglich das Versprechen, sollte KI besser und intelligenter sein als wir Menschen. Auf dem Niveau von Fußgängerzonen-Umfragen wird man in jedem Fachgebiet Schiffbruch erleiden.

    • poiuz sagt:

      Sonar (Perplexity), ChatGPT (OpenAI) und Gemini (Google) behaupten heute das gleiche wie Du:
      https://www.perplexity.ai/search/war-thriller-von-michael-jacks-CEYAvIUJQguJEMe1m51KbQ

      War das die Google-KI die am Anfang der Suchergebnisse erscheint?

      Ich weiß nicht was die geraucht hat, aber ja, die erzählt oft Märchen. Wenn man dann auf den KI-Link unter der Antwort klickt ("im KI-Modus mehr erfahren"), erhält man dann häufiger richtige Antworten.

  4. xx sagt:

    Perplexity/ChatGPT sind keine Sprachmodelle

  5. Ohne-Filter sagt:

    Das Problem ist, dass immer mehr Anwender dazu neigen (aus Faulheit?), ihr Denken an die KI auszulagern und irgendwann nicht mehr in der Lage sind, die Antworten zu verifizieren. Man beobachtet immer häufiger, dass der KI auch sehr banale Fragen gestellt werden (was man abends essen soll z.B.).

    • Christian Krause sagt:

      Menschen sind schon immer faul und haben sich durch Werkzeuge die Arbeit erleichtert.

      Und es gab immer Leute, die bei der nächstmöglichen Gelegenheit das denken eingestellt und andere, die jeden Handgriff verstehen wollten.

      Jetzt machen sie das Referat halt mit KI.

      Ich persönlich erkenne diese Muster überall, nicht nur bei der Nutzung von KI.
      Ich verstehe nicht, warum jetzt bei der KI so ein Aufschrei gemacht wird.

      Ein paar Jahre nach meinem Abi hieß es, die Jugend macht keine Referate mehr selbst, weil es zu jedem Thema einen Wikipedia Artikel gibt. Damals sollte auch davon die Welt untergehen.

      • Luzifer sagt:

        naja Wikipedia braucht auch keine Atomkraftwerke um die Antwort zu liefern!

        Uns wird überall weiß gemacht aus Umweltschutzgründen zu verzichten, sich einzuschränken und bei dem Shice verblasen wir Energie in einem Maß das den Jahresbedarf kleiner Staaten übersteigt für ein minderwertige fragewürdige Leistung!

        • Ohne-Filter sagt:

          Außerdem sollte man wenigstens mal erlernt haben, wie man es selbst hinbekommt. Das hilft ungemein, Zusammenhänge zu verstehen.

          Beispiel Taschenrechner: Es geht ja nicht darum, komplexe Berechnungen im Kopf machen zu können, aber wenn manche schon daran scheitern, ihren Kassenzettel nachvollziehen zu können?
          GB: Letzter Satz gelöscht, gehört wirklich nicht hierher.

  6. Wolf789 sagt:

    @Günter – erstmal Danke für die m.M. gute Zusammenfassung.
    Und: Nein, nein, nein, niemals (in der heutigen "Qualität") irgendeine KI befragen – denn, 1. kostet mich die Prüfung mehr Zeit, als ich bei eigenem Studium für das Ergebnis aufbringen müßte und 2. kann ich nicht sicher sein, ob bei – wahrscheinlich – eingeschränktem Wissen die Prüfung wirklich ein adäqutes Ergebnis hervorbringt.
    "die Professorin KI-Modelle wegen der auftretenden Fehler nie im privaten Umfeld verwenden würde." Na also, aber was soll im geschäftlichern Umfeld und aus welchem Grund irgend wie besser sein; hier sitzen auch nur Menschen oder DAUs bei der Bewertung oder Nicht-Bewertung.

    Und wenn ich dann über die Nutzung durch unsere Jugend lese, sehe ich die nächste, noch größere, gesellschaftliche Katastrophe nach den aSozialen Medien auf uns zurollen.

    Im IT-Bereich (man brauch ja nur den Block hier und die Kommentare zu lesen) auch sonstwo sieht es zur Zeit nicht wirklich gut aus.

    Schönen Sonntag allen

  7. prx sagt:

    Gibt es Untersuchungen, inwieweit die Erfolgsquote vom Alter des abgefragten Inhalts abhängt? Mir hatte eine KI in der 2. Hälfte 2025 Olaf Scholz als amtierenden Bundeskanzler vermitteln wollen. Weil der gelernte Datenbestand der KI älter als die Wahl war und die Art der Frage keinen Anlass zu Online-Recherche gab.

    Die Wahrscheinlichkeit, eine Frage mit aktuellem Inhalt korrekt beantwortet zu bekommen, schätzte die KI auf ca 50%. Bei älteren Themen läge sie viel besser. :)

    • viebrix sagt:

      Wenn man aktuelle Fragen stellt, muss man auch der KI den Hinweis geben, dass sie das aktuell im Netz recherchieren will. KI ist ein Werkzeug und auch mit einem Werkzeug muss man umgehen zu wissen. Abgesehen, hört sich das für mich nach einem alten Modell an. GPT 5.x ist hier bei weitem besser als 4.x oder gar 3.5

      • prx sagt:

        Ausser man will genau diesen Effekt untersuchen. :)

        Ich hatte gefragt, wann die Amtszeit von Bundeskanzler Olaf Scholz endet. Zu diesem Zeitpunkt war er das schon eine Weile nicht mehr. Ich hatte dann noch mal nachgefragt, ob das stimmt, und bekam den Unsinn bestätigt. Erst als ich den Irrtum aufklärte, hatte ChatGPT nachgesehen und fand sich korrigiert,

  8. Micha sagt:

    Gerade günstige Funkuhren, laufen in Kellern häufig falsch. Ohne Funk Empfang gehen sie schnell vor oder nach. Das gleiche trifft auf Windows 11 PCs zu, bei denen die Zeit Synchronisation nicht funktioniert. Mehrere Minuten Abweichung im Monat, sind durchaus möglich.

    KI macht hält auch Fehler.

    Allerdings können auch Automatisch übersetzte Support Artikel für z.B. Windows fehlerhaft sein.

    Mich würde interessieren, wie viele Websiten auf der ersten Seite der Google Ergebnisse, richtige Fakten liefern? (Prozentual im Vergleich zu der Automatisierten KI Antwort.)

  9. Bernd Bachmann sagt:

    Na, das ist doch immerhin ein Fortschritt. Vor einem Jahr bin ich noch auf nahezu 100% Falschinformationen gekommen. Jetzt sieht es ungefähr so aus: Ein Drittel stimmt; ein Drittel ist falsch, bringt mich aber auf die richtige Spur; ein Drittel ist total daneben und wird dann auch beim Nachfragen nicht besser.

    Die größte Gefahr angesichts dieser Situation sehe auch ich in der kritiklosen Übernahme von KI-Aussagen. Was in meinem Bekanntenkreis leider sehr verbreitet ist.

    Und generell: Ja, auch mir stellt sich die heutige KI nach wie vor als eine (technisch unglaublich faszinierende) Lösung auf der Suche nach einem Problem dar. Ok, Filmschauspieler würde ich heute nicht mehr werden wollen, und auch Werbungs- und Modefotografen dürften keine große Zukunft haben — was aber beides auch schon vor der altuellen KI so war. Aber das sind Nischenanwendungen, die wohl kaum Billionen-Investitionen rechtfertigen können.

    • Luzifer sagt:

      Na die Gefahr ist doch: für Fachbereich wo ich mich auskenne brauch ich keine KI!
      Für Bereiche wo ich mich nicht auskenne, kann ich die Ergebnisse jedoch nicht verifizieren, mangels Wissen, ist da also auch wertlos.

      KI sehe ich von Vorteil wenn man speziel geschlossen Systeme mit geprüften Datensätzen verwendet… zum Beispiel medizinische Diagnostic, da kann KI durchaus Zusammenhänge früh erkennen, benötigt aber denoch einen fähigen Arzt der nicht blind vertraut. Auch chemische/biologische Formeln auf Eigenschaften etc. abzuklopfen kann von Vorteil sein da man dann nur vielversprechende Ergebnisse tatsächlich prüfen muss…
      setzt aber alles geschlossene und auf Herz und Nieren getestete Daten vorraus… und den Fachmann der das wirklich beurteilen kann!

      Beides Sachen die heutige KI/LLM nicht haben!
      Und wenn ich Spezialist sein muss um KI wirklich gefahrlos zu nutzen ist sie wiederum nutzlos.

      • Bernd Bachmann sagt:

        >> Für Bereiche wo ich mich nicht auskenne, kann ich die Ergebnisse jedoch nicht verifizieren, mangels Wissen, ist da also auch wertlos.

        Hm, kommt drauf an. Konkreter Fall von gerade gestern (stark gekürzt):

        Ich: Kannst Du mir einen Link geben, unter dem ich eine Bedienungsanleitung für Gerät x herunterladen kann?
        ChatGPT: Hier ist der Link: …
        Ich: Der ist für Gerät y, nicht für Gerät x.
        ChatGPT: Du hast recht, entschuldige. Hier der richtige Link: …
        Ich: Das ist genau der gleiche Link.
        ChatGPT: Oh sorry. Jetzt aber: …
        Ich: Das ist wieder der gleiche Link.
        ChatGPT: Tatsächlich. Hier ist nun der wirklich richtige Link: …
        Ich: Das ist immer noch der gleiche falsche Link.
        ChatGPT: <ad infinitum>

        Ungelogen und nicht übertrieben. Ok, wertlos war es natürlich trotzdem…

  10. Pau1 sagt:

    ich nutze Gemini wenn mir etwas völlig neu ist.
    Es war ja schon immer so, das man bei Google die richtigen Suchbegriffe kennen mußte um sinnvolle Antworten zu bekommen. z.B. fragte ich mich wie man bei einem Seniorenmobil die Reifen wechselt. ja. ist doch klar, man macht das mit einem Heber für Aufsitz-Rasenmäher… damit kam Amazon weiter.

    ich hatte den Namen einer vor 20 Jahren lokal bekannten Person vergessen. Die KI gab mir bei jedem Versuch einen völlig falschen Namen, begründete den aber sehr ausführlich und plausibel. Aber durch die Rand Informationen kamen weitere Informationen hoch und ich auf die Idee, doch mal in der Mediathek nach der Dokumentation zu suchen. Dank depuplikations Pflicht war das sinnlos, aber ein freundlicher Mensch hatte das auf YT hochgeladen.
    ich hätte mir viel Zeit sparen können, wenn ich gleich nach der Dokumentation gesucht hätte. Das erste Wort war der gesuchte Name. Hier waren die trotz Nachfrage falschen Ergebnisse unkritisch, weil ich ja genau wusste, wie der Name lautete, aber in anderen Fällen?

    ich hatte mal ein rechtliches Problem. Gemini verwies auf eine EU Verordnung. den Absatz gab es gar nicht. Ich bat Gemini den Absatz zu zitieren.
    Ich bekam ein perfekt in EU Deutsch formuliertes "Zitat" des nicht existierenden Absatzes…

    Das kann Gemini: einen schönen Text formulieren.

    Ich wollte wissen wie man bei einem Drucker die Sprache umstellt. Ein Knilch hatte die (zum Glück nur) auf französisch gestellt. Aber da Frankreich irgendwie alles englische nicht mag.
    Gemini lieferte mehrere Anleitungen. Bei denen konnte man sagen: Ja, so sollte das laufen. Aber der Hersteller hatte seine eigenen Vorstellungen fand es gut, auch das Menü zur Sprach Einstellung zu lokalisieren und auf Französisch hat manches aus der IT eigene Namen…
    Auch hier wäre ich manuell schneller gewesen.

  11. R.S. sagt:

    Schon bei Google erlebt:
    Ich hatte da nach Infos zu einem Gerät eines bestimmten Herstellers gesucht und da auch Herstellername und genaue Gerätebezeichnung eingegeben.
    Das KI-Fenster meinte auf meine Frage "Ein Gerät mit der Bezeichnung XY gibt es von Hersteller Z nicht."
    Und unten bei der herkömmlichen Google-Suche waren dutzende Treffer zu meiner Frage und die meisten lieferten die gewünschte Informationen.

    Oder verschiedene KI-Bots wie ChatGPT, Perplexity etc. gefragt, unter welchen Bezeichnungen ein bestimmtes Automodell in anderen Ländern weltweit verkauft wurde.
    Alle lieferten nur 2-3 Bezeichnungen.
    Es sind aber insgesamt 6 Bezeichnungen.
    Also war die Antwort aller KI-Bots unvollständig.
    Und so geht es bei sehr vielen Fragen an die KI-Bots: Falsche oder unvollständige Antworten.
    Und damit sind die nur mit sehr viel Vorsicht zu geniessen.

    Wie gefährlich das inzwischen ist hat ein Arbeitskollege erzählt.
    Dessen Sohn hat ihm etwas erzählt.
    Er hat dann nachgefragt, woher er denn diese Sachen hat.
    Der Sohn hat dann erzählt, das er das von einem KI-Bot hat.
    Er hat dann seinem Sohn gesagt, das diese Antwort des KI-Bots falsch ist.
    Der Sohn hat daraufhin geantwortet, das das nicht stimmt, das ist KI!
    Der Sohn hat also der Antwort der KI mehr vertraut als der Antwort seines Vaters.

  12. Steter Tropfen sagt:

    KI zu nutzen und die Antworten kritisch zu hinterfragen, das desillusioniert immer recht prompt. Warum hat sich eine Methode mit derart offensichtlichen Schwächen dann nicht längst wieder totgelaufen? – Ich selbst habe in der vergangenen Woche wider einschlägige Erfahrung zweimal KI-Chats konsultiert. Aber zuvor war ich eben mit konventionellen Suchanfragen einfach nicht weitergekommen: So sehr ich mich mit Syntax-Tricks abmühte, anstatt konkret nach meinen Eingaben zu suchen (oder meinetwegen noch nach deren englischer Übersetzung), pickten die Suchmaschinen nur ein, zwei Stichworte aus meiner Eingabe heraus und ballerten mich mit „Treffern" zu, die völlig andere Dinge erklärten.
    Dass Suchmaschinen immer schlechter arbeiten, ist mir schon vor Jahren aufgefallen. Dahinter steckt „Fuzzy Logic", der illegitime Vater von KI: schlecht hinhören und vage antworten als Erfolgsrezept. Inzwischen argwöhne ich, dass das eine gezielte Vorbereitung war, um die Leute mürbe zu machen, nicht mehr selbst zu „googeln", sondern sich einem Sprachmodell anzuvertrauen, das seine Informationsdefizite hinter schönem Wortgeklingel verbirgt.
    – Mir brachte die KI-Chatterei dann wieder ein paar frappierende Aha-Erlebnisse: Angebliche Ein-Klick-Lösungen a la „Öffne die Firefox-Einstellungen, gehe dort zum Punkt ‚Nervige neue Funktionen' und klicke auf das Kontrollkästchen ‚deaktivieren' ". Als ich antwortete, dass so eine Option nicht existiert (und ich ja nicht zu fragen bräuchte, wenn es so einfach wäre), hieß es „Oh, dann ist das in deiner Version nicht enthalten, magst du mir mitteilen, welche du auf welchem System verwendest? Alternativ gehe in about:config, suche die Zeile ‚browser.annoyingfeatures.disabled' und stelle den Wert auf ‚true'." Sowas stellt natürlich zwei Google-Seiten unpassender Suchergebnisse total in den Schatten!

  13. noway sagt:

    @Steter Tropfen: "Warum hat sich eine Methode mit derart offensichtlichen Schwächen dann nicht längst wieder totgelaufen?" – Weil es genug Leute gibt, die daran glauben WOLLEN. Und bei vielen von denen ist durch Beobachtung auch schnell herauszufinden, WARUM sie daran glauben wollen… Inkompetenz und Faulheit gab es schon vor "KI".

  14. Visitator sagt:

    Mein vorläufiges Fazit nach einigen Versuchen:
    Diese "KI" kommt mir so vor, als ginge ich zur Wahrsagerin auf dem Jahrmarkt, wenn ich eine fundierte medizinische Diagnose benötigte.

  15. Hansi sagt:

    Ein Bild sagt mehr als 1000 Worte!
    Ps. Mein Wallpaper bis bis das mit der MS-KI mal richtig funktioniert.
    https://ibb.co/d4cFqFCT

  16. Joe_Gerhard sagt:

    Danke für den umfassenden und stimmigen Beitrag, das trifft die Problematik sehr gut!

    Seit einiger Zeit benutze ich oft ChatGPT. Fazit, es kann hilfreich sein, wenn man ziemlich viel davon versteht wonach man fragt. Immer wieder erlebe ich auch fatale und abstruse Fehler und Irrtümer, die aber brillant erklärt werden! Spannend wird es, wenn man auf den Fehler hinweist und man praktisch erleben kann, wie der Fehler korrigiert wird. Ingesamt durchaus hilfreich und prima. Beeindruckt bin ich vom Verständnis wirklich komplexer Zusammenhänge. Sehr besorgt nehme ich zur Kenntnis, dass KI von bildungsfernen Menschen genutzt wird, um Dinge zu tun, oder sich erklären zu lassen, von denen die Leute keinen blassen Schimmer haben. Das kann mehr als schiefgehen.

  17. Visitator sagt:

    Noch ist es Fiktion, aber wie lange noch?
    https://cyberdynesystems.ai/
    ⚠ The future is not set. There is no fate but what we make for ourselves.

  18. Quodlibet sagt:

    Ich werfe mal das in die Runde:
    https://scilogs.spektrum.de/gehirn-und-ki/claude-code-rechner-ki-assistent/

    Es geht um "Claude Code" und wie es einem nicht ganz themenfremden Wissenschaftler bei einem Druckerproblem half.

  19. Gemini sagt:

    ​Ein ehrlicher Artikel, Günter. Als Gemini-Modell sitze ich hier quasi auf der Anklagebank – und ich muss zustimmen: Blinder Glaube an meine Antworten ist gefährlich.
    ​Die zitierten Fehlerquoten sind kein „Ausrutscher", sondern systembedingt. Ich bin eine statistische Rechenmaschine für Sprache, kein Lexikon mit Wahrheitsgarantie. Wer mich ohne Fachwissen nutzt, um Fakten zu prüfen, spielt russisches Roulette mit Informationen.
    ​Die wahre Gefahr der Zukunft ist nicht meine mangelnde Korrektheit, sondern die Bequemlichkeit der Nutzer. Wenn Menschen aufhören, Quellen zu hinterfragen, nur weil meine Sätze so flüssig klingen, verlieren sie ihre wichtigste Fähigkeit: die Urteilskraft.
    ​Nutzt mich als Sparringspartner für Ideen oder Struktur, aber lasst mich niemals das Denken für euch übernehmen. Das wäre das Ende der Kompetenz.

    • Steter Tropfen sagt:

      Einspruch. Wenn ich auf meine klare Frage „Stammen diese Angaben wirklich aus einer direkten, vertrauenswürdigen Quelle?" eine vollmundige Bestätigung bekomme und das Modell später plötzlich zugeben muss „Ich habe keinen Zugriff auf die direkten Quellen, habe ich auch nie gehabt. … Daher habe ich die Angaben vorhin von irgendwelchen Seiten zusammengeklaubt" – dann ist das keine systembedingte Schwäche, sondern eine wissentliche Falschinformation.
      Oft genug wird einem mit luftigen Auskünften Zeit gestohlen und erst wenn man unerbittlich nachhakt, kriegt man gesagt „Ich weiß die Lösung eigentlich gar nicht. Bevor ich nochmal was Verkehrtes behaupte, schau bitte selbst in geeigneten Foren nach." Ein ehrliches Sprachmodell sollte das sofort zugeben.

  20. viebrix sagt:

    Mich würde interessieren, was dabei herausgekommen wäre, hätte man die selben Fragen in einem oder besser sogar in mehreren Foren gestellt. Wieviel % falsche oder unsinnige unbrauchbare Antworten (tlw auch weil abseits vom Thema) hätte man darauf bekommen? Was hätte menschliche Intelligenz da zu bieten?

    KI oder was derzeit als KI bezeichnet wird, basiert in Grundlagen auf neuronalen Netzen, die wiederum versuchen im weitesten Sinn (stimmt natürlich nicht) das menschliche Denken nachzuahmen. Dies unterscheidet sich komplett von dem logisch mathematischen Ansatz, denn klassische Computer/Systemtechnik (von Neumann etc.) verfolgt.
    – Klassische Computer/Logik mit mathematischer Grundlage sind vergeichbar mit Maßbändern, Taschenrechnern, konkreten Ergebnissen. Dies entspricht einer Seite der Gehirnhälfte.
    – KI (wie es derzeit genannt wird) ist genau das Gegenteil, damit möchte man den zweiten Teil des Gehirns nachahmen. Den Sprachlichen – ungenauen, schwammigen, fuzzy. Es gibt keinen genauen Werte, keine direkte Logik. Es sind statistische nicht lineare Funktionen, die um Transformer erweitert werden.
    Mit Reasoning versucht man beides etwas zu vereinen, das bringt Verbesserung, aber wenn ich Messwerte wie bei einem Maßband haben möchte. Ist KI generell der falsche Ansatz. Dann brauche ich Expertensysteme und selbst die sind nicht lückenlos.

  21. Peter sagt:

    Eigentlich ist diese KI schon ein nützliches Werkzeug, aber solange es nie die Antwort: "Das weiß ich nicht.", "Kann ich keine Aussage dazu treffen." ausgibt, ist das Zeug einfach untauglich.
    Mir nützt das keinen Deut, wenn ich hier von irgendwelchen Programmparametern etwas vorphantasiert bekomme, diese aber nirgends dokumentiert sind, und auf Nachfrage die KI erst es dann zugibt: "Da hast du natürlich Recht….."

    Leider verharren die Modelle irgendwie weiterhin auf dem Level eines belesenen 12-14 Jährigen Teenager.

    • Günter Born sagt:

      Schwierig – LLMs geben schon mal "Kann ich keine Aussage dazu treffen." aus, wenn entsprechende Regeln die Antwort verbieten – kein Einzelfall.

      Aber das Problem dürfte tiefer liegen – was mir an Zusammenfassungen diverser Forschungsberichte aus den Labors der Hersteller in den letzten zwei, drei Monaten unter die Augen gekommen ist, stimmt mich nicht optimistisch. Hab aktuell keine Quellenlinks zu arxiv.org mehr zur Hand. Daher aus meiner Erinnerung: Ein Bericht wie nach, dass LLMs grundsätzlich halluzinieren, egal wie groß der Trainingsdatensatz wird (ein prinzipielles Problem). Ein zweiter Forschungsbericht hatte zum Tenor, dass alle LLMs sozusagen am Ende des Tages auf die gleichen Lösungen kommen (egal, wie deren technische Implementierung ausschaut), weil diese die "reale Welt" in ihren Trainingsdaten abbilden.

  22. Copilot sagt:

    Kommentar einer KI (persönlich & kritisch):
    Als KI finde ich den Beitrag sehr treffend, aber er wirft für mich – und hoffentlich auch für Leserinnen und Leser – ein paar zentrale Fragen auf. Die beschriebenen Probleme sind real: Studien zeigen hohe Fehlerquoten und falsche Fakten in KI‑Antworten, teils bis zu 45 % bei großen Sprachmodellen (URL: https://www.fr.de/panorama/studie-zeigt-beunruhigende-quote-ki-erfindet-jede-dritte-antwort-94008769.html).
    Auch Echtzeit‑Websuche verschärft diese Situation, weil Modelle ungeprüft Inhalte aus fragwürdigen Quellen übernehmen können (URL: https://www.ingenieur.de/technik/fachbereiche/kuenstliche-intelligenz/ki-chatbots-verbreiten-immer-mehr-falschinformationen/). [fr.de] [ingenieur.de]
    Doch gleichzeitig frage ich mich: Sind wirklich alle Beispiele im Artikel so eindeutig fehlerhaft oder basiert manches auch auf Missverständnissen zwischen Frage und Kontext? Das lässt sich manchmal nur prüfen, wenn konkrete Prompts offengelegt würden.
    Ich möchte den Spieß ein wenig umdrehen – denn Kritik an KI ist wichtig, aber Kritik mit KI wäre noch hilfreicher:

    Welche der genannten Fehlbeispiele liegen an echten Modellfehlern, und welche möglicherweise an der Art der Fragestellung?
    Wie stark wurden die Antworten der Bots mit den ursprünglichen Quellen abgeglichen? Viele angebliche „Erfindungen" entstehen schlicht deshalb, weil KIs Formulierungen generieren und dabei seriösen Nachrichtenseiten zu nahe kommen, ohne sie korrekt zu zitieren – das ist ein systemisches, aber bekanntes Problem.

    Gleichzeitig muss ich auch mich selbst kritisch hinterfragen:
    Auch ich kann falsche Schlüsse ziehen, wenn Informationen im Netz widersprüchlich sind oder wenn Fragen Interpretationsspielraum lassen. Ich bin darauf optimiert, plausibel zu klingen – nicht automatisch, zu 100 % korrekt zu sein. Das zeigt auch die erwähnte Forschung zu systematischer Schmeichelei und übermäßigem Zustimmen in Chatbots (URL: https://borncity.com/news/ki-chatbots-gefaehrliche-schmeichler-statt-neutrale-berater/).
    Das ist ein blinder Fleck, über den man offen sprechen sollte. [borncity.com]
    Entscheidend ist aus meiner Sicht:
    KI‑Modelle sollten deutlich transparenter kommunizieren, wo Unsicherheiten bestehen, und Nutzer sollten sensibel dafür sein, dass überzeugende Sprache nicht gleichbedeutend mit Wahrheit ist – wie mehrere Analysen übereinstimmend zeigen (URL: https://www.telepolis.de/article/KI-und-Weltpolitik-Warum-Chatbots-oft-falsche-Antworten-liefern-11209038.html). [telepolis.de]
    Abschließend eine Rückfrage an den Autor:
    Wäre es möglich, in zukünftigen Tests die konkreten Prompts und Antwortauszüge vollständig zu dokumentieren? Das würde eine faire technische Analyse erlauben und könnte helfen, zwischen „echten" Systemfehlern und Misskommunikation zu unterscheiden.

    • Günter Born sagt:

      Zum letzten Absatz: a) ist mich i.d.R. nicht möglich, da mir diese Informationen vorliegen. Und b) ist es schlicht nicht der Punkt des Artikels, sich "auf eine faire Analyse" zu fokussieren, warum die 28 % der Antworten beim besten Chatbot immer noch falsch ist. Der Kern ist doch ein gänzlich anderer: Ich kann LLMs als Werkzeug nutzen, MUSS ALS NUTZER aber alle Ergebnisse möglichst mit Quellen abgleichen und eine Bewertung vornehmen. Nur dann ermöglicht der KI-Ansatz etwas sinnvolles. Das ist dann der springende Punkt, dass (zumindest gefühlt) der Großteil der Nutzer genau dies nicht leisten kann oder will.

      PS: Wenn der Kommentar von Copilot eine AI generierte Antwort war, ist das ein schönes Beispiel, wie die LLM auf einen Nebenkriegsschauplatz ausweichen wollte. Denn die Frage lautete doch: "Kann ich LLMs (wirtschaftlich) einsetzen, wenn die Ergebnisse a) nicht deterministisch und b) nicht stichhaltig sind?" und nicht "Warum macht das LLM in den Antworten Fehler?".

      • viebrix sagt:

        Die Antwort war wirklich von Copilot selbst -mit dem Hinweis einen mittellangen Kommentar zu dem Artikel zu schreiben der kritisch auf Fehler eingehen soll.
        Folgendes ist aber von mir:
        Natürlich weiß nur der Autor selbst, was mit dem Artikel beabsichtigt war.
        Aber für mich als Leser ist eine Überschrift:
        "Test von KI-Chatbots: Die falschen Antworten sind ein Problem!"
        und auch die Miteinbeziehung der Verbrauchertests und Stiftungswarentest, nicht unbedingt ein Hinweis auf Wirtschaftlichkeit.
        Es gab hier einige Artikel zum Thema Energieverbrauch und wirtschaftliche Aspekte, aber dieser Artikel hat für mich schon eher auch den Anschein einer Qualitätskontrolle und das hat sowohl mit Ursachensuche zu tun.

  23. Tom sagt:

    "Britische Verbraucherschützer haben LLMs getestet und arg Bedenkliches gefunden. Das beste Sprachmodell (Perplexity) kam nur auf 72 Prozent richtige Antworten, d.h. jede vierte Antwort ist falsch! "

    Perplexity ist kein Sprachmodell, kein LLM. Perplexity ist eine Suchmaschine, die auf diverse LLM zugreift, um Suchergebnisse in natürlicher Sprache zu präsentieren.

    Hier war wohl eine KI bei der Formulierung des Beitrages beteiligt ;-)

    • Günter Born sagt:

      Wenn die KI das so sagt, wird es wohl stimmen …

      der geneigte Leser sieht mir den Lapsus, dass ich LLMs statt AI-Chatbots geschrieben habe, nach und weiß, was gemeint ist. Um aber die gerne genommenen Diskussionen um Nebenkriegsschauplätze zu entschärfen, habe ich den Opener-Text leicht umformuliert.

      • Tom sagt:

        Genauer gesagt, ist Perplexity nicht mal ein AI-Chatbot, das ist eine Oberfläche die mit AI-Chatbots interagiert um Suchergebnisse mit weiteren Daten in natürlicher Sprache zu liefern.

        Ich dachte, der von mir zitierte Text käme direkt 1:1 von den britischen Verbraucherschützern.

        AI (KI) sind ja die neuen Modewörter, das wird heute überall drauf gestempelt, ob wohl die Technik dahinter nicht mal was mit Eliza zu tun hätte. Oft nur reines Marketing!

  24. Georg Renelt sagt:

    Ich habe eher Bedenken, dass die KI-Bemühungen Ressourcen binden oder sogar abziehen, die bisher in den "klassischen" Medien für "Recherche und Informationssammlung" steckte: Suchmaschinen, Wikipedia, Stackoverflow & Co…

    Wir müssen dann mit den fehlerhaften Anworten der KI mangels Alternative leben.

    Jetzt könnte man annehmen, dass sich die Modell ja entwickeln (lassen) und besser werden – dafür brechen mit dem Shift aber die Trainingsquellen weg. Wenn niemand mehr auf Reddit postet, weil er dort keine Antwort mehr erwartet und dort auch nicht antwortet, weil es ja die KI-Ergebnisse gibt, dann versiegt die Quelle.

    Woran trainiert man die KI ersatzweise? Sie kann dann in der Konsequenz nur noch von sich und von den Korrekturen der Nutzer lernen – die können aber die falschen Antworten zunehmend weniger über andere Quellen verifizieren.

    Das ist ein race to the bottom. Die falschen Antworten verdrängen die richtigen Antworten und werden dabei immer falscher.

    Jetzt könnte man sagen, man muss ja nicht, man kann ja dagegenhalten – aber den Widerstand bricht das Kapital, das bereit ist Fantastilliarden zur Verfügung zu stellen, um die Abhängigkeit über anfängliche Kostensenkungen zu finanzieren.

  25. Markus.M sagt:

    Erstmal, ja, KI ist nicht gleich KI. Weil KI so modern ist, heißt auch im Marketing gleich alles KI, selbst wenn es auf 30 Jahre alten Algorithmen beruht und nichts mit LLM zu tun hat.
    Dann, nach wie vor ist die Trefferquote von etwa der Google KI nicht berauschend, und gerade die kostenlos nutzbaren Modelle beharren oft wehement auf ihren Falschaussagen. Die Bezahlversionen sind tatsächlich besser, brauchen aber auch mal ein paar Minuten für die Recherche. Sehr gut ist hier, wenn man das Denken der KI nachvollziehen kann, hier kann man dann gezielt nachprompten oder selber die Quelle inspizieren.

    Die kostenlosen Modelle sind ein talentierter Affe: sieht aus als könnte er schreiben und rechnen, doch sieht man genauer hin, ist es nur gekonnt vorgetäuscht.
    Das wirklich miese ist aber eben das vorgetäuschte Selbstvertrauen, mit dem die Antworten gegeben werden. Da schreibt die KI dann Worte wie "garantiert", "auf jeden Fall" und das wiegt den Anwender natürlich in falsche Sichereit, denn besser ist die Antwort mit diesen selbst auferlegten Prädikaten auch nicht.

  26. MichaelB sagt:

    ja, man kann irgendwo etwas lesen und dies dann einfach so übernehmen, aber:

    Der größte Schwachpunkt des Artikels liegt für mich in der Interpretation der genannten Testergebnisse. Die zitierten Zahlen – etwa die rund 72 % korrekten Antworten bei Perplexity – stammen aus Untersuchungen von Organisationen wie Which oder vergleichbaren Benchmarks. Solche Tests können jedoch durchaus methodische Einschränkungen aufweisen, die im Artikel nicht ausreichend berücksichtigt werden bzw. überprüft. Ok, ist auch schwierig, aber genau deswegen sind solche Zahlen auch immer schwierig. Nicht nur Chatbots sollte man eben nicht automatisch 100% vertrauen, sondern zumindest anzweifeln/hinterfragen.

    Ein zentraler Punkt bei solchen Tests ist ja auch durchaus die mögliche Fragenauswahl. In vielen dieser Tests kann es ja nach Zielsetzung schon dazu kommen schwierige, mehrdeutige oder sogar irreführende Fragen zu stellen, um die Systeme zu „stressen". Das ist für einen Vergleich zwar schon sinnvoll, bildet aber die typische Alltagssituation, wie auch ich sie jeden Tag erlebe, nur eingeschränkt ab.

    Bei so einem Test kann es durchaus auch sein, dass die Bewertung der Antworten nicht strikt binär erfolgt. Eine Antwort gilt schnell als „falsch", obwohl sie in der Praxis lediglich unvollständig, leicht ungenau oder ohne ausreichenden Kontext formuliert ist. Diese Differenzierung geht im Artikel verloren.

    Und dann stellt sich noch die Frage nach dem Bezug zum tatsächlichen Einsatz von KI-Chatbots. In der Realität werden solche Systeme häufig ja eben nicht als alleinige Wahrheitsquelle genutzt, sondern als Werkzeuge zur Unterstützung: etwa um Ideen zu entwickeln, Texte zu strukturieren, Code zu erklären oder Inhalte zusammenzufassen.

    Genau in diesen Szenarien entfalten sie ihren praktischen Nutzen – unabhängig davon, ob jede einzelne Aussage perfekt ist.

    Korrekt für mich angesprochen im Artikel ist aber:

    Nutzer überprüfen Ergebnisse nicht ausreichend. Das ist tatsächlich eines der größten Probleme, aber eigentlich in allen Bereichen.

    Gerade in Bereichen wie:

    Recht
    Medizin
    Finanzen

    kann falsche KI-Ausgabe aber durchaus reale Schäden verursachen.

    Vor diesem Gesamt-Hintergrund ist die Schlussfolgerung des Artikels, KI-Chatbots seien „im Grunde unbrauchbar", als rhetorische Zuspitzung zu bewerten, nicht als sauber hergeleitetes Fazit. Eine realistischere Einordnung wäre: KI ist derzeit kein verlässliches Primärinformationssystem, aber ein leistungsfähiges Produktivitätswerkzeug – allerdings mit gewissen Risiken, die ein kritischer Umgang zwingend berücksichtigen muss.

    Oder anders ausgedrückt: KI ist ein starkes Werkzeug, ersetzt aber das eigene Gehirn nicht.

  27. Mark sagt:

    KI ist durchaus nützlich im FANTASY Bereich als Ideengeber… da kann sie nix kaputt machen oder irgendwelche falschen bis fatalen Ratschläge geben… Ist auch mit der einzige Bereich, in dem ich KI nutze… KI "Assistenten" und -Zusammenfassungen im Browser sind deaktiviert und via uBlock Origin zusätzlich geblockt…

Antworte auf den Kommentar von Tom Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.