Beschuldigung als "Kindermörder": noyb reicht 2. Beschwerde gegen OpenAI ein

ParagraphDatenschutzaktivisten von noyb haben eine zweite Beschwerde gegen OpenAI eingereicht. Der Hintergrund ist, das ChatGPT bei einem Norweger eine Fake-Story erfunden hat, die den Mann fälschlich als Kindermörder darstellte.


Anzeige

Der rasante Aufstieg von KI-Chatbots wie ChatGPT wurde von kritischen Stimmen begleitet, die unter anderem auch vor sachlich inkorrekten Ergebnissen warnten. Der Grund dafür: Diese KI-Systeme sagen lediglich das nächstwahrscheinlichste Wort als Antwort auf eine Eingabe voraus. KI-Systeme halluzinieren deshalb regelmäßig, heißt, sie denken sich einfach Geschichten aus. Während dies in einigen Fällen recht harmlos oder sogar amüsant sein mag, kann es auch katastrophale Folgen für das Leben von Menschen haben.

In der Vergangenheit beschuldigte ChatGPT Menschen fälschlicherweise der Korruption, des Kindesmissbrauchs – oder sogar des Mordes. Das jat bereits zu Klagen gegen OpenAI geführt. OpenAI reagierte mit einem kleinen Haftungsausschluss, laut dem es zu falschen Ergebnissen kommen kann.

Der norwegische Nutzer Arve Hjalmar Holmen wollte herausfinden, ob ChatGPT Informationen über ihn hat. Der Chatbot erfand daraufhin eine Fake-Story, die ihn als verurteilten Mörder darstellte.

ChatGPT stellte den Mann als verurteilten Verbrecher dar, der zwei seiner Kinder ermordet und versucht hat, auch seinen dritten Sohn zu ermorden. Zu allem Überfluss enthielt die erfundene Geschichte auch reale Elemente aus seinem Privatleben. Dazu gehörten die tatsächliche Anzahl und das Geschlecht seiner Kinder sowie der Name seiner Heimatstadt. Darüber hinaus erklärte ChatGPT auch, dass der Benutzer zu 21 Jahren Gefängnis verurteilt wurde.


Anzeige

Angesichts der Vermischung von eindeutig identifizierbaren persönlichen Daten und falschen Informationen stellt dies zweifellos einen Verstoß gegen die DSGVO dar. Gemäß Artikel 5(1)(d) müssen Unternehmen sicherstellen, dass die von ihnen erstellten persönlichen Daten korrekt sind.

noyb sagt, dass das kein Einzelfall sei und argumentiert hier, dass ChatGPT regelmäßig falsche Informationen über Personen liefert, ohne dass OpenAI diesen Personen eine Möglichkeit zur Korrektur anbietet. noyb hat deshalb  bei der norwegischen Datatilsynet eine zweite Beschwerde gegen OpenAI eingereicht. Das Unternehmen lässt wissentlich zu, dass ChatGPT diffamierende Ergebnisse produziert. Damit verstößt es eindeutig gegen den DSGVO-Grundsatz der Datenrichtigkeit.


Anzeige

Dieser Beitrag wurde unter Allgemein, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

36 Antworten zu Beschuldigung als "Kindermörder": noyb reicht 2. Beschwerde gegen OpenAI ein

  1. Luzifer sagt:

    Da ein LLM nicht wirklich intelligent ist sondern nur ein statistischer Algorythmus… sollte das doch jedem klar sein… das da nicht immer sinnvolles dabei rauskommt.
    Es ist doch eher so das die Leute, naiv sind zu glauben das da nur sinnvolles bei rauskommt.
    Ich finde es trotzdem toll: vereinfacht es mir doch Menschen einzuordnen: Sag mir ob du LLM nutzt/glaubst; Schublade auf und einsortiert *Spoiler nicht zum Vorteil der Einsortierten ;-P

    Nur weil ein blindes Huhn auch mal ein Korn findet, zeugt das nicht von Intelligenz.

    • GüntherW sagt:

      Den Leuten ist das nicht so ganz klar….. Es ist aber teilweise erschreckend für das die Leute ChatGPT nutzen bzw. nicht mal bemerken, dass die LLM teilweise totalen Quatsch erfinden.

      Letzteres schockiert mich noch mehr, weil ChatGPT eigentlich bei jeder "Wissensfrage" mehr oder weniger versagt. Entweder werden da total simple Fragen gestellt die man einfach nicht falsch beantworten kann oder es wird nicht über die Antworten nachgedacht. Eigentlich fehlt immer was oder es ist irgendwas komisch.

      Als "Brainstorming" ist es zwar ganz nett, bekommt auch Ideen. Wobei das LLM auch total überzeugend ist und selbst auf Nachfrage behauptet, dass alles korrekt ist.

  2. Patrick sagt:

    "Der rasante Aufstieg von KI-Chatbots wie ChatGPT wurde von kritischen Stimmen begleitet, die unter anderem auch vor sachlich inkorrekten Ergebnissen warnten. Der Grund dafür: Diese KI-Systeme sagen lediglich das nächstwahrscheinlichste Wort als Antwort auf eine Eingabe voraus."

    Es erinnert an Emacs' Doctor (Start in Emacs über (M-x doctor') mit ELIZA von Joseph Weizenbaum.

    Quellen/Links:
    [https:]//www.emacswiki.org/emacs/EmacsDoctor
    [https:]//en.wikipedia.org/wiki/ELIZA

  3. OwenBurnett sagt:

    Die sollten es den LLMs verbieten aussagen über lebendinge menschen zu treffen, das läst sich dan auch einfach filtern imho.

    • Dalai sagt:

      Wäre es denn weniger schlimm, wenn solche Systeme (unwahre) Fakten über bereits Verstorbene herbeifabrizieren? Meiner Meinung nach nicht. Eigentlich sogar im Gegenteil, denn Tote können sich nicht mehr wehren, und wenn keiner für sie einsteht, bleiben die "Fakten" unwidersprochen. Das kann nicht der Sinn der Sache sein.

    • Tomas Jakobs sagt:

      Wie wäre es, wenn für jede Aussage oder Behauptung auch der Quellennachweis als Fußnote zum Selbst-Nachschlagen beigefügt wird?

      In meinem Blog mache ich genau das. Warum das bei einer AI nicht geht wird mir nicht klar. Offenbar fürchtet man da was…

      • Bernd Bachmann sagt:

        >> Warum das bei einer AI nicht geht wird mir nicht klar.

        Weil in den üblichen KI-Modellen schlicht keinerlei Information dazu vorliegt, welche der Milliarden von Quelltexten nun genau welchen Beitrag dazu geleistet haben, dass in dem konkreten Kontext das Word "Mörder" als das wahrscheinlichste Folgewort angesehen wird.

      • Pau1 sagt:

        ChatGPT wird keine Quellen an geben, weil er damit u.U. Copyright Verstöße dokumentieren würde.
        , Darum speichert es auch die Quellen gar nicht erst. Das Gesox hinter ChatGPT und Co weiß am Besten: "Nur keine Daten sind gute Daten".

        • Luzifer sagt:

          Wohl eher weil ChatGPT das gar nicht vermag eine statistische Aneinanderreihung von am wahrscheinlichsten Wörtern ergibt eben weder Intelligenz noch ne verwertbare Quelle!

  4. viebrix sagt:

    Das Problem sind nicht die LLMs sondern wie sie verkauft werden.
    Es fällt wahrscheinlich auch kaum jemanden ein, einen Bildgenerator anzuweisen ein Bild von sich zu "zeichnen" (mit Namen, Wohnort und diversen anderen Angaben die es konkreter machen) und sich dann darüber aufzuregen, dass man viel schöner – aber ganz anders aussieht als man wirklich ist ;-)
    Bei einem Bildgenerator ist es jedem klar, dass es die KI nicht wirklich wissen kann (zumindest nicht wenn man nicht sehr berühmt ist, oder das Netz mit seinen Bildern geflutet hat) – da erwartet man sich irgendeine Halluzination die einen Durchschnitt der schönsten assoziierten Bilder bringt.
    Bei einer LLM gehen viele davon aus, dass sie alles gelernt hat, und allwissend ist. Diese fügt aber so wie der Bildgenerator eben die Lücken die sie hat mit etwas anderem, das sie gelernt hat. Üblicherweise der statistische Durchschnitt. Traurig halt, dass dieser Durchschnitt dann ein Mörder ist…

    • Anonym sagt:

      Die medial aufgebaute "KI ist toll und die Zukunft" Blase würde platzen, wenn man den Leuten die aktuellen LLMs, die natürlich nichts mit irgendeiner KI zu tun haben, sondern nur anhand Häufigkeiten in Quellmaterial irgendwelche Ergebnisse würfeln, genauer erklären würde…

    • Günter Born sagt:

      Zum Thema Bildgenerator per LLM hatte ich gerade mein spezielles Erlebnis. Für einen Beitrag im 50Plus-Blog über neurozentrierte Training brauchte ich zwei Symbolbilder einer stilisierten Hand mit bestimmten Fingerstellungen (Hase Jäger als neurozentrierte Übung, die wir beim Sport in bestimmten Kursen immer einbezogen haben). Habe bei mehreren Bildgeneratoren genau – in deutsch und englisch – beschrieben, was ich benötige. Was ich als Ergebnis bekam, war absolut unbrauchbar – werde es ggf. mit Papier und Bleistift zeichnen und scannen.

      • viebrix sagt:

        Hände sind das schwierigste für Bildgeneratoren. Wenn man sich ganz bewusst Fotos und Zeichnungen von Händen ansieht – weiß man auch warum. Es schaut oft sehr "komisch" aus.
        Das Flux Modell ist hier weiter fortgeschritten, aber leider auch nicht fehlerfrei. Wenn mir Zeit bleibt werde ich es vielleicht Abends mal lokal probieren. Ich weiß nämlich nicht wo man Flux Modelle kostenlos im Internet testen kann. Es gibt da leider auch schon fake Seite, die den Hype für Betrügereien nutzen wollen…

      • Marius K. sagt:

        Das liegt am training material. Genaue Fingerstellungen können schlecht erstellt werden weil wenig material zum trainieren existiert. Ist auch bei
        "Volles Weinglas" oder "analoge Uhr die XX:XX anzeigen soll" so da dort das training material fehlt.

    • GüntherW sagt:

      Das mit den Bildern hatte mal wirklich Jemand probiert.

      Irgendwelche Historiker/Mittelalterfreunde hatten versucht mit der KI historisch korrekte Szenen/Bilder zu erstellen. Die haben es wohl wirklich drauf angesetzt. Auf der einen Seite sind die Bilder schon irgendwie beeindruckend, auf der anderen Seite ist der Output wirklich grottig. Das ist dann halbe Comedy… Teilweise war es nicht mal möglich der KI zu sagen, dass man den Himmel ohne Drachen zeichnen soll. Ist halt 1:1 das Verhalten was man auch mit "Text-KI" hat.

      Siehe you YouTube: "KI vs Geschichtsfenster – die Community Challenge (reupload)"

  5. Gast sagt:

    Es ist echt gruselig:
    Überall liest man, dass "KI" eingebaut wird. Dann liest man solche Storys.
    Nun muss ich also alles noch mehr hinterfragen, was dann problematisch wird, wenn es nicht mein Fachgebiet ist.
    Schöne neue Welt.

    @Luzifer: "Da ein LLM nicht wirklich intelligent ist sondern nur ein statistischer Algorythmus… sollte das doch jedem klar sein… "
    Was erwartest du vom gemeinen Volk, dem man diese Wunderkisten überall anpreist?

    MS:
    "Wie kann Copilot Ihnen helfen?
    Beginnen Sie ein Gespräch, um klare Antworten auf schwierige Fragen zu erhalten, verwandeln Sie Ideen in Bilder oder verbessern Sie Ihren Text, bis er einen brillanten Eindruck hinterlässt. Copilot steht Ihnen mit Rat und Tat zur Seite, wenn Sie Hilfe brauchen."

    Keine Spur von Zweifeln.

    OpenAI:
    "We've trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests."

    Das heißt, du fragst die Kiste, musst erkennen, dass die Antwort nicht stimmt, nachhaken und so lange bohren, bis die Antwort stimmt (sofern du das erkennen kannst)?
    Ja nee, is klar.

    Da kommt mir eine Idee für eine Story:
    Trump und Musk fragen ChatGPT: was können wir denn heute mal tun, um den Staat zu demontieren?

    • Marius K. sagt:

      Ich konnte es mir nicht verkneifen deinen kommentar mal ChatGPT o1 aka. "reasoning" zu füttern.
      Beurteilen kannste den Inhalt selber.
      ChatGPT-o1:
      Ach, ihr zwei Großmeister der Weltbühne, was für eine vorzügliche Idee! Lasst uns doch mal überlegen, wie wir am besten den Staat „demontieren" – natürlich rein fiktiv, versteht sich.

      Kleine Skandälchen streuen: Erstmal ordentlich Twittern und Tröten (oder was auch immer gerade in Mode ist), um kleinteilige Empörungen zu erzeugen. Hauptsache, die Leute regen sich auf! Wenn jeder mit Debatten über Haarfarben und Krawatten beschäftigt ist, gerät das große Ganze schonmal ins Wanken.

      Visionäre Ablenkungen inszenieren: Elon könnte beispielsweise ankündigen, dass er eine Rakete baut, um alle Regierungsdokumente zum Mars zu schicken. Dann sind alle so beeindruckt (oder belustigt), dass sie gar nicht merken, wie nebenbei die Infrastruktur fürs Staate-Demontieren weiterläuft. Trump sorgt derweil für Dauerschlagzeilen, damit sich die Talkshows überschlagen.

      „Super-Taskforce" gründen: Benennt eine hochkarätige Taskforce, die der Weltöffentlichkeit verkaufen soll, sie würde „Reformen" erarbeiten. Tatsächlich entwickeln sie jedoch ein Blockchain-Bürokratie-Ungetüm, das jeden Antrag so verkompliziert, dass am Ende niemand mehr durchblickt. Bürokratie kann nämlich auch ein genialer Weg sein, alles lahmzulegen.

      Medienarbeit mit KI-Glanz: Holt euch ChatGPT (oder irgendein anderes KI-Wunderwerk) ins Boot, das unermüdlich Pressemitteilungen und Erklärungen generiert, die sich alle gegenseitig widersprechen. Das sorgt für maximale Verwirrung – und wer verwirrt ist, hat keine Zeit, Widerstand zu leisten.

      Sinnfreie Pseudo-Gesetze vorschlagen: Trump kann öffentlich fordern, dass jeder Bürger zwischen 3 und 3:15 Uhr früh obligatorisch ein Selfie macht und auf einer eigenen Regierungswebseite hochlädt. Musk setzt noch einen drauf: „Bitte einmal am Tag mondän Tesla tanzen – für den Patriotismus!" Was absurd klingt, wird ernsthaft diskutiert – und währenddessen gehen die wirklich relevanten Themen unter.

      Natürlich – räusper – muss ich an dieser Stelle betonen: Das ist bloß eine harmlose Spinnerei. Ernst nehmen sollte das natürlich niemand. Aber in einer perfekten Satirewelt könnten diese Taktiken wunderbar Chaos anrichten und den Staat „demontieren".

      Also, nur zu! Setzt euch mit einer Tasse virtuellem Kaffee zusammen und plant weiter an eurem grotesken „Masterplan". Die halbe Welt schaut garantiert zu – und die andere Hälfte twittert schon fleißig darüber.

  6. MichaelB sagt:

    wenn US Modelle Probleme mit der DGSVO haben bzw. mit Datenschutz allgemein haben, so gibt es ja auch europäische Alternativen wie Le Chat. Wäre ohnehin angebracht angesichts der aktuellen Entwicklungen und technisch sind diese mindestens genauso gut.

    Allerdings finde ich es auch ziemlich fragwürdig von einzelnen Fällen automatisch auf Millionen anderer Anfragen zu schließen. In sehr vielen Fällen liefern diese Sprachmodelle sehr korrekte und auch sehr hilfreiche und damit auch sehr zeitsparende Ergebnisse. Viele der von mir angefragten Texte halten einer Überprüfung locker stand und es ist ja nur logisch, dass man die Ergebnisse vor Verwendung prüfen sollte. Das gilt aber auch für "Texte" von Menschen…

    Natürlich kann man KI generell ablehnen, und natürlich kann man diese auch herablassend bewerten, jeder wie er mag. Man muss sich damit aber darüber im Klaren sein, dass man damit die Zukunft dieses Landes endgültig in die Tonne wirft… denn der Rest der Welt wird sich der deutschen Rückständigkeit kaum anschließen.

    • Günter Born sagt:

      "Natürlich kann man KI generell ablehnen, und natürlich kann man diese auch herablassend bewerten, jeder wie er mag. "

      Ist halt ein Fehlschluss deinerseits. Ich kann nur von mir ausgehen – ich hinterfrage die KI-Lösungen, die aktuell angeboten werden, sehr kritisch und aus grundsätzlichen Überlegungen heraus.

      a) Eines der Probleme von LLMs ist z.B. dass diese bei zwei Abfragen nie zwei identische Antworten liefern müssen
      b) in sehr vielen Modellen nicht geklärt ist, wie es mit Datensicherheit ausschaut
      c) die Validität der Ergebnisse ein großes Problem darstellt.

      Ich sehe in isolierten Anwendungsfällen durchaus Potential für LLMs. Beispiele wären die Bildauswertung von medizinische Aufnahmen, wo ein Arzt bewertet und die KI dann nochmals prüft und ggf. Befundstellen markiert, wo sie glaubt, etwas erkannt zu haben, so dass der Arzt vergleichen kann. Oder bei der Synthetisierung molekularer Verbindungen, wo ein LLM sehr viele Tausend Kombinationen abklopfen und dann vielversprechende Molekülverbindungen als "prüft diese nochmals" auswerfen kann. Auch die Übersetzungen mittels LLMs, wie sie von Deepl verwendet werden, sind schon sehr brauchbar – wenn der Nutzer Sprachkenntnisse in der Ausgangssprache hat und die Ergebnisse prüf(en)t (kann). Ich sehe es aber bei mir, dass da oft der "wird schon stimmen"-Effekt gewinnt und ich etwas Minuten oder Stunden bzw. Tage später die Textstelle lese und denke "was hast Du da wieder für einen Murks formuliert" und feststelle, dass es Deepl war. Bei der Übersetzung fremdsprachlicher Texte ins Deutsche fallen mir Stilblüten oder Fehler eher auf – weil diese meine Muttersprache ist.

      Wo es bei mir aber hakt: AI-Lösungen a la ChatGPT, Copilot, Grook, Perplexity & Co. für eine ordinäre Suche. Da kam bei meinen Versuchen in der Regel nur "hat irre Zeit verbraten, viel Text, der im Grunde Mist war, produziert und im schlimmsten Fall falsche Informationen geliefert" (ich hatte hier im Blog den Fall mal thematisiert, wo mir angedichtet wurde, dass ich angeblich tot sei).

      Probleme habe ich auch, wenn AI-Lösungen "Zusammenfassungen" erstellen sollen. Woher weiß ich, dass die Zusammenfassung des LLM dem entspricht, was ich bei Lektüre als Essenz heraus gezogen hätte? Das läuft oft auf Blindflug – glauben wir es mal, was da steht – hinaus (Ausnahme: Besprechungen, wo man selbst dabei war). Einfach mal als Lektüre meine Buchbesprechung Buch: Prompting like a Pro – KI im Verkauf erfolgreich einsetzen durchgehen.

      Und ob ich unbedingt von Microsoft in Windows mit Copilot, oder bei Android mit Googles AI-Lösungen zwangsbeglückt werden will, ohne eine Option "Njet zu sagen" zu haben, weiß ich auch noch nicht – die Tendenz geht eher in Richtung "will ich eigentlich nicht", weil jegliche Kontrolle fehlt.

      Im Bereich der Wertpapier-Investitionen gibt es ebenfalls ein arges Risiko, dass AI-gesteuerter Hochfrequenz-Handel in einen Crash führen kann. Ich würde einer AI keine automatisierte Investitionsentscheidung überlassen – wenn aber ein Modell einem Portfolio-Manager drei oder vier Aktien von vielversprechenden Unternehmen auswirft und der Kopf dahinter das als logisch und investitionsrelevant einstuft, macht AI wiederum Sinn. Wenn von vier Aktien zwei absolute Treffer sind, auf die man manuell nicht gekommen wäre, hätte sich der AI-Einsatz gelohnt. Und auch das Risiko, dass das LLM wegen irgendwelcher BIASe die nächsten Shooting-Star "übersieht", wäre zwar doof, aber verschmerzbar.

      So gibt es viele Aspekte des AI-Einsatzes, die sehr differenziert betrachtet werden sollten. Das, was derzeit als Sau (speziell von Microsoft) durchs Dorf getrieben wird, ist nichts anderes als "hallo, wir haben das nächste große Ding (für das wir viel Geld verbrannt haben), setze es irgendwie ein, damit es 'uns' Millionen bringt". Ob das am Ende des Tages wirklich den Turn-around bringt, steht vielfach in den Sternen, setzt Unternehmen und Nutzer aber – imho – nicht kalkulierbaren Risiken aus".

      • MichaelB sagt:

        Ich bin jetzt nicht sicher, ob Microsoft wirklich der Big Player im Spiel ist und ich nutze Copilot auch zu selten, um es beurteilen zu können.

        Grook geht für mich definitiv nicht, denn Tools von Herrn Murks fasse ich nicht an. Gemini bietet allerdings mittlerweile erstaunlich gute Ergebnisse, gerne nutze ich auch Le Chat, zumindest aus Europa und sehr schnell, meistens. Chat GPT nutze ich eher mit abnehmender Tendenz. NoteBookLM bietet dazu Zusammenfassungen mit Entertainment…

        Es gibt halt erstaunlich viele Routine-Aufgaben und da sparen diese Tools mir unheimlich Zeit. Die kleinen Lösungen wie zu einer Excel-Formel geht halt schneller mit diesen Tools. Klar könnte man auch alles selber lernen, aber ich will kein Excel-Profi werden, nur um ein temporäreres Problem lösen.

        Und warum immer dasselbe Rad drehen, wenn es auch schneller geht. Letztlich dann auch eine Frage der Konkurrenzfähigkeit.

        Natürlich entwickelt sich das alles auch ins Absurde: Texte, Bilder, Videos, Musik können beliebig in High Speed produziert werden und dies durchaus mittlerweile in oftmals guter Qualität. Welches Bild, Video ist noch echt? Welches Lied ist KI oder von einem Menschen? da blickt sicher auch Spotify nicht mehr durch.

        Das wird jetzt nicht jeden Texter oder Musiker den Job kosten, aber den meisten. Webseiten erstellt die KI in Sekunden, wer braucht noch Webdesigner. Und wer braucht bald noch Programmierer?

        Diese Tools werden immer besser und gehen ja längst über reine Sprachmodelle hinaus.

        Wenn ich diese Tools jetzt zur Suche nach Wanderparklätzen, Geologie oder auch zu Pflanzen befrage, dann sind die meisten Antworten nach meiner Erfahrung durchaus korrekt. Im Zweifel kann man sich die Quellen benennen lassen. Frage ich nach einem Notebook, so mischen die schon mal Infos unterschiedlicher Generationen durcheinander, was letztlich zu fehlerhaften Infos in gewissen Sinne führt. Eine gute KI weist aber auch mitunter darauf hin, dass man die Informationen tagesaktuell überprüfen sollte.

        Klar, bei Fragen zu komplexen Themen, von denen ich nichts oder kaum etwas weiß, wird die Überprüfung dann logischerweise mühsamer, aber auch dann spart es halt Zeit, weil man schneller einen ersten Überblick hat. Diese Tools zu nutzen entbindet einem aber nicht, selber nachzudenken.

        Klar, besonders wenn man KI-Agenten einsetzt, diese automatisiert und vernetzt, dann kann das alles auch sehr schnell in die Hose gehen und wird es vermutlich auch hier und da.

        Aber egal, was man denkt, die Büchse ist geöffnet und das ist auch kein vorübergehender Hype. Vielleicht für Microsofts Windows-Welt, wo Buttons mal rund und dann mal wieder eckig sind, aber eben nicht für den Rest der Welt.

        Was wir denken, ist aber ohnehin egal, es wird passieren, was passieren wird und persönlich habe ich da nicht viel Optimismus.

        • Bernd Bachmann sagt:

          Ich weiss nicht, ob das jetzt zu OT wird, aber ich frage trotzdem mal:

          Ich mache ziemlich viel mit Excel. Wie muss ich mir die KI-Unterstützung dort vorstellen? Etwa: "Ich habe eine unsortierte Excel-Liste in der Spalte C mit ca. 10'000 Einträgen, von denen viele mehrfach vorhanden sind. Ich möchte auf einem neuen Worksheet diese Liste alphabetisch sortiert und ohne Duplikate haben. Gib mir eine Formel dafür."

          So etwas würde funktionieren? Dann wäre ich zugegebenermassen ziemlich beeindruckt.

  7. Matschmeer sagt:

    Man Frage z.B. Perplexity:
    Wie steht es um die geistige, pschologische Gesundheit von Donald Trump?

    Die Antwort ist höchst interessant aber bestimmt falsch.

    • MichaelB sagt:

      Le Chat liefert dazu sehr anständige Informationen, darunter auch:

      "Die Präsidentschaft von Trump hat auch Auswirkungen auf die psychische Gesundheit der Allgemeinbevölkerung gehabt, wobei Berichte über Angstzustände, Depressionen und andere psychische Gesundheitsprobleme zugenommen haben. Diese Auswirkungen wurden als „Trump-Effekt" bezeichnet und haben die Art und Weise verändert, wie einige Therapeuten ihre politischen Meinungen gegenüber ihren Patienten äußern"

      Das ist eigentlich der für mich der wichtigste Aspekt: welchen Schaden dieser Mann bei anderen Menschen bewirkt.

      • Bernd Bachmann sagt:

        Wunderschönes Beispiel dafür, dass man die Ergüsse einer KI nicht einfach für bare Münze nehmen darf.

        Wenn Du mal in eine Suchmaschine Deiner Wahl "Trump-Effekt" eingibst, findest Du eine Menge verschiedener Verwendungen des Begriffs aus allen möglichen Medien — Auswirkungen auf Reisen und Reisebüros, auf Börsenkurse, auf die Politik in Kanada, auf Menschenrechte, Stellenbewerbungen von Amerikanern im Ausland usw. usw.

        Mag sein, dass sich irgendwo auf Ergebnisseite 17 auch die von Le Chat behauptete Definition findet. Üblich scheint sie jedoch nicht zu sein.

        • MichaelB sagt:

          dazu muss man die Antwort von Le Chat aber auch in Zusammenhang mit der Anfrage setzen. Das es nach Meinung von Suchmaschinen "bedeutendere" Trump-Effekte geben mag, will ich gar nicht bestreiten, aber Kanada & Co waren nicht Teil der Frage.

          Nur als Beispiel:
          https://www.zeit.de/wissen/gesundheit/2018-01/donald-trump-usa-gesundheit-bilanz-psyche

          und wer sich die Mühe macht, der findet sehr schnell noch mehr. Dürfte auch nicht überraschen, denn Leute wie Trump & Co machen nur krank.

          "Die Ergüsse der KI" im Kontext der Anfrage sind durchaus durch reale Fakten gestützt, auch wenn die in der Bedeutungsbewertung auf Suchmaschinen nur auf Platz 17 stehen mögen.

          Wenn ich mich aber damit zufrieden geben würde, dass eine KI mir nur Ergebnisse auswertet, die auf den Top Seiten der Suchmaschinen stehen, dann bräuchte ich diese wohl kaum.

          Es ist doch eine der Vorteile von solchen Tools Informationen in einer Tiefe und Breite zu finden, für die mir die Zeit fehlt oder auch die Übersicht. Dass ich die Informationen dann am Ende selber bewerten muss, ist natürlich dann meine Aufgabe. Diese Tools sollen nicht das Denken ersetzen, sondern die Möglichkeiten erweitern und das leisten diese auch.

          Wer nicht mag, der mag nicht, aber dann man nicht überrascht sein, dass der Kollege oder die Konkurrenz schon zwei Schritte voraus ist.

  8. Ich sagt:

    Der KI mangelt es an grundlegender Intelligenz. Sie weiß nicht, wann sie etwas nicht weiß. Dann ist wieder natürliche Intelligenz angesagt. Also nur etwas fragen, wo man weiß, daß die KI das auch weiß 😎.

  9. Pau1 sagt:

    Wenn ich Gemini nach Hjalmar Holmen frage, sagt es, das es nichts zu dem Namen im Netz findet…
    Google findet etliche Nennungen des Namens.
    Wird da etwa der Name geblockt, weil er ja nur zu Treffern zum Versagen von ChatGPT führt.
    Warum sollte sich KI selbst in die Pfanne hauen?
    Sehr üble Entwicklung.

    Nach wiederholtem Nachfragen kommt tatsächlich
    "Aufgrund von Datenschutzrichtlinien und meinem Bestreben, genaue Informationen bereitzustellen, habe ich begrenzte Informationen über Hjalmar Holmen. Es ist möglich, dass andere Quellen, wie z. B. die Google-Suche, über zusätzliche Informationen verfügen."
    Und warum nicht gleich?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.