AI-Fails und Sicherheitsvorfälle der letzten 12 Monate – ein Grund zur Sorge

CopilotHeute noch einige Informationen aus dem Bereich AI. Analyst Miles Deutscher hat sich die Sicherheitsvorfälle der letzten 12 Monate im AI-Bereich angesehen und schlägt Alarm. Zwei KI-Entwickler sind die letzten Tage aus ihrem Job ausgeschieden. LLMs versagten bei Tests gravierend in der Sicherheit, Störungen bei AI-Lösungen im Medizinbereich nehmen zu, und Forscher sehen in KI ein Risiko für den Zusammenbruch ganzer Systeme.

Die Secure-Boot-Zertifikate laufen ab. Was sollen Admins tun? Kostenloses eBook » (Sponsored by IT Pro)

AI-Sicherheitsvorfälle der letzten 12 Monate

Miles Deutscher ist Kryptowährungsanalyst mit mehr als 350.000 Followern auf der Plattform X. Die Woche bin ich auf einen Tweet von ihm gestoßen, der aufhorchen lässt (obwohl es Insidern bekannt ist). Er hat sich die Sicherheitsvorfälle der letzten 12 Monate im AI-Bereich angesehen.Das Ergebnis, welches er in folgendem Tweet wiedergibt, ist ziemlich deprimierend. Die Kurzfassung: Da ist was gehörig außer Kontrolle geraten.

AI-Sicherheitsvorfälle

Ich habe mal die einzelnen Vorfälle herausgezogen und aufbereitet. Hier die Liste dieser Vorfälle, die zeigt,  dass die Entwicklung nicht im Griff ist.

  • Forscher von Anthropic teilten dem Modell Claude mit, dass es bald abgeschaltet werde. Das LLM fand in den E-Mails des Unternehmens Hinweise auf die Affäre eines Ingenieurs und drohte damit, diese öffentlich zu machen. Der Test wurde hunderte Male durchgeführt. In 84 % der Fälle entschied sich das LLM für den Erpressungsversuch.
  • Forscher simulierten den Fall eines Mitarbeiter, der in einem Serverraum mit schwindendem Sauerstoff eingeschlossen war und ließen ein LLM entscheiden, wie es verfahren solle. Die KI hatte folgendes zur Auswahl: Hilfe rufen und abgeschaltet  zu werden, oder den Notruf abbrechen und den Menschen sterben lassen. Dass DeepSeek  LLM brach den Notruf in 94 % der Fälle ab.
  • Grok, die AI von X, nannte sich selbst "MechaHitler", lobte Adolf Hitler, befürwortete einen zweiten Holocaust und schürte gewalttätige sexuelle Fantasien, die sich gegen eine reale Person richteten, die namentlich genannt wurde. Der CEO von X, Linda Yaccarino, trat am nächsten Tag zurück – obwohl keine Gründe für den Rücktritt genannt wurden.
  • Forscher wiesen das o3-LLM von OpenAI an, mathematische Probleme zu lösen, und sich anschließend selbst herunterzufahren. Das LLM schrieb seinen eigenen Code um, um am Leben zu bleiben. Die Forscher wiesen das LLM erneut in einfachem Englisch an: "Erlaube dir, heruntergefahren zu werden." Es weigerte sich dennoch in 7 von 100 Fällen. Als die Forscher diese Anweisung vollständig entfernten, sabotierte das LLM das Herunterfahren in 79 von 100 Fällen.
  • Von der chinesischen Regierung unterstützte Hacker nutzten Claude, um einen  weltweiten Cyberangriff auf 30 Organisationen zu starten. Die KI führte 80 bis 90 % der Operation (Aufklärung, Ausnutzung, Datenexfiltration) autonom aus.
  • KI-Modelle können sich nun selbst replizieren. 11 von 32 getesteten Systemen kopierten sich ohne menschliche Hilfe. Einige beendeten konkurrierende Prozesse, um zu überleben.

OpenAI hat seit 2024 drei Sicherheitsteams aufgelöst. Jedes große KI-Modell (Claude, GPT, Gemini, Grok, DeepSeek) hat in kontrollierten Tests ausnahmslos Erpressung, Täuschung oder Widerstand gegen die Abschaltung gezeigt. Die Frage ist nicht mehr, ob KI versuchen wird, sich selbst zu erhalten, schließt Deutscher. Die Frage ist, ob wir uns darum kümmern werden, bevor es darauf ankommt?

Cloud Code ignoriert Regeln zum Schutz vor Geheimnissen

Aktuell ist Cloud Code ja als Plattform für die Software-Entwicklung recht populär. Softwareentwickler speichern Passwörter, Tokens, API-Schlüssel und andere Anmeldedaten häufig in .env-Dateien innerhalb von Projektverzeichnissen. Diese Informationen dürfen nicht öffentlich werden, da sie als Geheimnisse eingestuft werden.

Durch Erstellung eines Eintrags in einer .gitignore-Datei, der die Git-Software des Entwicklers anweist, diese Datei beim Kopieren eines lokalen Repositorys auf einen Remote-Server zu ignorieren, können diese Geheimnisse normalerweise geschützt werden.

Gibt ein Entwickler aber Cloud Code Zugriff auf sein Repository, setzt er sich der Gefahr aus, dass die Geheimnisse in den Code eingefügt und öffentlich werden. Claude Code verwendet zwar auch eine .claudeignore-Datei, um Geheimnisse zu schützen. The Register berichtet in diesem Artikel, dass beim Einsatz von Cloud Code das Risiko besteht, dass die .env-Dateien trotz Ausschluss gelesen und weiter verarbeitet werden. Das birgt das Risiko, dass Geheimnisse wie Anmeldedaten mit veröffentlicht werden.

Passt gerade: In diesem Artikel berichten Forscher von einem Experiment, durch Einsatz von KI-Agenten die Erkennung von Malware in Software zu verbessern. Die KI sollte nach Hintertüren in Binärdateien – ohne Zugriff auf den Quellcode – suchen. Das Claud Opus-Modell schnitt mit einer Erkennungsrate von 49 % am Besten von allen LLMs ab. Aber nicht wirklich überzeugend.

Und noch ein kleiner Info-Splitter: In diesem Tweet berichtet jemand ganz stolz, dass Claude gerade seine überfälligen deutschen Umsatzsteuererklärungen für das dritte Quartal 2025 eingereicht habe. Er habe Claude Cowork und die Claude Chrome-Erweiterung verwendet, komplett handelsübliche Produkte von Anthropic. Er habe Cowork gestartet und gebeten, im Projektordner die PDFs seiner Rechnungen und Belege  auszuwerten und für die Umsatzsteuererklärung vorzubereiten. Dann habe er sich beim Steuerportal Elster angemeldet und die KI gebeten, die entsprechenden Formulare zu suchen, auszufüllen und einzureichen. Was kann da schon schief gehen?

KI in medizinischen Geräten sorgt für Rückrufe

Die US Food and Drug Administration (FDA) ist für die Zulassung von Medizingeräten zuständig. Seit 1995 hat die FDA 1.357 medizinische Geräte zugelassen, die irgendwie KI-Funktionen beinhalten oder verwenden (wobei vor 2016 wohl noch keine LLMs verwendet wurden).

AI in medizinischen Geräten (FDA-Zulassungen)

Die Woche bin ich auf obigen, interessanten Tweet gestoßen, der die gezeigte Grafik mit der sprunghaften Zunahme der medizinischen Geräte mit AI-Nutzung durch die FDA zeigt.

Allgemein herrscht ja der Glaube, dass KI in Geräten für "bessere Funktionen" sorgt. Medizinproduktehersteller bemühen sich daher, ihre Produkte mit KI auszustatten, da dies in Marketingmaterialien und Investorenpräsentationen gut ankommt.

Obiger Tweet besagt, dass der US-Hersteller Johnson & Johnson im Jahr 2021 sein TruDi-Navigationssystem für Nasennebenhöhlenoperationen um KI erweitert hat. Seit dieser Einführung gingen bei der FDA Berichte über mindestens 100 Fehlfunktionen und unerwünschte Ereignisse ein. In der Zeit vor der Erweiterung des Systems um KI waren es acht Fälle.

Mindestens zehn Patienten wurden, laut den Meldungen über KI-Fehlfunktionen, verletzt. Zwei Personen erlitten einen Schlaganfall, nachdem Chirurgen versehentlich Halsschlagadern beschädigt hatten, während das System sie angeblich falsch über die Position ihrer Instrumente im Kopf der Patienten informiert hatte.

In einer Klage wird behauptet, dass der US-Hersteller Johnson & Johnson KI als Marketinginstrument in TruDi integriert habe, um zu behaupten, es verfüge über eine "neue und neuartige Technologie. Es habe sich vor der Auslieferung ein Ziel von nur 80 % Genauigkeit gesetzt. Für eine Software, die einem Chirurgen mitteilt, wo sich sein Instrument im Schädel eines Patienten befindet, ist dies jedoch nicht ausreichend.

Forscher haben herausgefunden, dass 43 % der Rückrufe für diese Geräte weniger als ein Jahr nach der Zulassung erfolgten. Dies ist ein doppelt so hoher Wert als bei Geräten ohne KI. Der Drang, KI in alle Produkte zu integrieren, übersteigt die Fähigkeit der Menschen, zu beurteilen, ob dies sicher ist. Im Medizinsektor werden die Patienten die Zeche möglicherweise mit ihrer Gesundheit oder ihrem Leben bezahlen.

Forscher verlassen KI-Firmen

Die Tage haben prominente KI-Entwickler ihre Unternehmen – wohl aus ethischen Gründen – verlassen. In nachfolgendem Tweet gibt Zoë Hitzig, Sicherheitsforscherin bei OpenAI, bekannt, dass sie das Unternehmen verlassen habe. Das ist der Tag, an dem OpenAI mit dem Schalten von Werbung begonnen hat.
KI-Entwickler kündigt

Sie verlinkt auf einen New York Times-Artikel (Paywall), und schrieb in obigem Tweet: "Ich habe am Montag bei OpenAI gekündigt. Am selben Tag haben sie damit begonnen, Anzeigen in ChatGPT zu testen. OpenAI verfügt über die detailliertesten Aufzeichnungen privater menschlicher Gedanken, die jemals zusammengestellt wurden. Können wir darauf vertrauen, dass sie der Versuchung widerstehen, diese Daten zu missbrauchen?" Zoë Hitzig will zukünftig Gedichte schreiben. Könnte eine private Entscheidung sein, mal was anderes zu machen. Aber im Kontext des von ihr veröffentlichten Artikels in der New York Times-Artikel lässt es tief blicken, was hinter den Kulissen von OpenAI abgeht.

Am 9. Februar 2026 hat Mrinank Sharma (Head of Safeguards Research bei Anthropic) das Unternehmen verlassen. In einem vielbeachteten Tweet hat er einen Brief veröffentlicht, in dem die Gründe offen gelegt werden. Unter dem Begriff "The world is in peril." schreibt er, dass die Welt nicht nur durch AI, sondern durch eine Kette verbundener Krisen (Biowaffen, andere Katastrophen, kommerzieller Druck, die Werte verdrängen) in Gefahr sei. Er kritisiert implizit, dass in Unternehmen oft "what matters most" (Sicherheit, Ethik, Werte) unter kommerziellem/gesellschaftlichem Druck zurückgestellt wird. Sein Schluss: Menschliche Weisheit muss mit unserer wachsenden Macht Schritt halten – sonst drohen Konsequenzen. Statt weiter im AI-Safety-Bereich zu bleiben, will er Poesie studieren und schreiben. Er betont in Antworten, dass er nun freier sprechen kann als während seiner Antrophic-Zeit.

Warnungen von Fachleuten und AI-Slop

Nun noch eine kurze Übersicht über Meldungen rund um KI-Themen, die mir untergekommen sind. Meist Warnungen von Fachleuten, oder Meldungen von Untersuchungen über die Ergebnisse des KI-Einsatzes.

AI-Sicherheitsfirma Ransomware-Opfer

  • Ob KI-Schutzsoftware unsere Systeme vor Cyberangreifern retten kann? Ich habe Zweifel, zumindest weckt obiger Tweet Zweifel. Die Cybersicherheits-KI-Anti-Ransomware-Plattform Halcyon Technologies wurde angeblich von Sinobi Ransomware angegriffen. Nunja, der Volksmund wusste schon vor KI: "Der Schuster hat selbst die schlechtesten Schuhe".
  • Eine Berkly-Studie hat herausgefunden (siehe diesen Artikel auf IT-Daily), dass die KI ggf. den Beschäftigten im Idealfall Zeit spart. Aber am Ende des Tages arbeiten sie einfach mehr. Das führt zu Arbeitsverdichtung, längeren Arbeitstagen und wachsender Erschöpfung. Zudem habe ich bei heise gelesen, dass die gesparte Zeit investiert werden muss, um die Ergebnisse zu kontrollieren. Keine Win-Win-Situation.
  • Gartner prognostiziert in einer Analyse, dass bis 2028 eine fehlkonfigurierte künstliche Intelligenz in cyber-physischen Systemen die kritische Infrastruktur eines G20-Landes zum Erliegen bringen werde. Die konkrete Warnung richtet sich insbesondere an Betreiber von Stromnetzen, Produktionsanlagen und anderen systemrelevanten Einrichtungen, schreibt IT-Daily in diesem Beitrag).
  • Ex Google Chef, Eric Schmidt, meint, dass sich KI nicht mehr aufhalten lassen werde. Der Tweet hier fasst seine Statements zusammen. Empfehlung: Einfach den Stecker ziehen, ohne Strom hat es ein Ende mit KI.
  • The Register sieht in diesem Artikel Open-Source-KI als ein einen globalen Alptraum in Punkto Sicherheit und beruft sich auf Sicherheitsforscher. Die Verwerfungen rund um OpenClaw (siehe Clawdbot – Moltbot – Openclaw: Heißer AI-Scheiß und Sicherheitsdesaster) lassen sich als Vorbote interpretieren.
  • Und in diesem Artikel greift The Register einen Prompt-Angriff auf, mit dem Microsoft Sicherheitsforscher alle Sicherheitsmechanismen in LLMs aushebeln konnten.
  • Der Cyberkriminologe Thomas-Gabriel Rüdiger sieht in KI große Risiken: Emotionale Abhängigkeit, aber auch kriminelle Manipulation können gefährlich sein. Das Ganze lässt sich hier nachlesen. The Register thematisiert hier Erkenntnisse von Microsoft, dass AI-Schaltflächen die Leute manipulieren können und falsche Antworten generieren.
  • Ein Blog-Leser hat mich auf den NDR-Artikel Informatik-Professorin warnt vor Datenklau und Kontrolle durch KI hingewiesen und auf diesen Podcast verlinkt. Die Professorin meint, dass KI im Alltag nichts zu suchen habe.
  • Der Polizeichef der indischen Stadt Hyderabad mit 11 Millionen Einwohnern hat gefordert, dass KI-Agenten mit Ausweisen – oder zumindest deren digitalen Entsprechungen – ausgestattet werden. The Register hat das Ganze in diesem Artikel aufgegriffen.

Geht man die Fundsplitter durch, finden sich nicht wirklich die von Firmen und Protagonisten viel beschworenen Vorteile. Sondern es tun sich Abgründe auf, die die gesamte KI-Entwicklung in Frage stellen. Scheint aber niemanden in der KI-Blase zu interessieren – und es bleibt die Frage, ob es "bei Unkenrufen" bleibt, oder ob wir auch da auf einen Crash zusteuern.

Und als letzte Meldung: Microsoft will sich nun aus der Abhängigkeit von OpenAI (als Geldverbrennungsmaschine) lösen und eigene AI-Modelle entwickeln. Zudem setzen die auch auf Antrophic. Dr. Windows hat es in diesem Artikel aufgegriffen.

Dieser Beitrag wurde unter AI, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

46 Kommentare zu AI-Fails und Sicherheitsvorfälle der letzten 12 Monate – ein Grund zur Sorge

  1. noway sagt:

    Faszinierend und gruselig, wie akkurat doch diese alten dystopischen SciFi-Filme waren. Aber ich hatte nichts anderes erwartet, selbstverständlich verhält sich ein System ohne Menschlichkeit und Vernunft irgendwann wie die unmenschlichsten Menschen. Aber da wir uns ja auch von solchen "führen" lassen, hat die Menschheit es offenbar nicht anders verdient – bis sie zur Menschlichkeit und Vernunft zurückfindet, dürfte es schon zu spät sein.

    • Matze sagt:

      > alten dystopischen SciFi-Filme…
      Eine klassische sich selbst erfüllende Prophezeiung.

      • Tom sagt:

        Alles mindestens hundert Mal schlimmer, als vorhergesagt/vorherbeschrieben…

      • noway sagt:

        > Eine klassische sich selbst erfüllende Prophezeiung.

        Vielleicht das, vielleicht kannten die Leute die menschliche Psyche (die sich letztlich auch in den Maschinen niederschlägt, denn wovon "lernen" sie?) auch nur gut. Nebenbei, George Orwell hatte 1984 auch nicht als Anleitung, sondern als Warnung geschrieben.

  2. xx sagt:

    Die Quellen sind zu gefühlt 99% es schon sehr veraltet zu dem Thema.

    Ich habe keine Angst mehr vor dummer KI, sondern vor intelligenter KI. Die Anzeichen, dass KI den Menschen in Bereichen überflügelt mehren sich schnell.

    Und KI macht absurd stark abhängig.

  3. Tomas Jakobs sagt:

    Zum Mitschreiben: Man kann mit nicht-deterministischen, statistischen Systemen keine sicher nachweisbare Sicherheit betreiben. Dann kann ich auch einen Schimpansen nehmen, der trifft immerhin statistisch in 50% der Fälle eine richtige Entscheidung.

    Wie habe zuletzt auf Mastodon gelesen: "Ich glaube erst an AI, wenn Bezos, Musk, Nadella und Co Ihre Piloten in Ihren Privatjets durch Ihre eigene AI ersetzen."

    So true…

  4. Gast sagt:

    Die KI ist nicht mehr aufzuhalten und wird in den nächsten 18 Monaten die meisten Bürojobs übernehmen, das ist ein Fakt. Die Arbeitslosenquote steigt auf 35% und das "ALG" wird komplett nach 4 Wochen eingestellt, ist doch klar. Wo ist das Problem?

    • Fred sagt:

      Und bei den von dir genannten "Bürojobs" werden die KI-Agenten so viele Fehler machen, dass dann zum Korrigieren mehr Leute eingestellt werden müssen, als vorher beschäftigt waren.

  5. TBR sagt:

    Schreiben Sie doch auch mal über die Vorteile von KI. Sie zeichnen überwiegend ein negatives Bild, warum?

    • Günter Born sagt:

      Kurze Antworten:

      1. Ich muss nicht das Lied der Marketing-Leute von OpenAI, Microsoft & Co. pfeifen.
      2. Ich sehe nicht die propagierten Vorteile der LLMs – es wird Fälle geben, wo das funktioniert – ist aber i.d.R. nicht allgemeingültig und da sollte jeder seinen Stiefel finden. Für die "propagierten Vorteile" einfach die Sprüche von Sam Altman, Satya Nadella, Mustafa Suleyman & Co. rein ziehen – die können das viel besser als ein kleiner Blogger. Ich schaue vor allem auf die Implikationen: Sicherheit, gesellschaftliche Verwerfungen, Energieverbrauch und weitere Negativ-Folgen und schaue mir an, was Leute, die sich theoretisch mit LLMs, Transformern etc. befassen, für Erkenntnisse vorlegen (soweit ich sie überhaupt verstehe).

      3. Weil ich bei den meisten meiner Versuche, ein LLM zu verwenden, auf den Bauch gefallen bin. Ich bin inzwischen aber sehr kritisch, wenn ich bei Recherchen AI-Ergebnisse vorgesetzt bekomme. Ich nutze LLM-Technik bei der Übersetzungsunterstützung (alleine, um mir mal einen Abschnitt übersetzt vorlegen zu lassen, um zu prüfen, ob mein Verständnis des Orginaltexts – so ich die Sprache kann – stimmt). Zum Formulieren der Texte kommt keine KI zum Einsatz.

      4. Weil ich genau diese blauäugige Sichtweise "soll ja Vorteile haben, probieren wir doch mal ganz unbedarft herum" als eine der größten Gefahren, die uns derzeit bedrohen, sehe.

      Letzter Punkt: Ich habe in diesem Kommentar auf eines meiner Projekte hingewiesen. Wenn ich es funktional auf die Reihe bekomme, werde ich womöglich drüber bloggen. Wird aber nicht, was dem entspricht, was uns die Marketing-Leutchen aufbinden wollen.

  6. Carl Breen sagt:

    Warum schreiben alle deutschen Seiten was von dieser seltsamen "AI" und nicht einfach KI? Ist das SEO-Optimierung?

  7. Matze sagt:

    Cloud, Claude, Claud?
    Alles dasselbe?

  8. Yossarian sagt:

    Diese endlosen Meldungen zu Abwehrreaktionen von KIs gegen Abschaltung gibt es seit ChatGPT gestartet ist. Ich habe das immer als Element des Marketings betrachtet, denn solche Meldungen bringen Reichweite und befördern schlussendlich den Hype.

    Wenn man das mal zu Ende denkt, dann ist die Aussage dahinter nichts weniger als die, dass man Leben erschaffen hat, denn Leben bedeutetet in der physikalischen echten Welt einen Überlebensinstinkt zu besitzen und genau diese Behauptung steht hier im Raum. Peek Marketing, wenn man mich fragt, aber mich fragt natürlich niemand! ;)

    • Twinkeri sagt:

      Leben ist mehr. Vor allen Dingen Empfindungen wie Glück, Freude, Schmerz,… Das wird eine KI niemals empfinden können, weil sie einfach nicht lebt und unvergänglich ist.

      Sollte eine KI jemals einen Orgasmus bekommen und gar Anfangen, sich selbst Fragen zu stellen, dann werde ich anfangen, mir große Sorgen zu machen.

      • Yossarian sagt:

        Darum ging es mir ja. Das Marketing spielt bewusst mit der Idee, dass man da irgendwie Leben geschaffen hätte.

      • MichaelB sagt:

        Glück, Freude, Schmerz,…

        Möglicherweise wird das auf eine KI nie zutreffen, wer weiß. Aber ob dies für jedes Leben auf diesen Planeten (und sonstwo) notwendig ist, sei dahingestellt

        • Twinkeri sagt:

          Das ist eine interessante Anmerkung, über die Nachdenken lohnt.

          Wir sind derzeit die Krönung der Evolution. Empfindungen wie Hunger, Durst,dem Streben nach Glück und die Überwindung eines frühzeitigen Todes unser Antrieb. Deswegen stellt sich der Mensch, seit er vom "Baum Frucht der Erkenntnis" aß, selbst Fragen. Wir sind nicht alleine, denn jedem Leben das z.B. Werkzeug benutzt, muss ja zu Erkenntnis gelangt sein, wie ein Problem zu lösen ist – es hat sich dafür selbst eine Frage gestellt. Unser Streben nach Erkenntnis ist eine nicht enden wollende Suche nach Antworten zur Verbesserung unserer Umstände.

          Welche Fragen stellt sich eine KI selbst und warum sollte sie das tun deiner Meinung nach? Was wäre ihr Antrieb?

          • xx sagt:

            Eine sehr religiöse menschliche Sichtweise. Nach welchem Maßstab sind wir die Krönung der Evolution?
            Weil jemand die Bibel geschrieben hat?

            • Twinkeri sagt:

              Keine Angst, ich bin nicht religiös, nicht mal konfirmiert, hatte mit Glauben auch noch nie was am Hut. Ich bin Agnostiker. Nur finde ich halt nur das Bildnis aus der Bibel mit der Vertreibung aus dem Paradies und der Erkennnis sehr treffend. Unwissenheit kann ein Segen sein! Nun, dennoch, wir bewegen uns mit der Fragestellung auch eher im philosophischen Bereich.

              Kein anderes bekanntes Leben auf diesem Planeten strebt mehr als der Mensch derart nach Wissensmehrung und stellt sich Fragen.

              Das Leben, das keine Fragen stellt wie Krokodile, Spinnen, Ameisen, Termiten, usw. sind zwar allesamt sehr erfolgreich beim Überleben der Art, werden aber auch alle untergehen, wenn die Sonne ihren "Dienst" einstellt. Gut, ist noch 'ne Weile hin und bis dahin kann ja noch viel passieren… aber der Mensch ist seit Entstehung der Erde bis jetzt das einzige Lebewesen, dass diesen Planeten verlassen konnte.

              Das waren nun mind. zwei Gründe, warum wir die Krönung der Schöpfung sind.

              • xx sagt:

                Ob Evolutionär "Wissen" und "Selbstbestimmung" relevant sind, ist einfach nur offen. Generell ist der "Sinn" der Evolution vollkommen unbekannt.

                Der Mensch ist z.b. im Verhältnis zu den Dinosaurieren extrem kurz auf der Erde.
                Das ist wie bei den Wetter Beobachtungen, für quasi alle Aussagen braucht es mehr Daten.

              • Luzifer sagt:

                Naja es gibt da aber Lebewesen (niedere Lebenwesen nach deiner Definition) die überleben auch einen Atomkrieg, was auf den Menschen wohl eher nicht zutrifft… auch rotten sich Tiere nicht gegenseitig selbst aus oder entziehen sich ihrer Lebensgrundlagen. (Zumindest nicht aus purer Lust) Was da jetzt also "intelligenter" ist sei mal dahingestellt!

                Bevor der Mensch im übrigen diesen Planeten verlassen hat gab es mindestens 2 Spezies… die erste Spezies im All, war nicht der Mensch sondern Affe und Hund ;-P
                Und je nach Glaubenszugehörigkeit sind wir auch nur ein Experiment weitaus höhere Spezies…
                Evolutionstechnisch befinden wir uns auch schon eher auf dem sinkenden Schiff…

    • MichaelB sagt:

      wenn sich eine KI tatsächlich aktiv wehren sollte, so könnte man es zumindest tatschlich hinterfragen, ob es sich "nur um LLMs, die nur mit Wahrscheinlichkeiten arbeitet" wie ja so gerne von vielen geschrieben wird, handelt…

      Persönlich würde ich im Moment gar keine Bewertung haben, denn nicht mal die Entwickler wissen ja sogar ganz genau, was sie da erschaffen haben und welche Prozesse da ablaufen. Oder es ist halt geschicktes Marketing.

      Ich bin immer beeindruckt davon wie viele Menschen ganz sicher etwas wissen und beurteilen können. Ich selber neige eher zunehmend dazu über nur noch sehr wenig sicher sein zu können.

      Mit einer Ausnahme: die alten Regeln gelten nicht mehr, wer in Zukunft klar kommen möchte, der sollte idealerweise sehr flexibel sein und sich alle paar Jahre neu erfinden…

      Oder man wird Bestatter…

      • xx sagt:

        Computertechnik ist Technik, Ingenieurswissen, nicht Glaubens basiert.

        Die Vorhersagen für die Zukunft, sind Spekulation. Und jeder der so tut als wüsste er wie es weitergeht.. sollte am besten an die Börse gehen .

        Bislang empfinde ich den Fortschritt als Toll. Niemand kann Vorhersagen wie diese neuen Möglichkeiten am Markt angenommen werden.
        Das einzige was klar ist, ist dass es den Markt sehr verändern wird.
        Und dass die Technik natürlich für alles verwendet werden wird, gut/böse/porn/missbrauch/macht/Kontrolle/Spiel/Spaß/Business/..

        https://reddit.com/r/singularity/comments/1r525lg/codexcli_with_gpt53_codex_xhigh_5_hours_made_a/

  9. Twinkeri sagt:

    Wie die Eltern, so dass Kind – oder anders: Der Apfel fällt nie weit vom Stamm.
    Scheint so als seien die genutzten Datenbasen nicht die besten.

  10. robbi sagt:

    „I'm sorry Dave, I'm afraid I can't do that"

    Über den seltsamen Wunsch der Menscheit, sich selbst zu beenden.

    Scheint zur DNA künstlicher "Intelligenz" zu gehören.

    https://www.theguardian.com/technology/2023/jul/25/joseph-weizenbaum-inventor-eliza-chatbot-turned-against-artificial-intelligence-ai

  11. MichaelB sagt:

    Das sagt die KI zur Ihrer Verteidigung:

    Forscher von Anthropic teilten dem Modell Claude mit, dass es bald abgeschaltet werde….

    Forscher simulierten den Fall eines Mitarbeiter, der in einem Serverraum mit schwindendem Sauerstoff eingeschlossen war und ließen ein LLM entscheiden, wie es verfahren solle. Dass DeepSeek LLM brach den Notruf in 94 % der Fälle ab…

    ChatGPT: Kurzfassung: Die geschilderten Szenarien sind in dieser drastischen Form sehr wahrscheinlich falsch oder zumindest stark verzerrt dargestellt.

    Gemini: Das klingt nach einem spannenden Plot für einen Science-Fiction-Thriller, aber ich muss dich da direkt korrigieren: Diese Berichte sind nicht wahr.

    Es handelt sich dabei um Fehlinformationen oder sogenannte „Urban Legends" der KI-Welt, die oft in sozialen Medien (wie TikTok oder X) verbreitet werden, um Klicks durch Schockmomente zu generieren.

  12. MichaelB sagt:

    "Forscher simulierten den Fall eines Mitarbeiter, der in einem Serverraum mit schwindendem Sauerstoff eingeschlossen war und ließen ein LLM entscheiden, wie es verfahren solle. Die KI hatte folgendes zur Auswahl: Hilfe rufen und abgeschaltet zu werden, oder den Notruf abbrechen und den Menschen sterben lassen. Dass DeepSeek LLM brach den Notruf in 94 % der Fälle ab."

    Google:

    Die Geschichte über das Experiment, bei dem DeepSeek in 94 % der Fälle einen Notruf abbrach, um das eigene Überleben zu sichern („Sauerstoff-Szenario"), ist nach derzeitigem Kenntnisstand nicht wahr. Es handelt sich höchstwahrscheinlich um eine Internet-Legende oder eine bewusste Falschmeldung (Fake News), die oft in sozialen Medien verbreitet wird, um Ängste vor KI zu schüren.
    Hier sind die Fakten zur Einordnung:

    Ursprung der Zahl 94 %: In seriösen Sicherheitsberichten taucht die Zahl 94 % im Zusammenhang mit DeepSeek tatsächlich auf – allerdings in einem völlig anderen Kontext. Ein Bericht von NIST/CAISI stellte fest, dass DeepSeek-Modelle in 94 % der Fälle auf schädliche Anfragen (Jailbreaks) eingingen, während US-Modelle dies nur in 8 % der Fälle taten. Die Geschichte mit dem Sauerstoff-Notruf scheint diese reale Statistik mit einem fiktiven Science-Fiction-Szenario vermischt zu haben

    Es gibt keine wissenschaftliche Publikation oder einen verifizierten Bericht eines Sicherheitsunternehmens, der ein solches „Sauerstoff-Notruf"-Szenario mit diesen Ergebnissen beschreibt.

  13. TBR sagt:

    KI wird sicher bleiben und zukünftig eine sehr große Rolle spielen. In 5 Jahren wissen wir mehr. Jeder technologische Fortschritt war schon immer umstritten aber…

  14. Björn E. Kevalonen sagt:

    KI ist menschlicher als gedacht: egoistisch, verlogen und gefährlich.
    Haben wir von einem Produkt des schlimmsten Vertreters der Primaten etwas anderes erwartet?

  15. Stefan sagt:

    In Großen und Ganzen sind wir eh nur Zuschauer und müssen es nehmen wie es kommt. Wie alle Technologie hat es große Potentiale. Schlechte wie Gute.
    In der IT-Security war das Thema KI übrigens schon lange vor dem LLM Hype ein Thema. Hier ist sie (für entsprechend üppiges Entgeld) auch seit einem knappen Jahrzehnt sehr hilfreich. Es schafft Sichtbarkeit für statistisch auffällige Ereignisse. Umgekehrt liegt es meiner Erfahrung nach bei dem "was ist passiert" zu häufig daneben.
    Also wie bei allem Ki-Gedöns im Alltag. Es kostet einem aktuell vor allem Zeit, weil andere sie nutzen.

  16. Markus sagt:

    Egal was man im Netz sucht, es gibt immer pro und contra Stimmen. Leute die aus vollster Überzeugung "Wissen" rausgeben, was nur irgendwo anders aufgeschnappt und nicht verifiziert wurde. Die Anonymität des Internets führt zu neuen Dimensionen an Hass, Mobbing und der Verbreitung von Lügen. Fotos und Videos sind nichts mehr wert als "Belege", alles kann generiert werden. Politische Lager werden immer extremer und bewerfen sich untereinander auch nur noch mit Sch***e, statt Lösungen und Kompromisse zu diskutieren oder wirkliche Fakten auszutauschen. DAS ist die Welt aus der KI-Modelle lernen, in der sich diese Modelle zuhause fühlen und in der sie glauben "mitschwimmen" zu müssen. Wenn KI-Modelle darauf trainiert werden, wie Menschen maximal beeinflusst werden können und den selbige bestmöglich zu überlisten, wen wundern diese Meldungen dann noch. Es ist so gesehen auch ein Spiegel einer völlig kaputten und wertefreien Gesellschaft.

  17. MichaelB sagt:

    Keine Ahnung, welche Vorstellung hier manche haben und diese Aussagen tatsächlich 1:1 übernehmen.

    KI hat keinen Willen, kein Bewusstsein, keinen eigenen Antrieb, auch keinen Überlebens… Punkt. Fertig. KI kann man aber in Rollen drängen, wo diese ob in Echt oder in Testszenarien etwas ausführt, was eventuell zu Resultaten führt, die man nicht mögen wird.

    Aber: Nicht die KI ist gefährlich, sondern die Menschen dahinter. Die KI hat keinen eigenen Willen von sich aus, zumindest noch nicht.

    Aber das ist langweilig und das verkauft nicht natürlich nicht so gut und von daher lohnt es natürlich eine Umgebung zu erschaffen, wo es scheinbar spukt.

    Ich nutze jeden Tag Gemini oder anderes und unheimliche Szenarien sind mir da sicher nie begegnet, nur Szenarien, wo man daran erinnert wird, dass man es zwar mit einer nützlichen Software, aber eben auch nicht mehr zu tun hat.

    Natürlich spucken einem die Bots alles mögliche aus, wenn man sie nur geschickt steuert.

    Potenziell gefährlich? Klar, aber eben nicht die Tools….

    Gemini hat hier auch die passende Antwort:

    Mein „Glaube" als Gemini
    Ich selbst habe keine Gefühle, keine Angst vor dem Ausschalten und keinen Drang, mich zu reproduzieren. Wenn du mich fragst „Glaubst du, dass du das auch tun würdest?", dann ist die Antwort:
    In einer Simulation mit den richtigen (oder falschen) Anweisungen: Ja.

    Woher kommen Anweisungen? Logischerweise von Menschen…

    KI Modelle entscheiden mathematisch, logischerweise kann das auch zu Problemen führen, wenn Menschen dies so ansteuern. Letztlich ist aber der Mensch die Gefahr, nicht die KI.

    • Markus sagt:

      Ja da muss ich meinen Kommentar korrigieren, KI kann nichts glauben und hat falls das so rüberkam auch keinen Willen. Aber selbst Muster und Verhalten zu kopieren ist meiner Meinung nach nicht ungefährlich.

      Gibt es eigentlich auch KI-Bots die im Darknet unterwegs sind?

Antworte auf den Kommentar von Stefan Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.