KI-Betrug im Netz – Nur ein Fünftel überprüft die Quelle

Sicherheit (Pexels, allgemeine Nutzung)Das Bundesamt für Sicherheit in der Informationstechnik (BSI) stellt den deutschen Internetnutzern ein schlechtes Zeugnis im Bezug auf das Hinterfragen von KI-Ergebnissen im Internet aus. Nur eine Minderheit überprüfe Bilder auf Unstimmigkeiten oder versuche eine Quelle für Aussagen im Internet zu finden. Daher ist die Masse der Nutzer anfällig für KI-Betrug.

Fast die Hälfte der Internetnutzerinnen und -nutzer in Deutschland fühlt sich zwar in der Lage, KI-generierte Inhalte zu erkennen. Bei mehr als der Hälfte (59 %) der den  Cybersicherheitsmonitor Befragten sind im Internet schon KI-generierten Bilder oder Videos begegnet. Weitere 17 Prozent hatten zumindest schon einmal den Verdacht, dass ein Inhalt KI-generiert sein könnte. Ungefähr die Hälfte geht davon aus, KI-generierte Bilder und Videos als solche erkennen zu können (47 %). Das Problem: Tatsächlich schaut jedoch kaum jemand genauer hin, ob Bilder oder Videos im Internet KI-Fake sein können. Nur eine Minderheit hat schon einmal etwa nach Unstimmigkeiten im Bild gesucht oder die Quelle überprüft (28 bzw. 19%).

BSI-Cybersicherheits-Monitor

Der Cybersicherheitsmonitor des Bundesamts für Sicherheit in der Informationstechnik (BSI) und des Programms Polizeiliche Kriminalprävention der Länder und des Bundes (ProPK) zeigt, wie hoch das Risiko ist, Opfer digitaler Betrugsmaschen zu werden.

BSI-Präsidentin Claudia Plattner: "KI-generierte Inhalte sind längst im Alltag von Verbraucherinnen und Verbrauchern angekommen. Um Risiken und Falschinformationen zu identifizieren, ist es daher unverzichtbar, zu erkennen, welche Inhalte, Beiträge und Darstellungen in der Online-Welt KI-generiert sind. Hier setzt der Verbraucherschutz des BSI an: Wir bieten Orientierung und sensibilisieren dafür, was mit KI möglich ist, wie KI-generierte Inhalte erkannt und welche Maßnahmen ergriffen werden können."

Dr. Stefanie Hinz, Landespolizeipräsidentin und Vorsitzende des ProPK: "Eine Straftat, die wir im Polizeialltag aktuell häufig beobachten, ist der sogenannte Cybertrading-Fraud. Dabei versprechen Kriminelle schnelle Gewinne und hohe Rendite beim Online-Trading. Oft erstellen sie hierfür mithilfe von KI Videos, in denen Prominente für lukrative Anlagemöglichkeiten zu werben scheinen. Wer im Internet auf solche Anlagemöglichkeiten stößt, sollte im ersten Schritt überlegen, ob das Angebot überhaupt realistisch ist – oder zu gut, um wahr zu sein."

  • Im Cybersicherheitsmonitor hat rund ein Drittel der Befragten noch keine einzige der gängigen Maßnahmen zur Erkennung von KI-generierten Inhalten ergriffen (32%).
  • Immerhin 40 Prozent hätten zumindest schon einmal überlegt, ob eine dargestellte Szene realistisch ist.
  • Nur 28 Prozent haben nach Unstimmigkeiten, etwa fehlerhaften Schatten oder Gliedmaßen, gesucht. 19 Prozent haben zudem die Seriosität der jeweiligen Quelle recherchiert.

Auch das Wissen rund um mögliche Betrugsszenarien ist bei deutschen Verbrauchern wohl gering:

  • Nur 38 Prozent halten es für möglich, dass Cyberkriminelle zum Beispiel ein KI-Programm manipulieren, damit dieses sensible Daten weitergibt.
  • Auch dass Kriminelle unsichtbare Anweisungen für KI-Systeme in Dokumente einfügen, halten nur 40 Prozent für denkbar.

Tatsächlich sind beide Szenarien technisch möglich, schreibt das BSI und attestiert den Deutschen sozusagen eine KI-Analphabetentum.

Auf den Websites von BSI und ProPK finden sich außerdem der Studienbericht zum Fokusthema „Online-Betrug & Künstliche Intelligenz" des Cybersicherheitsmonitors 2026 sowie die Ergebnispräsentation. Am 11. Mai 2026 folgt die Veröffentlichung der Ergebnisse der Hauptbefragung, die sich mit der Betroffenheit und dem Schutzverhalten der Bevölkerung beschäftigt. Der Cybersicherheitsmonitor ist ein bereits seit 2019 bestehendes Kooperationsprojekt von BSI und ProPK.

Dieser Beitrag wurde unter AI, Internet, Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen für den Permalink.

4 Kommentare zu KI-Betrug im Netz – Nur ein Fünftel überprüft die Quelle

  1. Anonym sagt:

    Würde eher sagen, maximal 5% denken überhaupt nach, vielleicht da irgendetwas zu prüfen oder wenigstens generell zu hinterfragen, maximal. Medial wurde der LLM Müll ja als geniale KI verkauft, das hat leider bei vielen geklappt…

    • Carl Breen sagt:

      Sehe ich auch so. Letztens jemanden erlebt der sein Smartphone rauszog, KI befragt hat und dann einfach die von der KI bestätigte Filterblase wiederholt hat.

      "Nein du!" as a Service (NdaaS).

      Die Stammleserschaft hier wird es kennen wie schnell man KI zum Lügen und zu Zirkelschlüssen bringt. In einem Punkt finde ich KI allerdings sehr menschlich:

      Oft hängt sich die KI an einem Teilargument auf und ignoriert den Rest der Kausalkette.

  2. Joerg sagt:

    Ist jetzt nicht verwunderlich, dass die Antwort einer KI nicht hinterfragt wird, dass machen die meisten auch nicht, wenn es um Posts auf Social-Media Seiten geht.

    Für die meisten ist das auch nur ein besseres Google inkl. Bildgenerator.

  3. Luzifer sagt:

    Ist halt bequemer als selbst zu denken. Wehe du führst ihnen das aber vor Augen…

Antworte auf den Kommentar von Anonym Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.