KI-Betrüger perfektionieren den digitalen Enkeltrick

Sicherheitsbehörden warnen vor hochprofessionellen Angriffen mit KI-generierten Stimmen und Videos. Organisierte Banden nutzen die Technologie für maßgeschneiderte Betrugsversuche und Spionage.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt vor einer neuen Welle hochprofessioneller Betrugsangriffe. Kriminelle nutzen KI-gestütztes Stimmenklonen und Deepfakes, um Privatvermögen zu stehlen. Die täuschend echten Fälschungen stellen selbst Sicherheitssysteme vor enorme Herausforderungen.

BSI schlägt Alarm: Der klassische Trick mutiert

Die Sicherheitsbehörden sehen einen Wendepunkt. Organisierte Banden setzen nicht mehr auf breit gestreute Phishing-Mails, sondern auf maßgeschneiderte Angriffe. Ihre Waffe: Künstliche Intelligenz. Mit „Voice Cloning“ und Deepfake-Videos imitieren sie Angehörige oder Geschäftspartner täuschend echt.

Das Ziel ist klar. Die digitalen Doppelgänger sollen Verträge abschließen, Transaktionen autorisieren oder bei Video-Ident-Prüfungen Sicherheitshürden überwinden. Für Laien – und zunehmend auch für automatische Systeme – sind die Fälschungen kaum noch von der Realität zu unterscheiden.

30 Sekunden Audio genügen für den perfekten Anruf

Die Hürden für Kriminelle sinken drastisch. Digitalforensik-Experten wie Dirk Labudde erklären: Bereits ein 30-Sekunden-Audioschnipsel reicht aus, um eine Stimme mittels KI zu klonen. Dieses Material finden Betrüger mühelos in sozialen Netzwerken oder fangen es aus Sprachnachrichten ab.

Die Verbraucherzentrale Sachsen warnte kürzlich vor der „Perfektionierung“ des Enkeltricks. Opfer erhalten Anrufe, in denen die Stimme des vermeintlichen Kindes täuschend echt klingt – inklusive Sprachrhythmus und Emotion. Unter dem Vorwand eines Unfalls oder Haftbefehls werden sie zur sofortigen Geldübergabe gedrängt. Der emotionale Druck macht sie handlungsunfähig.

Deepfakes im Business: Nordkorea täuscht Krypto-Experten

Dass die Technologie auch für komplexe Spionage taugt, zeigt ein aktueller Fall. Die nordkoreanische Hackergruppe UNC1069 nutzte generative KI, um Führungskräfte der Kryptobranche zu täuschen. Sicherheitsforscher von Google Mandiant deckten die Attacke auf.

Die Angreifer inszenierten ein gefälschtes Zoom-Meeting. Sie präsentierten den Opfern ein KI-generiertes Deepfake-Video, das wie ein echter Videoanruf aussah. Unter dem Vorwand technischer Probleme („ClickFix“-Methode) brachten sie die Experten dazu, Schadsoftware zu installieren. Selbst diese technisch versierte Zielgruppe fiel auf die Echtzeit-Fälschung herein.

Neue Masche: Lifestyle-Umfragen fangen Stimmen ein

Ein weiterer Trend schwappt aus Großbritannien herüber. Internationale Behörden wie die „National Trading Standards“ warnen vor scheinbar harmlosen „Lifestyle-Umfragen“ am Telefon. Das eigentliche Ziel der Anrufe ist nicht die Datenerhebung, sondern die Stimmenaufzeichnung.

Die Betrüger provozieren gezielt Antworten wie „Ja“, „Nein“ oder „Ich stimme zu“. Diese sauberen Audio-Schnipsel füttern sie später KI-Systeme. Mit der geklonten Stimme des Opfers genehmigen sie dann telefonisch Lastschriften oder schließen Verträge ab. Eine perfide Masche, die bald auch hierzulande ankommen dürfte.

So schützen Sie sich vor KI-Stimmen

Technische Schutzmaßnahmen allein reichen nicht mehr aus. Das BSI und die Polizei raten dringend zu verhaltensbasierten Strategien:

  • Codewörter vereinbaren: Familien sollten ein geheimes Sicherheitswort festlegen, das bei Notfallanrufen abgefragt wird. Eine KI, die nur die Stimme imitiert, kennt dieses Wort nicht.
  • Immer zurückrufen: Bei jedem dubiosen Anruf – selbst von bekannten Nummern – das Gespräch sofort beenden. Rufen Sie die Person unter der im eigenen Telefonbuch gespeicherten Nummer zurück.
  • „Ja“-Fragen umgehen: Antworten Sie am Telefon nie mit einfachen Ja/Nein-Antworten. Formulieren Sie ganze Sätze, um Betrügern keine sauberen Audiobausteine zu liefern.
Anzeige

Apropos Schutz vor KI-gestützten Stimmen — wer sich schnell und praxisnah gegen solche Angriffe rüsten möchte, findet praktische Hilfe im kostenlosen E‑Book „Cyber Security Awareness Trends“. Der Leitfaden erklärt aktuelle Bedrohungen (inkl. Deepfakes und KI-Angriffe), gibt einfache Schutzmaßnahmen für Privatpersonen und Unternehmen und zeigt, welche Schritte Sie jetzt ohne große Investitionen umsetzen sollten. Jetzt kostenlosen Cyber-Security-Report herunterladen

Experten prognostizieren für 2026 eine weitere Zunahme automatisierter Angriffe. KI-Bots könnten künftig Tausende Anrufe parallel tätigen. Die aktuellen Warnungen zeigen: Die Grenze zwischen digitaler und realer Identität verschwimmt. Die wichtigste Kompetenz im digitalen Alltag wird es sein, das Gegenüber zweifelsfrei zu verifizieren.