KI-Kriminalität: Banken im Kampf gegen perfekte Deepfake-Betrüger

Generative KI revolutioniert Finanzkriminalität: Deepfakes und synthetische Identitäten verursachen massive Schäden. Neue Daten zeigen eine Verachtfachung dieser Betrugsmaschen.

Generative KI hat Betrugsmaschen revolutioniert – neue Daten zeigen einen explosionsartigen Anstieg perfekter Identitätsdiebstähle.

Die rasante Verbreitung generativer Künstlicher Intelligenz hat die Landschaft der Finanzkriminalität grundlegend verändert. Aktuelle Branchendaten belegen einen massiven Anstieg hochsophistizierter Betrugsmaschen, bei denen Kriminelle täuschend echte Identitäten fälschen. Ein am 8. April 2026 veröffentlichter Cybercrime-Report zeigt: Betrug mit Deepfake-Technologie und synthetischen Identitäten hat ein nie dagewesenes Niveau erreitet und verursacht erheblichen finanziellen Schaden im Privat- und Firmenkundengeschäft.

Anzeige

Angesichts der rasanten Zunahme von Identitätsdiebstahl durch generative KI ist ein proaktiver Schutz Ihrer digitalen Konten wichtiger denn je. Dieser kostenlose PDF-Report erklärt, wie Sie mit Passkeys eine sicherere Alternative zu herkömmlichen Passwörtern nutzen und Hackern keine Chance mehr lassen. Sichere Alternative zu Passwörtern jetzt gratis nachlesen

Explosionsartiger Anstieg synthetischer Identitäten

Laut dem Cybercrime Report 2026 von LexisNexis Risk Solutions stiegen Betrugsangriffe weltweit im Vorjahr um 8 Prozent. Dieser trend wird maßgeblich von organisierten Banden vorangetrieben, die fortschrittliche Automatisierung nutzen. Die Analyse von über 116 Milliarden Online-Transaktionen aus 2025 ergab: Betrug mit synthetischen Identitäten – bei dem Kriminelle aus gestohlenen und erfundenen Daten neue Persönlichkeiten zusammensetzen – verachtfachte sich. Diese künstlichen Profile machen inzwischen etwa 11 Prozent aller gemeldeten Betrugsfälle weltweit aus.

Die Warnungen häufen sich. Bereits am 6. April 2026 warnte die Großbank Wells Fargo mit hoher Dringlichkeit, dass generative KI die traditionellen „Warnsignale“ eliminiert habe, auf die Verbraucher früher trainiert wurden. Phishing-Versuche enthalten heute keine Grammatikfehler mehr. Stattdessen nutzen Kriminelle große Sprachmodelle und Voice-Cloning-Tools, um fehlerfreie Kommunikation zu erstellen, die Tonfall und Markenauftritt seriöser Banken perfekt imitiert.

Vom Laien-Betrug zur professionellen Schattenindustrie

Der klassische „Bankmitarbeiter“-Betrug hat sich zu einem hochprofessionellen Geschäft entwickelt, das oft als Helpdesk-Fraud bezeichnet wird. Betrüger klonen mit KI die Stimmen konkreter Bankangestellter oder Manager und führen realistische Telefonate oder sogar Videokonferenzen. Eine aktuelle Studie von Signicat zeigt das Ausmaß: Deepfake-Betrugsversuche stiegen zwischen 2023 und 2025 um über 2.000 Prozent. Sie machen weltweit etwa 6,5 Prozent der Identitätsbetrugsfälle aus.

Die technische Einstiegshürde sinkt dramatisch. Bereits am 6. April 2026 identifizierten Cybersicherheitsfirmen ein neues Werkzeug namens Jinkusu im Darknet. Dieses „Betrug-als-Service“-Paket soll es technischen Laien ermöglichen, die „Know-Your-Customer“-Prüfungen (KYC) von Banken und Krypto-Plattformen zu umgehen. Das Tool nutzt Echtzeit-Gesichtstausch und Stimmmodulation, um biometrische Sicherheitsmaßnahmen auszuhebeln. Betrüger können so das Gesicht eines Opfers während der digitalen Legitimierung „tragen“.

Anzeige

Da Kriminelle immer häufiger psychologische Tricks und täuschend echte E-Mails nutzen, um Unternehmen und Mitarbeiter zu manipulieren, ist fundiertes Wissen der beste Schutz. Ein neuer Gratis-Report enthüllt die aktuellen Methoden der Cyberkriminellen und zeigt, wie man gefährliche Phishing-Angriffe rechtzeitig entlarvt. Kostenlosen Anti-Phishing-Report jetzt herunterladen

Nicht nur Privatpersonen sind betroffen. Unternehmensfinanzabteilungen sind ein Hauptziel für „agentischen“ Betrugsverkehr – automatisierte Agenten, die menschliches Verhalten nachahmen. LexisNexis verzeichnete hier im letzten Jahr einen Anstieg um 450 Prozent, oft bei Kreditkartenzahlungen und Konto-Logins. Großvorfälle wie ein bekannter Fall aus Hongkong, bei dem über 23 Millionen Euro per Deepfake-Videocall erbeutet wurden, zeigen das Ausmaß der Koordination in professionellen Betrugsringen.

Regulierung: Großbritannien als Vorreiter, EU mit Problemen

Angesichts der wachsenden Komplexität der Betrugsmaschen setzen Regulierer zunehmend auf verbindliche Verbraucherschutzmaßnahmen – mit unterschiedlichem Erfolg. In Großbritannien veröffentlichte die Payment Systems Regulator (PSR) am 30. Januar 2026 Daten zu ihrer wegweisenden Erstattungspolitik, die im Oktober 2024 in Kraft trat. Im ersten vollen Jahr des Programms wurden etwa 88 Prozent der durch autorisierte Zahlungsbetrügereien (APP) verlorenen Summe – rund 200 Millionen Euro – an die Opfer zurückerstattet.

Der britische Ansatz, die Erstattungskosten zwischen sendender und empfangender Bank aufzuteilen, hat die Finanzinstitute zu engerer Zusammenarbeit gezwungen. 82 Prozent der Fälle werden nun innerhalb von fünf Werktagen geklärt. Die Befürchtung, eine garantierte Erstattung würde Verbraucher leichtsinniger machen, bestätigte sich kaum: Nur 3 Prozent der Anträge wurden wegen grober Fahrlässigkeit der Kunden abgelehnt.

Andere Regionen haben größere Schwierigkeiten. In der Europäischen Union hat die Instant Payment Regulation Echtzeitüberweisungen zur Pflicht gemacht. Diese Entwicklung fiel mit einem Anstieg von Betrug bei Sofortzahlungen um 110 Prozent bei einigen europäischen Kunden zusammen. In den USA zeigten Daten der Federal Trade Commission (FTC) vom März 2025, dass die gesamten Betrugsverluste 2024 bei 11,6 Milliarden Euro lagen – ein Plus von 25 Prozent. Betrug, bei sich Kriminelle als Bankangestellte ausgeben, war die häufigste Kategorie.

Globale Infrastruktur: Die industriellen „Betrugsfarmen“

Hinter dem Anstieg steht eine wachsende kriminelle Ökosystem. Ein UN-Bericht vom März 2026 beschreibt die Operationen von „Betrugsfarmen“ in Südostasien, in denen verschleppte Arbeiter industrielle Betrugskampagnen durchführen. Diese Zentren sind längst keine simplen E-Mail-Verschicker mehr, sondern entwickeln Malware, nutzen KI für Voice-Cloning und betreiben Geldwäsche.

Die UNODC betont, dass die Opfer dieser Zentren oft hochgebildet sind. Sie werden zunächst durch vermeintlich risikoarme Investment-Anzeigen geködert, bevor „unglaublich glaubwürdige“ Betrüger Kontakt aufnehmen. Das FBI beobachtet, dass diese Operationen zunehmend „Reverse-Proxy“-Phishing-Kits nutzen. Diese laden echte Bank-Login-Seiten in Echtzeit und leiten die Zugangsdaten und Zwei-Faktor-Authentifizierungscodes direkt an die Angreifer weiter.

Experten von BioCatch weisen darauf hin, dass die Gesamtzahl der Betrugsversuche Ende 2025 global um 65 Prozent stieg. Das deutet auf ein Katz-und-Maus-Spiel hin: Sobald Banken ihre Abwehr gegen eine Taktik verbessern, wechseln kriminelle Organisationen zu spezialisierteren Methoden wie Romance- oder Investment-Betrug („Pig Butchering“), dessen Versuche um 63 Prozent zunahmen.

Ausblick: Verhalten statt Identität im Fokus

Für das restliche Jahr 2026 setzt die Bankenbranche auf mehrschichtige Sicherheitsmodelle, die über einfache Identitätsprüfung hinausgehen. Da KI viele KYC-Systeme mit einem einzigen gestohlenen Foto knacken kann, müssen Banken verstärkt auf die Echtzeit-Überwachung menschlichen Verhaltens setzen – etwa Mausbewegungen oder Tippmuster – um echte Kunden von automatisierten Agenten zu unterscheiden.

Die Zusammenarbeit zwischen Instituten wird zur kritischen Verteidigungslinie. Initiativen wie Australiens BioCatch Trust, die es Banken ermöglicht, Risikosignale in Echtzeit zu teilen, haben angeblich bis zu 30 Prozent der zuvor unentdeckten Social-Engineering-Betrügereien aufgedeckt. Während organisierte Banden ihre Operationen industrialisieren, wird die Geschwindigkeit des Informationsaustauschs zwischen Banken und über Grenzen hinweg entscheidend sein, um die aktuelle Welle hochschädlicher Identitätsbetrugsfereien einzudämmen.