KI macht aus Liebesbetrug ein Massengeschäft

Sicherheitsexperten warnen vor einer neuen Welle hochindustrialisierter Betrugsmaschen, bei denen KI Deepfake-Videoanrufe und automatisierte Chats für emotionale und finanzielle Ausbeutung nutzt.

2026 markiert den Beginn einer dunklen Ära für Online-Romantik. Cybersicherheitsexperten warnen eindringlich davor, dass Kriminelle Künstliche Intelligenz industrialisiert einsetzen, um Opfer in nie dagewesenem Ausmaß finanziell und emotional zu ruinieren. Tiefgreifende Analysen zeigen: Überzeugende Deepfake-Videos und automatisierte Chatbots machen Betrug fast unmöglich erkennbar und entkräften langjährige Sicherheitsratschläge.

Die Warnungen mehrerer Behörden und Sicherheitsunternehmen häufen sich pünktlich zum Valentinstag, an dem romance-bezogene Betrugsfälle traditionell zunehmen. Ein Bericht des Cybersicherheitsunternehmens Tenable vom 11. Februar 2026 beschreibt einen fundamentalen Wandel: Von kleinteiligen Manövern sind Betrüger zu hochorganisierten, callcenter-ähnlichen Operationen übergegangen. Sie nutzen KI, um klassische Warnsignale wie holprige Grammatik zu eliminieren und gleichzeitig zahlreiche glaubwürdige Gespräche zu führen. Diese technologische Aufrüstung wird auch vom FBI und dem American Bankers Association bestätigt, die vor immer personalisierteren und manipulativeren Betrugsmaschen in diesem Jahr warnen.

Die Industrialisierung der Täuschung

Das Herzstück der neuen Bedrohung liegt in der leichten Verfügbarkeit leistungsstarker KI-Modelle. Laut Satnam Narang, Senior Staff Research Engineer bei Tenable, gehören kostenlose und kostenpflichtige KI-Systeme inzwischen zur Standardausrüstung von Betrügern. Sie generieren flüssige, emotional aufgeladene Nachrichten und halten über Wochen oder Monate konsistente Erzählungen aufrecht. Diese Automatisierung beschleunigt die „Anbahnungsphase“, die historisch der zeitaufwändigste Teil eines Romance-Scams war.

Eine Studie von McAfee vom 10. Februar 2026 untermauert diesen Trend: Jeder vierte US-Amerikaner ist bereits auf ein Fake-Profil oder einen KI-generierten Bot auf Dating-Plattformen gestoßen. Die Analyse zeigt, dass KI-gesteuerte Bots potenzielle Opfer mit fehlerfreien, sofortigen Antworten ködern – manchmal über 60 Nachrichten in nur zwölf Stunden, selbst an Profile ohne Bild. Diese Fähigkeit zum massenhaften, personalisierten Ansprechen ermöglicht kriminellen Gruppen eine beispiellose Effizienz.

Das Ende der Video-Verifikation

Die alarmierendste Entwicklung ist der Einsatz von Deepfake-Technologie, um eine der gängigsten Sicherheitsmaßnahmen zu umgehen: den Videoanruf. Jahrelang rieten Experten zu Live-Videochats, um die Identität einer Online-Bekanntschaft zu prüfen. Neue Berichte zeigen nun, dass Betrügerorganisationen spezielle „KI-Räume“ unterhalten. Dort kommt Echtzeit-Gesichtstausch-Technologie während Videoanrufen zum Einsatz.

Diese Software kann den Videostream abfangen und das Gesicht des Betrügers mit einem gefälschten überlagern. Die Täuschung wird so extrem schwer zu erkennen. Deepfake-Anrufe machen den Ratschlag zunichte, jemanden live vor der Kamera zu sehen. Visuelle Artefakte oder Störungen schieben die Betrüger auf schlechte Beleuchtung oder Internetverbindung. Das FBI-Büro in Norfolk warnte am 9. Februar 2026 ausdrücklich vor dieser Methode. Visuelle Bestätigung allein ist damit kein verlässlicher Schutz mehr.

Die Verschmelzung mit Investmentbetrug

Die Entwicklung dieser Betrugsmaschen schließt heute häufig den Übergang zu Investmentbetrug ein – ein Schema, das oft als „Romance Baiting“ oder „Pig Butchering“ bezeichnet wird. Der Betrüger baut ein tiefes emotionales Vertrauensverhältnis auf, bevor er eine betrügerische Investitionsmöglichkeit, häufig mit Kryptowährungen, ins Spiel bringt.

Gefälschte Screenshots von Gewinnen oder die Lenkung auf sophistierte, aber falsche Trading-Plattformen simulieren Erfolge und locken zu immer höheren Investitionen. Diese Kombination aus emotionaler Manipulation und finanzieller Täuschung ist für Kriminelle extrem profitabel. Während Romance-Scams selbst erheblichen Schaden anrichten, dienen sie zunehmend als Einstieg für weit größere Investment-Betrügereien. Die gemeldeten Verluste aus Investmentbetrug erreichten 2024 bereits 5,7 Milliarden US-Dollar – eine Zahl, die aufgrund hoher Dunkelziffer weit höher liegen dürfte.

Skepsis als neue Überlebensstrategie

Die koordinierten Warnungen unterstreichen die Dringlichkeit der Bedrohung. Die American Bankers Association betonte, KI befeuere eine neue Betrugswelle, die durch die Analyse von Social-Media-Daten viel personalisierter sei. Die subtilen Alarmglocken, die Menschen früher schützten – wie gestelzte Sprache oder verdächtige Fotos –, werden systematisch ausgeschaltet.

Die Ära, in der man Betrüger leicht erkennen konnte, ist vorbei. Experten drängen die Öffentlichkeit zu einem neuen Maß an Skepsis in allen Online-Interaktionen. Das kritischste Warnsignal ist heute jede Bitte um Geld, Geschenkkarten oder Kryptowährung – unabhängig von der emotionalen Vorgeschichte. Selbst ein authentisch wirkender Videoanruf ist nicht mehr narrensicher.

Anzeige

Wer sich vor KI-gestützter Täuschung und ausgeklügelten Romance-Scams schützen möchte, braucht mehr als Skepsis. Das kostenlose E‑Book „Cyber Security Awareness Trends“ erklärt praxisnah, wie Sie Betrugsversuche erkennen, sensible Daten sichern und einfache Schutzmaßnahmen im Alltag und im Unternehmen umsetzen – inklusive Hinweisen zur KI-Regulierung. Jetzt kostenloses Cyber-Security-E‑Book herunterladen

Das FBI rät zur äußersten Vorsicht, Identitäten über mehrere Kanäle zu prüfen und finanzielle Entscheidungen mit online kennengelernten Personen vorher mit vertrauten Freuden oder Familienmitgliedern zu besprechen. Für Technologieplattformen und Finanzinstitute bedeutet diese neue Realität massive Investitionen in intelligentere Betrugserkennung und robustere Verifikationsmethoden, um Verbraucher vor der wachsenden Bedrohung durch KI-gestützte Täuschung zu schützen.