Künstliche Intelligenz revolutioniert Betrugsmethoden: Eine nuova Welle KI-gestützter Täuschung überschattet Online-Partnersuche und Finanztransaktionen. Eine Mehrheit der Erwachsenen fürchtet mittlerweile, dass ihre Stimme oder ihr Gesicht von Kriminellen geklont werden könnte.
Das zeigt ein aktueller Bericht der britischen Barclays Bank. Anlässlich des Valentinstags veröffentlichte Daten belegen eine wachsende Skepsis gegenüber Online-Dating. KI-gesteuerte Romance-Scams werden alarmierend ausgeklügelt und sind kaum noch zu erkennen. Zwei Drittel (66 Prozent) der britischen Erwachsenen glauben, dass KI-Technologie Romance-Betrug schwerer identifizierbar macht. Die Sorge ist so groß, dass 53 Prozent der Menschen befürchten, Betrüger könnten ihre persönliche Ähnlichkeit oder Stimme zur Täuschung nutzen.
Diese Bedrohung ist keine hypothetische Angst. Barclays-Daten aus 2025 zeigten, dass Opfer von Romance-Scams im Durchschnitt 8.200 Euro verloren. Die Erkenntnisse unterstreichen eine neue, düstere Realität in der Cybersicherheit. Zugängliche KI-Tools bewaffnen Betrüger mit der Fähigkeit, hyperrealistische Fake-Profile, Bilder und sogar geklonte Stimmen zu erstellen.
Gen Z kehrt dem Online-Dating den Rücken
Die Raffinesse dieser neuen Betrugsmethoden verändert das Verhalten, besonders bei jüngeren, technikaffinen Generationen. Laut dem Barclays-Bericht gibt etwa die Hälfte (48 Prozent) der alleinstehenden Gen Z an, dass Bedenken wegen KI-Betrug ihre Herangehensweise an Online-Dating verändert hat. Dieser Wert ist fast doppelt so hoch wie der nationale Durchschnitt.
Die Folge ist eine Rückkehr zu traditionelleren Methoden. 56 Prozent der alleinstehenden Gen Z priorisieren nun das persönliche Kennenlernen eines potenziellen Partners. Experten weisen darauf hin, dass KI es Betrügern ermöglicht, ein langfristiges Spiel zu spielen. Sie bauen durchschnittlich sieben Monate lang Vertrauen auf, bevor sie überhaupt nach Geld fragen.
Generative KI kann einwandfreie, überzeugende Textkonversationen erstellen. Deepfake-Technologien produzieren gefälschte Bilder und Videos, um eine Identität zu „beweisen“. Vier von fünf Erwachsenen (78 Prozent) sagen mittlerweile, KI mache Betrug generell schwerer zu erkennen. Viele räumen ein, nicht sicher zu sein, KI-generierte Stimmenklone oder Deepfake-Videos identifizieren zu können. Diese Erosion des Vertrauens ist eine enorme Herausforderung für die Online-Dating-Landschaft, in der Authentizität oberste Priorität hat.
Stimmenklon-Betrug erreicht das Bankkonto
Der Einsatz KI-geklonter Stimmen für kriminelle Zwecke hat längst die Liebe hinter sich gelassen. Er dringt nun direkt in den finanziellen Diebstahl vor. Am 11. Februar 2026 warnte die britische National Trading Standards dringend vor einer organisierten kriminellen Operation. Diese nutzt KI, um Stimmen zu klonen und damit betrügerische Lastschriften zu autorisieren.
Das Schema beginnt oft mit einem scheinbar harmlosen Telefonanruf zu einer „Lifestyle-Umfrage“. Während des Gesprächs sammeln die Kriminellen persönliche Daten und eine Sprachprobe des Opfers. Diese Informationen werden dann genutzt, um einen KI-generierten Stimmenklon zu erstellen. Dieser kann überzeugend die Zustimmung zur Einrichtung von Zahlungen bei Banken und anderen Unternehmen simulieren – häufig ohne Wissen des Opfers.
Dieser Doppelschlag aus Datenernte und anschließender Voice-Deepfälschung stellt eine bedeutende Weiterentwicklung gegenüber traditionellen Phishing-Anrufen dar. Er täuscht nicht nur Einzelpersonen, sondern auch die legitimen Systeme, die Betrug verhindern sollen.
Wer sich gegen KI-gestützte Stimmenklone, Deepfakes und Phishing schützen möchte, findet praktische Hilfe im kostenlosen E-Book „Cyber Security Awareness Trends“. Der Report erklärt aktuelle Angriffsmethoden (auch KI-Deepfakes), einfache Sofortmaßnahmen für Privatpersonen und Unternehmen sowie welche rechtlichen Vorgaben jetzt wichtig sind. Jetzt kostenlosen Cyber-Security-Report herunterladen
Globale Bedrohung mit niedrigen Einstiegshürden
Die Einstiegshürde für die Erstellung überzeugender Deepfakes ist dramatisch gesunken. Diese Tools sind nun für ein breiteres Spektrum von Kriminellen zugänglich. Laut einem Bericht von CBS News vom 13. Februar 2026 bedeuten Fortschritte in generativer KI, dass Betrüger Deepfake-Audio mit nur wenigen Sekunden echter Stimme einer Person erstellen können. Diese wird oft aus Videos in sozialen Medien bezogen.
Diese technologische Leichtigkeit befeuert ein globales kriminelles Unterfangen. Beamte von Interpol stellten fest, dass KI die Effizienz von Betrugszentren dramatisch steigert. Sie können die Erstellung realistischer Profile automatisieren und anspruchsvolle Stimmen- und Video-Imitationen betreiben. Das Problem ist so allgegenwärtig, dass Strafverfolgungsbehörden weltweit – einschließlich der philippinischen Nationalpolizei – im Vorfeld des Valentinstags vor dem verstärkten Einsatz von Deepfake-Videoanrufen in Romance-Scams warnten.
Das Ausmaß KI-gestützten Betrugs wird voraussichtlich explodieren. Eine Schätzung von Deloitte sagt voraus, dass generative KI bis 2027 zu Betrugsverlusten von rund 37 Milliarden Euro allein in den USA führen könnte.
Digitale Skepsis wird zur neuen Überlebensstrategie
Während sich KI-Tools weiterentwickeln, wird die Unterscheidung zwischen echtem und gefälschtem digitalem Inhalt zunehmend verschwimmen. Diese Realität erfordert einen grundlegenden Wandel im Umgang mit Online-Interaktionen – für Privatpersonen und Unternehmen gleichermaßen.
Cybersicherheitsexperten sehen eine gesunde Portion Skepsis als erste Verteidigungslinie. Die Verifizierung von Identitäten über Kanäle, die nicht der ursprünglichen Gesprächsquelle entsprechen, wird kritisch. Für Privatpersonen gilt der Rat, jeden Online-Bekanntschaft, der nach Geld fragt, mit Vorsicht zu behandeln und niemals auf verdächtige Links zu klicken.
Ein wachsender Trend ist die Einrichtung eines geheimen „Codeworts“ innerhalb von Familien. Dieses kann genutzt werden, um die Identität eines Angehörigen während eines panischen Anrufs zu verifizieren. So lassen sich KI-Stimmenklone vereiteln, die zwar Verzweiflung imitieren, aber kein geheimes Wissen preisgeben können.
Behörden empfehlen, verdächtige SMS an Dienste wie 7726 zu melden und Phishing-E-Mails an offizielle Stellen wie report@phishing.gov.uk weiterzuleiten. Letztlich signalisiert der Aufstieg KI-gesteuerter Phishing- und Deepfake-Betrugsrigen ein Wettrüsten. Öffentliches Bewusstsein und robuste, mehrschichtige Sicherheitsmaßnahmen sind unerlässlich, um mit immer raffinierteren digitalen Bedrohungen Schritt zu halten.





