KI-Deepfakes: Influencer-Betrug wird zur Systemgefahr

Betrüger nutzen täuschend echte KI-Videos von Influencern, um Anleger in Social-Media-Investmentfallen zu locken. Experten warnen vor der neuen Dimension des organisierten Betrugs.

Künstliche Intelligenz erschafft täuschend echte Promi-Videos, die Anleger um ihre Ersparnisse bringen. Eine neue Betrugswelle nutzt das Vertrauen in Social-Media-Stars aus – mit verheerenden Folgen.

Die Digitalisierung der Kriminalität erreicht eine neue Stufe: Immer öfter setzen Betrüger auf KI-generierte Deepfake-Videos von bekannten Influencern, um betrügerische Investmentangebote zu bewerben. Diese täuschend echten Fälschungen erschweren die Unterscheidung zwischen echten Empfehlungen und organisiertem Betrug. Eine aktuelle Cybersecurity-Studie warnt vor der wachsenden Bedrohung durch diese perfide Methode auf Plattformen wie YouTube, Facebook und X.

Social Media als Hauptquelle für Betrugsverluste

Soziale Netzwerke haben sich längst zum primären Schauplatz für Finanzbetrug entwickelt. Daten der US-Handelsaufsicht FTC zeigen: Allein 2024 entstanden Verbrauchern in den USA Milliardenschäden durch Social-Media-Betrug. Eine britische Studie kommt zu einem noch drastischeren Ergebnis: Ganze 60 Prozent aller Betrugsfälle im Vereinigten Königreich starteten auf Meta-Plattformen wie Facebook, Instagram und WhatsApp – mit Investmentbetrug als häufigster Kategorie.

Die Strategie der Täter ist ausgeklügelt. Sie nutzen persönliche Daten für maßgeschneiderte Angriffe und verwandten die Plattformen so in ein “ Betrugs-Ökosystem „. Die neue KI-Dimension macht diese Angriffe nun noch gefährlicher.

Deepfakes zerstören Vertrauensverhältnisse

Der Cybersicherheitsanbieter Gen, Eigentümer von Norton und Avast, dokumentiert in seinem aktuellen Threat-Report den alarmierenden Trend: Deepfake-Videos simulieren glaubwürdige Empfehlungen von Influencern für Kryptowährungen oder andere Anlageversprechen. Diese Methode missbraucht das sorgsam aufgebaute Vertrauensverhältnis zwischen Content-Creator und Community – und macht Betrug nahezu unsichtbar.

Dabei geht es längst nicht mehr um simple Fake-Profile mit gestohlenen Bildern. Moderne Betrüger setzen auf KI-Stimmenklonung und Videogenerierung, um scheinbar echte Influencer über „einmalige Chancen“ sprechen zu lassen. Diese Deepfakes verbreiten sie dann via Social-Media-Werbung, gezielt zugeschnitten auf die Follower der imitierten Person.

„Pig Butchering“: Das systematische Ausnehmen der Opfer

Hinter vielen Kampagnen steckt die Strategie des “ Pig Butchering “ – zu Deutsch etwa „Schweineschlachten“. Die Täter „mästen“ ihre Opfer über Wochen oder Monate, bauen eine Beziehung auf und lenken die Kommunikation dann auf verschlüsselte Plattformen wie WhatsApp. Die New Yorker Staatsanwaltschaft warnte kürzlich vor diesen Methoden.

Ist das Vertrauen erst gewonnen – entweder durch die langfristige Beziehung oder einen überzeugenden Deepfake –, leiten die Betrüger auf gefälschte Investmentplattformen. Oft dürfen Opfer anfangs kleine „Gewinne“ abheben, um den Schein der Seriosität zu wahren. Bei größeren Summen ist das Geld dann jedoch weg, und der Kontakt bricht ab.

Druck auf Plattformen und Behörden wächst

Die Explosion dieser Betrugsmaschen erhöht den Handlungsdruck auf Regulierer und Plattformbetreiber massiv. Im US-Senat liegt ein bipartisaner Gesetzentwurf vor, der Social-Media-Konzerne zur Identitätsüberprüfung von Werbetreibenden verpflichten soll. Gleichzeitig schärft die FTC ihre Werkzeuge: Die bestehende „Impersonation Rule“ ermöglicht bereits hohe Strafen gegen Betrüger, die Behörden imitieren. Nun soll die Regel explizit auf die Imitation von Privatpersonen ausgeweitet werden – eine direkte Reaktion auf die KI-Bedrohung.

Anzeige

Wer die neuen Regeln und ihre Folgen für den Einsatz von KI verstehen möchte, findet in einem kompakten Umsetzungsleitfaden zur EU-KI-Verordnung praxisnahe Antworten. Der kostenlose Download erklärt Kennzeichnungspflichten, Risikoklassifizierung und notwendige Dokumentationspflichten – verständlich aufbereitet für Unternehmen, Entwickler und Entscheider, die KI-Systeme einsetzen oder bewerten. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen

Doch es gibt ein grundlegendes Problem: Soziale Plattformen haben womöglich ein wirtschaftliches Eigeninteresse daran, betrügerische Werbung nicht allzu aggressiv zu verfolgen. Interne Meta-Dokumente deuten an, dass ein signifikanter Teil der Werbeeinnahmen des Konzerns aus Anzeigen für Betrug und verbotene Waren stammen könnte.

So schützen Sie sich vor Influencer-Betrug

Cybersicherheitsexperten und Verbraucherschützer raten zu äußerster Skepsis bei Investmentangeboten in sozialen Medien – selbst wenn sie von vertrauten Gesichtern beworben werden.

Alarmzeichen sind garantierte hohe Renditen, Druck zur schnellen Entscheidung und die Aufforderung zu unüblichen Zahlungsmethoden wie Kryptowährungen oder Geschenkkarten. Jedes Angebot sollte durch unabhängige Finanzberater geprüft werden. Niemals sollten Login-Daten oder Authentifizierungscodes auf unerbetene Nachrichten hin preisgegeben werden.

Vorsicht ist auch bei leichten Abweichungen in Profilnamen oder URLs geboten. Betrüger klonen oft echte Accounts. Zudem hilft es, Privatsphäre-Einstellungen zu maximieren, um weniger Angriffsfläche für personalisierte Betrugsversuche zu bieten. Die alte Regel gilt heute mehr denn je: Was zu gut erscheint, um wahr zu sein, ist es meist auch. Verdächtige Angebote sollten umgehend bei der Plattform und den Strafverfolgungsbehörden gemeldet werden.