KI-Stimmen klonen Verwandte: Neuer Betrugsalarm in Deutschland

Kriminelle nutzen KI-gestütztes Voice Cloning für täuschend echte Erpressungsanrufe. Die Fallzahlen steigen deutlich, Behörden warnen und geben konkrete Schutzmaßnahmen.

Eine neue Betrugsmasche mit geklonten KI-Stimmen versetzt Deutschland in Alarmbereitschaft. Kriminelle imitieren die Stimmen von Angehörigen täuschend echt und erpressen in Schockanrufen Geld. Diese digitale Variante des Enkeltricks stellt eine wachsende Bedrohung dar.

So einfach funktioniert das Voice Cloning

Die technische Hürde für täuschend echte Stimmimitate ist drastisch gesunken. Betrügern genügen heute oft nur wenige Sekunden Audiomaterial. Sie nutzen frei zugängliche KI-Software, um Stimmen zu kopieren.

Die Quellen für das Audio sind vielfältig:
* Sprachaufnahmen aus sozialen Netzwerken wie TikTok oder Instagram
* Öffentlich geteilte Sprachnachrichten
* Videos von Plattformen wie YouTube

Die KI analysiert charakteristische Merkmale wie Tonhöhe und Sprechgeschwindigkeit. Anschließend generiert sie aus einem beliebigen Text eine Audio-Ausgabe in der geklonten Stimme. Das Ergebnis ist am Telefon kaum vom Original zu unterscheiden.

Anzeige

Seit August 2024 gelten neue EU-Regeln für KI – und viele Dienstleister, Entwickler sowie Datenschützer sind unsicher, welche Pflichten jetzt sofort gelten. Unser kostenloses E‑Book zur EU‑KI‑Verordnung erklärt kompakt Kennzeichnungspflichten, Risikoklassifizierung, Dokumentationsanforderungen und die wichtigsten Übergangsfristen. So vermeiden Sie Bußgelder und können KI-Anwendungen rechtssicher betreiben. Ideal für Unternehmen, Entwickler und Compliance‑Verantwortliche. KI-Verordnung: Gratis-Umsetzungsleitfaden herunterladen

Das perfide Muster der Deepfake-Anrufe

Die Masche folgt einem psychologisch ausgeklügelten Drehbuch. Der Anruf beginnt mit der panischen oder weinenden Stimme eines vermeintlichen Kindes oder Enkels.

Es wird eine dramatische Notlage geschildert:
* Ein schwerer Verkehrsunfall
* Eine plötzliche Verhaftung
* Dringende medizinische Behandlungskosten

Im nächsten Schritt übernimmt oft eine angebliche Autoritätsperson – ein „Polizist“ oder „Anwalt“. Diese Person bestätigt die Geschichte und fordert eine sofortige Zahlung als Kaution oder für Behandlungskosten. Die Opfer werden angewiesen, Bargeld an einen Abholer zu übergeben oder sofort zu überweisen. Die vertraute Stimme unter Schock schaltet bei vielen das rationale Denken aus.

Behörden warnen: Fallzahlen steigen deutlich

Sicherheitsbehörden in ganz Deutschland verzeichnen eine starke Zunahme dieser Betrugsversuche. Während der klassische Enkeltrick vor allem Senioren traf, kann die neue KI-Masche potenziell jeden treffen.

Jeder, der jemals Sprachaufnahmen von sich online geteilt hat, könnte zum Ziel werden. Landeskriminalämter und Verbraucherzentralen häufen ihre Warnmeldungen. In konkreten Fällen erbeuteten Täter bereits hohe fünfstellige Beträge.

Wie Sie sich schützen können

Experten erwarten, dass Voice-Cloning-Technologien weiter zugänglicher werden. Der beste Schutz kombiniert technische Vorsicht mit persönlicher Wachsamkeit.

Diese fünf Regeln schützen Sie:

  • Grundsätzliches Misstrauen: Seien Sie bei unerwarteten Anrufen mit Geldforderungen immer skeptisch – egal wie echt die Stimme klingt.
  • Auflegen und zurückrufen: Beenden Sie das Gespräch bei Zweifeln sofort. Kontaktieren Sie die Person über die bekannte, offizielle Nummer.
  • Persönliche Kontrollfragen stellen: Fragen Sie nach Details, die nur der echte Angehörige wissen kann (z.B. ein gemeinsames Erlebnis).
  • Digitale Spuren reduzieren: Seien Sie zurückhaltend mit Sprach- und Videomaterial in öffentlichen Netzwerken.
  • Familienaufklärung: Sprechen Sie mit Ihren Angehörigen über die Masche. Ein vereinbartes Codewort für echte Notfälle kann helfen.
Anzeige

PS: Künstliche Stimmen und Deepfakes sind nicht nur technische, sondern auch rechtliche Risiken – gerade wenn Sie KI-Lösungen entwickeln oder einsetzen. Unser praktischer Leitfaden fasst übersichtlich zusammen, welche Dokumentation, Kennzeichnung und Risikobewertung die Verordnung verlangt, und nennt sinnvolle Umsetzungs-Schritte für die nächsten Wochen. Laden Sie den kostenlosen Umsetzungsleitfaden herunter und prüfen Sie Ihre Prozesse frühzeitig. Jetzt kostenlosen KI-Leitfaden sichern