Eine neue Betrugsmasche mit geklonten KI-Stimmen versetzt Deutschland in Alarmbereitschaft. Kriminelle imitieren die Stimmen von Angehörigen täuschend echt und erpressen in Schockanrufen Geld. Diese digitale Variante des Enkeltricks stellt eine wachsende Bedrohung dar.
So einfach funktioniert das Voice Cloning
Die technische Hürde für täuschend echte Stimmimitate ist drastisch gesunken. Betrügern genügen heute oft nur wenige Sekunden Audiomaterial. Sie nutzen frei zugängliche KI-Software, um Stimmen zu kopieren.
Die Quellen für das Audio sind vielfältig:
* Sprachaufnahmen aus sozialen Netzwerken wie TikTok oder Instagram
* Öffentlich geteilte Sprachnachrichten
* Videos von Plattformen wie YouTube
Die KI analysiert charakteristische Merkmale wie Tonhöhe und Sprechgeschwindigkeit. Anschließend generiert sie aus einem beliebigen Text eine Audio-Ausgabe in der geklonten Stimme. Das Ergebnis ist am Telefon kaum vom Original zu unterscheiden.
Seit August 2024 gelten neue EU-Regeln für KI – und viele Dienstleister, Entwickler sowie Datenschützer sind unsicher, welche Pflichten jetzt sofort gelten. Unser kostenloses E‑Book zur EU‑KI‑Verordnung erklärt kompakt Kennzeichnungspflichten, Risikoklassifizierung, Dokumentationsanforderungen und die wichtigsten Übergangsfristen. So vermeiden Sie Bußgelder und können KI-Anwendungen rechtssicher betreiben. Ideal für Unternehmen, Entwickler und Compliance‑Verantwortliche. KI-Verordnung: Gratis-Umsetzungsleitfaden herunterladen
Das perfide Muster der Deepfake-Anrufe
Die Masche folgt einem psychologisch ausgeklügelten Drehbuch. Der Anruf beginnt mit der panischen oder weinenden Stimme eines vermeintlichen Kindes oder Enkels.
Es wird eine dramatische Notlage geschildert:
* Ein schwerer Verkehrsunfall
* Eine plötzliche Verhaftung
* Dringende medizinische Behandlungskosten
Im nächsten Schritt übernimmt oft eine angebliche Autoritätsperson – ein „Polizist“ oder „Anwalt“. Diese Person bestätigt die Geschichte und fordert eine sofortige Zahlung als Kaution oder für Behandlungskosten. Die Opfer werden angewiesen, Bargeld an einen Abholer zu übergeben oder sofort zu überweisen. Die vertraute Stimme unter Schock schaltet bei vielen das rationale Denken aus.
Behörden warnen: Fallzahlen steigen deutlich
Sicherheitsbehörden in ganz Deutschland verzeichnen eine starke Zunahme dieser Betrugsversuche. Während der klassische Enkeltrick vor allem Senioren traf, kann die neue KI-Masche potenziell jeden treffen.
Jeder, der jemals Sprachaufnahmen von sich online geteilt hat, könnte zum Ziel werden. Landeskriminalämter und Verbraucherzentralen häufen ihre Warnmeldungen. In konkreten Fällen erbeuteten Täter bereits hohe fünfstellige Beträge.
Wie Sie sich schützen können
Experten erwarten, dass Voice-Cloning-Technologien weiter zugänglicher werden. Der beste Schutz kombiniert technische Vorsicht mit persönlicher Wachsamkeit.
Diese fünf Regeln schützen Sie:
- Grundsätzliches Misstrauen: Seien Sie bei unerwarteten Anrufen mit Geldforderungen immer skeptisch – egal wie echt die Stimme klingt.
- Auflegen und zurückrufen: Beenden Sie das Gespräch bei Zweifeln sofort. Kontaktieren Sie die Person über die bekannte, offizielle Nummer.
- Persönliche Kontrollfragen stellen: Fragen Sie nach Details, die nur der echte Angehörige wissen kann (z.B. ein gemeinsames Erlebnis).
- Digitale Spuren reduzieren: Seien Sie zurückhaltend mit Sprach- und Videomaterial in öffentlichen Netzwerken.
- Familienaufklärung: Sprechen Sie mit Ihren Angehörigen über die Masche. Ein vereinbartes Codewort für echte Notfälle kann helfen.
PS: Künstliche Stimmen und Deepfakes sind nicht nur technische, sondern auch rechtliche Risiken – gerade wenn Sie KI-Lösungen entwickeln oder einsetzen. Unser praktischer Leitfaden fasst übersichtlich zusammen, welche Dokumentation, Kennzeichnung und Risikobewertung die Verordnung verlangt, und nennt sinnvolle Umsetzungs-Schritte für die nächsten Wochen. Laden Sie den kostenlosen Umsetzungsleitfaden herunter und prüfen Sie Ihre Prozesse frühzeitig. Jetzt kostenlosen KI-Leitfaden sichern





