KI-Betrug erreicht mit 15,9 Milliarden Euro neuen Höchststand

Generative Künstliche Intelligenz treibt Betrugsvolumen 2025 auf einen neuen Höchststand. Polymorphes Phishing und täuschend echte Voice-Cloning-Angriffe stellen neue Herausforderungen dar.

Generative Künstliche Intelligenz treibt Betrugsvolumen in die Höhe. Neue US-Daten zeigen einen dramatischen Anstieg von KI-gesteuerten Phishing-Angriffen und Voice-Cloning-Betrug. Die Schäden erreichten 2025 einen Rekordwert.

Die Landschaft des digitalen Betrugs hat diese Woche einen kritischen Wendepunkt erreicht. Neue US-Bundesdaten und eine Serie von Notfallwarnungen der Strafverfolgungsbehörden belegen eine massive Eskalation von KI-gesteuerten Phishing-Kampagnen. Laut Berichten der US-Handelsaufsichtsbehörde FTC vom 3. April 2026 erbeuteten Betrüger im Jahr 2025 rekordverdächtige 15,9 Milliarden Euro. Das ist ein deutlicher Anstieg gegenüber den 12,5 Milliarden Euro aus 2024. Experten führen diesen Schub auf die weite Verbreitung generativer KI zurück. Sie ermöglicht es Cyberkriminellen, hochgradig personalisierte, grammatikalisch perfekte und schwer erkennbare betrügerische Kommunikation in nie dagewesenem Maßstab zu automatisieren.

Anzeige

Angesichts der rasant steigenden Schäden durch KI-gesteuerte Angriffe wird der Schutz privater Daten immer wichtiger. Dieser kostenlose Ratgeber zeigt Ihnen, mit welchen fünf einfachen Maßnahmen Sie Ihr Android-Smartphone effektiv gegen Hacker und Datenmissbrauch absichern. 5 sofort umsetzbare Schutzmaßnahmen entdecken

Die neuesten Zahlen fallen mit einer Welle dringender Warnungen des FBI und von US-Staatsanwälten zusammen. Sie betreffen ausgeklügelte Identitätsdiebstahl-Schemata. Von gefälschten Rechnungen lokaler Behörden bis hin zu KI-optimierten Steuerbetrügereien – die erste Aprilwoche 2026 zeigt konzentrierte Angriffe auf das öffentliche Vertrauen. Da über 50 Prozent der Weltbevölkerung inzwischen Betrugsversuche per Telefon, SMS oder E-Mail melden, sind die klassischen Warnsignale für Phishing durch agentische KI weitgehend wirkungslos geworden.

Polymorphes Phishing und Voice-Cloning: Die neuen Werkzeuge

Ein zentrales Thema ist der Aufstieg des sogenannten polymorphen Phishings. Daten des Cybersicherheitsunternehmens Cofense zeigen, dass fast 76 Prozent der 2025 identifizierten schädlichen URLs einzigartig waren – selbst wenn sie dieselbe Infrastruktur nutzten. Diese Taktik umgeht traditionelle Sicherheitsfilter, die auf bekannte Muster setzen. KI verändert Logos, Signaturen und Dateien dynamisch, sodass jeder Angriff für Abwehrsysteme neu erscheint.

Parallel dazu wird KI-gestütztes Voice-Cloning zur größten Sorge. Das Justizministerium von West Virginia meldete am 3. April einen deutlichen Anstieg von „Enkeltrick“-Betrug und Chef-Impersonation mit täuschend echten Audio-Nachahmungen. Betrüger nutzen dabei oft nur wenige Sekunden Audio von Social Media, um Stimmen von Familienmitgliedern oder Führungskräften zu klonen. Diese Deepfake-Anrufe dienen dazu, betrügerische Überweisungen zu autorisieren oder Geld unter dem Vorwand familiärer Notlagen zu erpressen.

Die Raffinesse dieser Tools bedeutet: Perfekte Grammatik ist heute ein Warnsignal, kein Echtheitsmerkmal mehr. KI-Modelle, die mit Milliarden professioneller Kommunikationen trainiert wurden, produzieren E-Mails im Tonfall muttersprachlicher Akademiker. Tippfehler und holprige Formulierungen, einst verlässliche Betrugsindikatoren, gehören der Vergangenheit an.

Gezielte Kampagnen: Von Baugenehmigungen bis zur Steuerzeit

Die ersten Apriltage 2026 zeigen einen Fokus auf lokalisierte und saisonale Betrügereien. Das FBI warnte am 3. April vor einer Phishing-Kampagne, die sich gegen Privatpersonen und Unternehmen im Bereich der Stadtplanung richtet. In Städten wie Madison und Philadelphia geben sich Betrüger als Bauamt-Mitarbeiter aus, um Zahlungen für gefälschte Genehmigungen zu fordern. Sie nutzen öffentlich zugängliche Antragsdaten, um ihre Rechnungen legitim erscheinen zu lassen.

Gleichzeitig warnte die New Yorker Staatsanwaltschaft am 1. April vor einer Zunahme KI-gestützter Steuerbetrügereien. Angesichts der nahenden Abgabefrist nutzen Betrüger generative KI, um täuschend echte Videos von Regierungsbeamten oder Prominenten zu erstellen. Diese werben für angebliche Steuervorteile. Oft kommt „predictive Targeting“ zum Einsatz: Algorithmen identifizieren Personen, die aufgrund ihres Online-Verhaltens besonders anfällig für Betrug sind.

Senioren bleiben die am stärksten betroffene Gruppe. Eine Studie vom 1. April 2026 zeigt, dass Amerikaner über 60 im letzten Berichtszeitraum 3,4 Milliarden Euro durch Betrug verloren. Jeder dritte Senior erhält wöchentlich eine Phishing-E-Mail, oft von vertrauenswürdig wirkenden Absendern wie Medicare oder großen Versorgungsunternehmen. Der durchschnittliche Verlust pro betagtem Opfer liegt bei etwa 35.101 Euro – oft das gesamte Ersparte.

Kooperation und Regulierung: Der Kampf gegen die KI-Flut

Angesichts der wachsenden Angriffswelle suchen Regierungen und Industrie nach neuen Wegen, mehr „Reibung“ in das Betrugs-Ökosystem zu bringen. Bei einer Diskussion in Washington am 3. April hoben internationale Beamte erfolgreiche Pilotprojekte hervor. Ein digitaler Berater der Botschaft Singapurs verwies auf die Kooperation zwischen der Regierung und Google. Sie führte zur Entwicklung KI-gesteuerter Malware-Erkennungstools, die Betrug über manipulierte Apps deutlich reduziert hat.

Google hat diese Präventionstools inzwischen auf über 200 Länder ausgeweitet und schützt schätzungsweise eine Milliarde Nutzer. Die proprietäre KI des Unternehmens generiert Echtzeit-Benachrichtigungen, wenn sie einen Betrugsanruf oder -text vermutet. Die Systeme können Funktionen wie Bildschirmfreigabe während einer verdächtigen Interaktion automatisch deaktivieren, um den Zugriff auf sensible Daten zu verhindern.

Trotz dieser Fortschritte bleiben Impostor-Betrügereien die häufigste Form des Betrugs. Sie verursachten im letzten Jahr allein über 3,5 Milliarden Euro Schaden. Aufsichtsbehörden konzentrieren sich zunehmend auf „Rückverfolgungs“-Anfragen, um die Ursprünge dieser Anrufe und Texte zu identifizieren. Die US-Kommunikationsbehörde FCC arbeitet mit Telefonanbietern zusammen, um die Quelle illegaler Robocalls zu verfolgen. Viele stammen inzwischen von legitimen Plattformen, die von Hackern kompromittiert wurden.

Ausblick: Zero Trust und menschliche Verifikation als letzte Bastion

Die Cybersicherheitsbranche bewegt sich in Richtung einer „Zero Trust“-Architektur als einzig tragfähiger Verteidigung gegen KI-gesteuerte Bedrohungen. Experten betonen, dass Organisationen über einfache Mustererkennung hinausgehen müssen. Nötig sind Systeme, die die Verhaltensabsicht jeder Kommunikation analysieren.

In den kommenden Monaten rechnen Strafverfolgungsbehörden mit einer weiteren Welle von Betrugsfällen im Umfeld globaler Großereignisse wie der Fußball-WM 2026. Lokale Polizeibehörden warnen bereits vor gefälschten Ticketverkäufen und betrügerischen Websites, die mit KI täuschend echt wirken.

Anzeige

Ob Online-Banking oder WhatsApp – kriminelle Netzwerke nutzen immer raffiniertere Methoden, um Smartphone-Nutzer auszuspähen. IT-Experten empfehlen daher gezielte Schutzmaßnahmen, um Hackerangriffe und Datenmissbrauch proaktiv zu verhindern. Kostenlosen Sicherheits-Ratgeber für Android-Smartphones sichern

Der Konsens unter Sicherheitsexperten ist klar: Die „menschliche Ebene“ der Sicherheit muss mit neuen Protokollen gestärkt werden. Dazu gehört die Einführung einer Multi-Faktor-Authentifizierung (MFA), die über SMS – die abgefangen werden kann – hinausgeht. Stattdessen sind Hardware-Keys oder biometrische Verifikation nötig. Behörden empfehlen zudem eine „Neun-Sekunden-Pause“-Strategie. Verbraucher sollen jede dringende Geld- oder Informationsanfrage über einen bekannten, vertrauenswürdigen Kanal unabhängig überprüfen, bevor sie handeln. Da KI die Lücke zwischen authentischen und betrügerischen Inhalten schließt, hängt die digitale Vertrauenswürdigkeit von einer Kombination aus fortschrittlicher KI-Erkennung und einer grundsätzlich skeptischeren Haltung gegenüber unerwünschten digitalen Interaktionen ab.