Tech-Giganten schließen Pakt gegen KI-Kriminalität

Google, Microsoft und Meta vereinbaren auf Wiener Gipfel gemeinsame Abwehrstrategie gegen KI-gestützten Betrug, der laut Interpol viermal profitabler ist als herkömmliche Methoden.

Die weltweite Bekämpfung digitaler Kriminalität erreicht eine neue Stufe. Auf dem ersten Global Fraud Summit in Wien unterzeichneten Tech-Riesen wie Google, Microsoft und Meta einen freiwilligen Branchenpakt. Hintergrund sind alarmierende Erkenntnisse von Interpol: KI-gestützter Betrug ist heute viermal profitabler als herkömmliche Methoden.

Anzeige

Während Tech-Giganten neue Schutzpakte schließen, rüsten auch Cyberkriminelle massiv auf und nutzen KI für immer raffiniertere Angriffe auf Unternehmen. Dieser Experten-Report enthüllt effektive Strategien, wie sich mittelständische Betriebe ohne Budget-Explosion gegen diese neuen Bedrohungen wappnen können. Zum kostenlosen Cyber-Security-Report

Ein historischer Branchenpakt gegen Betrug

Der Industry Accord Against Online Scams and Fraud markiert einen Wendepunkt. Bislang agierten Tech-Konzerne oft isoliert – eine Lücke, die Kriminelle zwischen sozialen Netzwerken, Suchmaschinen und Zahlungsdiensten ausnutzten. Das ändert sich nun. Neben den großen Plattformen haben sich auch Unternehmen wie Adobe, LinkedIn und der Einzelhändler Target dem Abkommen angeschlossen.

Der Kern des Pakts: die grenzüberschreitende Weitergabe von Threat Intelligence. Die Teilnehmer verpflichten sich, fortschrittliche Betrugserkennungstools zu integrieren, robuste Verifizierungsprotokolle für Finanztransaktionen einzuführen und koordiniert auf neue Betrugsmethoden zu reagieren. Ein typischer moderner Angriff könnte mit einem Deepfake-Video auf einer Social-Media-Plattform beginnen, um Opfer in betrügerische Chatgruppen zu locken, wo KI-Chatbots dann Zugangsdaten abgreifen.

Experten sehen den freiwilligen Pakt als präventiven Schritt, um branchenweite Standards zu etablieren – bevor Regierungen mit strengerer Regulierung nachlegen.

Interpol warnt vor „agentischer KI“ und industrialisiertem Betrug

Die Dringlichkeit des Bündnisses unterstreicht ein Bericht von Interpol. Die internationale Polizeiorganisation warnt vor der Industrialisierung der Cyberkriminalität durch KI. Ein Hauptaugenmerk liegt auf sogenannter „agentischer KI“. Im Gegensatz zu frühen generativen KI-Tools, die menschliche Anweisungen benötigten, können diese Systeme Betrugskampagnen autonom planen und ausführen.

Laut Interpol-Daten stieg die Zahl betrugsbezogener Hinweise seit 2024 um 54 Prozent. Betrugszentren haben sich von regionalen Operationen zu einem grenzenlosen, global organisierten Geschäft entwickelt. Besorgniserregend sind auch neue Entwicklungen: KI-generierte Inhalte werden systematisch in Romance-Scams und Sextortion eingebaut, und terroristische Organisationen nutzen zunehmend Krypto-Betrugsschemata zur Operationsfinanzierung.

Anzeige

Die zunehmende Industrialisierung von Scams führt dazu, dass herkömmliche Sicherheitsmaßnahmen oft nicht mehr ausreichen, um professionelle Hacker abzuwehren. Ein spezieller Experten-Guide zeigt in 4 Schritten, wie Unternehmen branchenspezifische Gefahren erkennen und sich wirksam vor aktuellen Phishing-Methoden schützen. Kostenloses Anti-Phishing-Paket herunterladen

Milliardenschäden und ein sich wandelndes Bedrohungsbild

Die finanziellen Verluste durch KI-Kriminalität erreichen historische Dimensionen. Laut einem Bericht von Nasdaqs Verafin-Einheit gingen 2025 weltweit schätzungsweise 579,4 Milliarden Euro durch Bankbetrug und Scams verloren. Ein Großteil davon wird auf die weite Verbreitung von Deepfake-Technologie und automatisierten Social-Engineering-Tools zurückgeführt.

Das Bedrohungsbild verschiebt sich grundlegend. Wie das Threat-Intelligence-Unternehmen Flashpoint berichtet, geht es bei Cyberangriffen heute weniger um gewaltsames Eindringen in Netzwerke. Stattdessen loggen sich Kriminelle einfach ein, indem sie gestohlene Session-Cookies und KI nutzen, um traditionelle Sicherheitsperimeter zu umgehen.

Die Auswirkungen gehen weit über den Bankensektor hinaus. Eine Studie des Datenanalysten Verisk ergab, dass 98 Prozent der Versicherer einen starken Anstieg digitaler Medienfälschungen durch KI-Bearbeitungstools verzeichnen. Betrüger nutzen synthetische Medien, um Schadensbilder zu manipulieren und Dokumente zu fälschen – was legitime Versicherungsnehmer benachteiligt und die Prämienkosten in die Höhe treiben könnte.

KI gegen KI: Die neue Verteidigungsstrategie

Da Kriminelle KI weaponisieren, entwickeln Cybersicherheitsbranche und Finanzinstitute ebenso ausgefeilte, KI-gestützte Abwehrmechanismen. Herkömmliche, regelbasierte Bot-Abwehr reicht nicht mehr aus, um automatisierte agentische Angriffe zu stoppen. Die Verteidigung setzt nun auf intentionsbasierte Authentifizierung und Echtzeit-Intervention.

In der Woche des Wiener Gipfels kündigten mehrere Organisationen neue KI-native Gegenmaßnahmen an. Das Cybersicherheitsunternehmen Pindrop brachte eine Lösung zur Betrugsaufklärung auf den Markt, die Contact Center bei der Echtzeitanalyse von Telefongesprächen und der Erkennung von Voice-Cloning unterstützt.

Finanzinstitute setzen ihrerseits defensive KI-Bots ein, um Betrüger aktiv zu beschäftigen und abzulenken. Banken nutzen Bots, die authentische regionale Akzente imitieren können, um Kriminelle in lange Gespräche zu verwickeln. Das bindet deren Ressourcen und sammelt gleichzeitig wertvolle Erkenntnisse.

Ein eskalierendes Wettrüsten

Die Entwicklungen im März 2026 zeigen einen kritischen Wendepunkt in der Cybersicherheit. Die Einstiegshürde für digitale Kriminalität wurde durch Software-as-a-Service-Modelle im Dark Web drastisch gesenkt. Durch den Einsatz großer Sprachmodelle und Voice-Cloning können Betrüger traditionelle Warnsignale wie schlechte Grammatik oder unnatürliche Sprachmelodien umgehen.

Marktbeobachter sehen im Tech-Pakt und den neuen Abwehrtools ein eskalierendes Wettrüsten. Während böswillige Akteure KI nutzen, um ihre Operationen zu skalieren, sind Verteidiger gezwungen, auf KI zurückzugreifen, um massive Datenströme zu filtern und subtile Verhaltensanomalien zu identifizieren. Der Erfolg des Pakts hängt maßgeblich davon ab, wie schnell und effizient Bedrohungsinformationen über konkurrierende Unternehmensinfrastrukturen hinweg geteilt und umgesetzt werden können.

Die Verifikation digitaler Identität wird in den kommenden Jahren voraussichtlich stärker auf Verhaltensabsichten als auf statische Zugangsdaten setzen. Da KI-Agenten zunehmend legitime E-Commerce- und Verwaltungsaufgaben für Verbraucher übernehmen, wird die Unterscheidung zwischen autorisierten Assistenten und bösartigen Algorithmen zur Hauptaufgabe für Netzwerkadministratoren.

Angesichts weiter steigender globaler Finanzverluste ist zu erwarten, dass Regierungen von freiwilligen Branchenabkommen zu verbindlichen gesetzlichen Rahmenwerken übergehen. Bis dahin bilden die im März 2026 etablierten kooperativen Intelligence-Sharing-Netzwerke die erste Verteidigungslinie gegen eine zunehmend autonome und industrialisierte globale Betrugsepidemie.