Deepfakes boomen in 2025

Sicherheit (Pexels, allgemeine Nutzung)Deepfake-Vorfälle, bei denen Prominente missbraucht werden, entwickeln sich in einem alarmierenden Tempo. Im ersten Quartal 2025 wurden bereits 179 Vorfälle gemeldet. Das ist ein Anstieg um 19 % gegenüber 2024, wie eine Analyse von Surfshark zeigt. Hier ein kurzer Überblick über diese Entwicklung.


Anzeige

Kürzlich kam meine Frau und erzählte mir, dass der Arzt und TV-Mann Eckart von Hirschhausen für ein Wundermedikament werbe. Hatte sie auf einer Nachrichtenseite in einer Anzeige gesehen. Ein typischer Fall von Deepfake – der Name des Arztes Eckart von Hirschhausen war missbraucht und die Videos von KI generiert worden.

In der Vergangenheit sind auch in Deutschland bekannte Persönlichkeiten Opfer von Deepfake-Vorfällen geworden. Zum Beispiel gefälschte Videos von "bald" CDU-Kanzler Friedrich Merz oder "noch Kanzler" Olaf Scholz während der Bundestagswahl. Aber auch Prominente wie der bereits erwähnte Arzt, Talkshow-Moderator und Autor Eckart von Hirschhausen oder die Schauspielerin Uschi Glas sind Opfer von Deepfake-Betrügereien geworden.

Zu den bemerkenswerten Fakes gehören Taylor Swift in kompromittierenden Situationen, Trump, der die Kleidung von Zelenskyy kritisiert, und Elon Musk, der China-freundliche Ansichten vertritt. Allein Prominente wurden in diesem Zeitraum 47 Mal ins Visier genommen, ein Anstieg von 81 % im Vergleich zum gesamten Jahr 2024.

Insgesamt erwirtschaftete der deutsche Deepfake-KI-Markt im Jahr 2024 einen Umsatz von 49,5 Millionen US-Dollar und wird bis 2030 voraussichtlich 433,4 Millionen US-Dollar erreichen.


Anzeige

"Die Deepfake-Technologie entwickelt sich in einem alarmierenden Tempo weiter, und mit ihr wächst die Fähigkeit zu Fehlinformationen und böswilligen Absichten. Das Schadenspotenzial reicht von der Schädigung des persönlichen Rufs bis hin zur Bedrohung der nationalen Sicherheit. Die Menschen müssen vorsichtig sein, da der Verlust des Vertrauens in die Informationen, die wir hören und sehen, erhebliche Auswirkungen auf die Privatsphäre, Institutionen und sogar die Demokratie haben kann", sagt Monika Sackute, Country Manager DACH beim Cybersicherheitsunternehmen Surfshark.

Die beliebtesten Arten von Deepfake-Vorfällen

Surfshark kategorisiert Deepfake-Vorfälle in vier Kategorien: Explizite Inhaltserstellung, Betrug, politisch brisante Inhalte und sonstige Inhalte. Im ersten Quartal 2025 ergeben sich folgende Kennzahlen:

  • Die Zahl der Vorfälle mit expliziten Inhalten stieg auf 53 und übertraf damit die 26 aus dem Vorjahr;
  • Betrug meldete 48 Vorfälle und erreichte damit fast die Gesamtzahl von 56 aus dem Jahr 2024;
  • Politische Vorfälle erreichten 40 und näherten sich damit der Zahl von 50 aus dem Jahr 2024;
  • Verschiedene Inhalte stiegen auf 38 Vorfälle und übertrafen damit die Gesamtzahl von 18 aus dem Vorjahr.

Rückblickend auf das Jahr 2017 ist das beliebteste Format für Deepfake-Vorfälle das Video mit 260 gemeldeten Fällen. Das zweitbeliebteste Format ist Bild mit 132 gemeldeten Vorfällen. Die letzte Kategorie ist Audio, wo 117 Vorfälle registriert wurden.

Wer sind die Hauptziele?

Politiker wurden 56 Mal angegriffen, womit die Gesamtzahl von 62 im Jahr 2024 fast erreicht wurde. Auch wenn in Deutschland 2025 Wahlen anstanden, war 2024 das Wahljahr für viele Länder wie die USA, Frankreich und Österreich. Das trug viel zu diesen Zielen bei. Auch in der Öffentlichkeit gab es im ersten Quartal 2025 mehr Angriffe, ein Anstieg von 23 % im Vergleich zu 2024. Am stärksten betroffen waren jedoch Prominente mit einem Anstieg von 81 % im Vergleich zum gesamten Jahr 2024.

Seit 2017 wurden Prominente in 21 % der Vorfälle zur Zielscheibe von Deepfakes, das sind insgesamt 84 Fälle. Elon Musk wurde 20 Mal angegriffen, was 24 % der Vorfälle mit Prominenten entspricht. Taylor Swift folgt mit 11 Vorfällen, Tom Hanks mit 3. Kanye West, Emma Watson und Brad Pitt wurden jeweils 2 Mal zur Zielscheibe.

Politiker waren in 36 % aller Deepfake-Vorfälle verwickelt, insgesamt 143 Fälle seit 2017. Diese Aktivität, die oft in Wahlkampfzeiten zunimmt, wird genutzt, um politische Agenda durchzusetzen. Donald Trump ist mit 25 Vorfällen, die 18 % der Deepfakes im Zusammenhang mit Politikern ausmachen, am häufigsten betroffen. Joe Biden folgt mit 20 Vorfällen, hauptsächlich während der Wahlen, bei denen seine Stimme in Robocalls verwendet wurde. Kamala Harris und Volodymyr Zelenskyy hatten mit 6 bzw. 4 Vorfällen zu kämpfen.

Mit 166 Deepfake-Vorfällen war die Öffentlichkeit in 43 % der Fälle das Ziel. Davon entfielen 41 % auf Vorfälle im Zusammenhang mit verschiedenen Arten von Betrug, und 39 % dieser Fälle führten zur Erstellung expliziter Medien, d. h. es wurden keine autorisierten Bilder oder Videos von Personen erstellt.

Wie erkennt man einen Deepfake?

Laut Monika Sackute, Country Manager DACH beim Cybersicherheitsunternehmen Surfshark, wird die Erkennung von Deepfakes aufgrund ihrer weiten Verbreitung und ihres erhöhten Realismus immer schwieriger. Die Technologie, mit der Deepfakes erzeugt werden, übersteigt oft die Fähigkeiten der Erkennungsinstrumente. Die große Menge dieser Art von Online-Inhalten erschwert auch die Unterscheidung zwischen echten und unechten Inhalten. Es gibt jedoch einige Dinge, auf die Sie achten können, um ein Deepfake zu erkennen, darunter:

  • Unnatürliche Bewegungen;
  • Farbunterschiede;
  • Inkonsistente Beleuchtung;
  • Schlechte Lippensynchronität (Audio passt nicht zu den Lippenbewegungen);
  • Unscharfe oder verzerrte Hintergründe;
  • Verbreitungskanäle (es kann von einem Bot geteilt werden).

Frau Sackute weist auch darauf hin, dass illegale Deepfakes wie Missbrauch von Intimbildern oder „Rachepornos", Material über sexuellen Kindesmissbrauch, Hassverbrechen, Betrug, falsche Mitteilungen, terroristische Aktivitäten, Stalking und Belästigung oder Erpressung bei der Polizei angezeigt werden sollten. Darüber hinaus wird dringend empfohlen, Vorsichtsmaßnahmen zu ergreifen, wie z. B. eine geheime Passphrase mit den Angehörigen, insbesondere mit Kindern und älteren Menschen, für den Fall eines falschen Anrufs zu vereinbaren.

Hintergrundinformationen

Für diese Studie wurden Daten von Resemble.AI und der AI Incident Database verwendet, um einen kombinierten Datensatz mit Deepfake-Vorfällen seit 2017 zu erstellen. Berücksichtigt wurden Vorfälle, bei denen gefälschte Videos, Bilder oder Audios erzeugt wurden und über die in den Medien berichtet wurde.

Diese Vorfälle wurden in die Kategorien Betrug, Erzeugung expliziter Inhalte, politisch brisante Inhalte und Sonstiges eingeteilt. Außerdem wurden die Zielgruppen kategorisiert: Politiker, Prominente und die allgemeine Öffentlichkeit. Wir führten Analysen durch, um die Prävalenz der einzelnen Kategorien zu ermitteln und zu untersuchen, welche Art von Vorfällen diese Kategorien abdecken. Das vollständige Forschungsmaterial zu dieser Studie finden sich hier. Surfshark ist ein Cybersecurityunternehmen, das sich auf die Entwicklung von humanisierten Datenschutz- und Sicherheitslösungen konzentriert.


Anzeige

Dieser Beitrag wurde unter Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

10 Antworten zu Deepfakes boomen in 2025

  1. Luzifer sagt:

    Tja früher galt glaube nichts für das es keine Beweise in Form von Bildern Aufnahmen gibt (und selbst da wurde gefaked). Heute gilt halt glaube nix, wenn du nicht selbst dabei warst!
    Früher wie heute gilt: Schalte dein Hirn ein und denke selbst!

    Um mal bei den Beispielen hier aus dem Blog zu bleiben: Ich kauf doch kein "Wundermittel" nur weil irgendein Arzt Fuzzi das in Zeitschriften/TV usw. bewirbt! Nen seriöser Arzt hat sowas gar nicht nötig!
    Taylor Swift in kompromitierenden Posen? Und? Ist auch nur ne Frau und Sex ist nix schmutziges.
    Trump? Elon? Wer die politisch für voll nimmt… gehört in die Psychiatrie!
    Enkeltrick? Sorry, da ruft man zuerst die bekannte Nummer an…
    usw. wer seinen Kopf zum Denken hat und nicht nur damit es bei Regen nicht ihn den Hals läuft… fällt auf sowas nicht rein oder ordnet es als das ein was es ist: Fake

    Auf Gerede und Geschwätz hab ich noch nie was gegeben, ich bilde mir meine Meinung selbst. Durch vertrauenswürdige Quellen oder dadurch das ich dabei bin, sprich eigene Erfahrung und Eigene Recherche.

    • Karl sagt:

      "Trump? Elon? Wer die politisch für voll nimmt… gehört in die Psychiatrie!"

      Wer solche Kommentare raushaut gehört wohl eher in die Psychiatrie ;)

      Immer schön durch die Hose atmen Luzifer :)

      • TAFKAegal sagt:

        Wieso sollte man die für voll nehmen!? Ernst nehmen bzw. die Gesamtsituation? Ja!

        Aber…

        OK! Je nach Verwendung, entweder alleine oder innerhalb eines Ausdrucks, des Wortes "voll" passt das eventuell doch ;)

    • Anonym sagt:

      Also 'Alle Anderen zu doof / MIR könnte das nicht passieren'?

      Der Zeitpunkt an dem deine unglaubliche Intelligenz und Wahrnehmung nicht ausreichen wird, deine Quellen und Recherche versagen werden wird kommen. Sei sicher.

  2. harfes sagt:

    Also doch endlich wieder zurück zu den Öffis (ARD, ZDF, etc), da ist professioneller Journalismus dahinter und nicht die Werbeindustrie um irgendein Fake auf dem Handy/Tablet auszunutzen.
    Klar, wer sich mit dem Weltgeschehen auseinandersetzt und tatsächlich dazu noch sein Hirn gebraucht, fällt sicherlich kaum auf diese Fakes rein – aber bei der aktuellen Generation bin ich mir mit der Hirnnutzung nicht mehr so sicher…

    • Bernd B. sagt:

      Stimmt, beim ÖRR sind's dann nur die Selektion (worüber berichtet man zur Hauptsendezeit bestenfalls in Spartenkanälen), "bedauerliche redaktionelle Fehler" (wenn z.B. Balkengrafiken nicht proportional zu den Zahlen sind), Unterstützung von Kampagnen (wie gegen Lindemann und Gelbhaar) oder Interviews mit "zufällig vorbeikommenden Passanten" (gerne aktive Lokal-/Regionalpolitiker der SPD/GRÜNE/LINKE) – das ist viel besser.

  3. Clemens53 sagt:

    Dazu braucht es nun wirklich kein Internet und schon gar nicht KI und Co. Da war doch mal was mit der Telekom-Aktie und einem Herrn Krug. Lang, lang ist`s her…

  4. Anonymous sagt:

    "Nein" "Doch" "Oh!"
    Wer hätte denn jemals vermuten mögen, daß dieser Blödsinn für solch einen Blödsinn (aus)genutzt wird?

Schreibe einen Kommentar zu Anonym Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.