{"id":311048,"date":"2025-04-29T01:03:16","date_gmt":"2025-04-28T23:03:16","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=311048"},"modified":"2025-04-29T01:04:42","modified_gmt":"2025-04-28T23:04:42","slug":"deepfakes-boomen-in-2025","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2025\/04\/29\/deepfakes-boomen-in-2025\/","title":{"rendered":"Deepfakes boomen in 2025"},"content":{"rendered":"<p><img decoding=\"async\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline;\" title=\"Sicherheit (Pexels, allgemeine Nutzung)\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/04\/Sicherheit_klein.jpg\" alt=\"Sicherheit (Pexels, allgemeine Nutzung)\" width=\"200\" align=\"left\" \/>Deepfake-Vorf\u00e4lle, bei denen Prominente missbraucht werden, entwickeln sich in einem alarmierenden Tempo. Im ersten Quartal 2025 wurden bereits 179 Vorf\u00e4lle gemeldet. Das ist ein Anstieg um 19 % gegen\u00fcber 2024, wie eine Analyse von Surfshark zeigt. Hier ein kurzer \u00dcberblick \u00fcber diese Entwicklung.<\/p>\n<p><!--more--><\/p>\n<p>K\u00fcrzlich kam meine Frau und erz\u00e4hlte mir, dass der Arzt und TV-Mann Eckart von Hirschhausen f\u00fcr ein Wundermedikament werbe. Hatte sie auf einer Nachrichtenseite in einer Anzeige gesehen. Ein typischer Fall von Deepfake &#8211; der Name des Arztes Eckart von Hirschhausen war missbraucht und die Videos von KI generiert worden.<\/p>\n<p>In der Vergangenheit sind auch in Deutschland bekannte Pers\u00f6nlichkeiten Opfer von Deepfake-Vorf\u00e4llen geworden. Zum Beispiel gef\u00e4lschte Videos von \"bald\" CDU-Kanzler Friedrich Merz oder \"noch Kanzler\" Olaf Scholz w\u00e4hrend der Bundestagswahl. Aber auch Prominente wie der bereits erw\u00e4hnte Arzt, Talkshow-Moderator und Autor Eckart von Hirschhausen oder die Schauspielerin Uschi Glas sind Opfer von Deepfake-Betr\u00fcgereien geworden.<\/p>\n<p>Zu den bemerkenswerten Fakes geh\u00f6ren Taylor Swift in kompromittierenden Situationen, Trump, der die Kleidung von Zelenskyy kritisiert, und Elon Musk, der China-freundliche Ansichten vertritt. Allein Prominente wurden in diesem Zeitraum 47 Mal ins Visier genommen, ein Anstieg von 81 % im Vergleich zum gesamten Jahr 2024.<\/p>\n<p>Insgesamt erwirtschaftete der deutsche Deepfake-KI-Markt im Jahr 2024 einen Umsatz von 49,5 Millionen US-Dollar und wird bis 2030 voraussichtlich 433,4 Millionen US-Dollar erreichen.<\/p>\n<p>\"Die Deepfake-Technologie entwickelt sich in einem alarmierenden Tempo weiter, und mit ihr w\u00e4chst die F\u00e4higkeit zu Fehlinformationen und b\u00f6swilligen Absichten. Das Schadenspotenzial reicht von der Sch\u00e4digung des pers\u00f6nlichen Rufs bis hin zur Bedrohung der nationalen Sicherheit. Die Menschen m\u00fcssen vorsichtig sein, da der Verlust des Vertrauens in die Informationen, die wir h\u00f6ren und sehen, erhebliche Auswirkungen auf die Privatsph\u00e4re, Institutionen und sogar die Demokratie haben kann\", sagt Monika Sackute, Country Manager DACH beim Cybersicherheitsunternehmen Surfshark.<\/p>\n<h2>Die beliebtesten Arten von Deepfake-Vorf\u00e4llen<\/h2>\n<p>Surfshark kategorisiert Deepfake-Vorf\u00e4lle in vier Kategorien: Explizite Inhaltserstellung, Betrug, politisch brisante Inhalte und sonstige Inhalte.\u00a0Im ersten Quartal 2025 ergeben sich folgende Kennzahlen:<\/p>\n<ul>\n<li>Die Zahl der Vorf\u00e4lle mit expliziten Inhalten stieg auf 53 und \u00fcbertraf damit die 26 aus dem Vorjahr;<\/li>\n<li>Betrug meldete 48 Vorf\u00e4lle und erreichte damit fast die Gesamtzahl von 56 aus dem Jahr 2024;<\/li>\n<li>Politische Vorf\u00e4lle erreichten 40 und n\u00e4herten sich damit der Zahl von 50 aus dem Jahr 2024;<\/li>\n<li>Verschiedene Inhalte stiegen auf 38 Vorf\u00e4lle und \u00fcbertrafen damit die Gesamtzahl von 18 aus dem Vorjahr.<\/li>\n<\/ul>\n<p>R\u00fcckblickend auf das Jahr 2017 ist das beliebteste Format f\u00fcr Deepfake-Vorf\u00e4lle das Video mit 260 gemeldeten F\u00e4llen. Das zweitbeliebteste Format ist Bild mit 132 gemeldeten Vorf\u00e4llen. Die letzte Kategorie ist Audio, wo 117 Vorf\u00e4lle registriert wurden.<\/p>\n<h2>Wer sind die Hauptziele?<\/h2>\n<p>Politiker wurden 56 Mal angegriffen, womit die Gesamtzahl von 62 im Jahr 2024 fast erreicht wurde. Auch wenn in Deutschland 2025 Wahlen anstanden, war 2024 das Wahljahr f\u00fcr viele L\u00e4nder wie die USA, Frankreich und \u00d6sterreich. Das trug viel zu diesen Zielen bei. Auch in der \u00d6ffentlichkeit gab es im ersten Quartal 2025 mehr Angriffe, ein Anstieg von 23 % im Vergleich zu 2024. Am st\u00e4rksten betroffen waren jedoch Prominente mit einem Anstieg von 81 % im Vergleich zum gesamten Jahr 2024.<\/p>\n<p>Seit 2017 wurden Prominente in 21 % der Vorf\u00e4lle zur Zielscheibe von Deepfakes, das sind insgesamt 84 F\u00e4lle. Elon Musk wurde 20 Mal angegriffen, was 24 % der Vorf\u00e4lle mit Prominenten entspricht. Taylor Swift folgt mit 11 Vorf\u00e4llen, Tom Hanks mit 3. Kanye West, Emma Watson und Brad Pitt wurden jeweils 2 Mal zur Zielscheibe.<\/p>\n<p>Politiker waren in 36 % aller Deepfake-Vorf\u00e4lle verwickelt, insgesamt 143 F\u00e4lle seit 2017. Diese Aktivit\u00e4t, die oft in Wahlkampfzeiten zunimmt, wird genutzt, um politische Agenda durchzusetzen. Donald Trump ist mit 25 Vorf\u00e4llen, die 18 % der Deepfakes im Zusammenhang mit Politikern ausmachen, am h\u00e4ufigsten betroffen. Joe Biden folgt mit 20 Vorf\u00e4llen, haupts\u00e4chlich w\u00e4hrend der Wahlen, bei denen seine Stimme in Robocalls verwendet wurde. Kamala Harris und Volodymyr Zelenskyy hatten mit 6 bzw. 4 Vorf\u00e4llen zu k\u00e4mpfen.<\/p>\n<p>Mit 166 Deepfake-Vorf\u00e4llen war die \u00d6ffentlichkeit in 43 % der F\u00e4lle das Ziel. Davon entfielen 41 % auf Vorf\u00e4lle im Zusammenhang mit verschiedenen Arten von Betrug, und 39 % dieser F\u00e4lle f\u00fchrten zur Erstellung expliziter Medien, d. h. es wurden keine autorisierten Bilder oder Videos von Personen erstellt.<\/p>\n<h2>Wie erkennt man einen Deepfake?<\/h2>\n<p>Laut Monika Sackute, Country Manager DACH beim Cybersicherheitsunternehmen Surfshark, wird die Erkennung von Deepfakes aufgrund ihrer weiten Verbreitung und ihres erh\u00f6hten Realismus immer schwieriger. Die Technologie, mit der Deepfakes erzeugt werden, \u00fcbersteigt oft die F\u00e4higkeiten der Erkennungsinstrumente. Die gro\u00dfe Menge dieser Art von Online-Inhalten erschwert auch die Unterscheidung zwischen echten und unechten Inhalten. Es gibt jedoch einige Dinge, auf die Sie achten k\u00f6nnen, um ein Deepfake zu erkennen, darunter:<\/p>\n<ul>\n<li>Unnat\u00fcrliche Bewegungen;<\/li>\n<li>Farbunterschiede;<\/li>\n<li>Inkonsistente Beleuchtung;<\/li>\n<li>Schlechte Lippensynchronit\u00e4t (Audio passt nicht zu den Lippenbewegungen);<\/li>\n<li>Unscharfe oder verzerrte Hintergr\u00fcnde;<\/li>\n<li>Verbreitungskan\u00e4le (es kann von einem Bot geteilt werden).<\/li>\n<\/ul>\n<p>Frau Sackute weist auch darauf hin, dass illegale Deepfakes wie Missbrauch von Intimbildern oder \u201eRachepornos\", Material \u00fcber sexuellen Kindesmissbrauch, Hassverbrechen, Betrug, falsche Mitteilungen, terroristische Aktivit\u00e4ten, Stalking und Bel\u00e4stigung oder Erpressung bei der Polizei angezeigt werden sollten. Dar\u00fcber hinaus wird dringend empfohlen, Vorsichtsma\u00dfnahmen zu ergreifen, wie z. B. eine geheime Passphrase mit den Angeh\u00f6rigen, insbesondere mit Kindern und \u00e4lteren Menschen, f\u00fcr den Fall eines falschen Anrufs zu vereinbaren.<\/p>\n<h2>Hintergrundinformationen<\/h2>\n<p>F\u00fcr diese Studie wurden Daten von <a href=\"https:\/\/www.resemble.ai\/\" target=\"_blank\" rel=\"noopener, nofollow\">Resemble.AI<\/a> und der AI Incident Database verwendet, um einen kombinierten Datensatz mit Deepfake-Vorf\u00e4llen seit 2017 zu erstellen. Ber\u00fccksichtigt wurden Vorf\u00e4lle, bei denen gef\u00e4lschte Videos, Bilder oder Audios erzeugt wurden und \u00fcber die in den Medien berichtet wurde.<\/p>\n<p>Diese Vorf\u00e4lle wurden in die Kategorien Betrug, Erzeugung expliziter Inhalte, politisch brisante Inhalte und Sonstiges eingeteilt. Au\u00dferdem wurden die Zielgruppen kategorisiert: Politiker, Prominente und die allgemeine \u00d6ffentlichkeit. Wir f\u00fchrten Analysen durch, um die Pr\u00e4valenz der einzelnen Kategorien zu ermitteln und zu untersuchen, welche Art von Vorf\u00e4llen diese Kategorien abdecken. Das vollst\u00e4ndige Forschungsmaterial zu dieser Studie finden sich <a href=\"https:\/\/docs.google.com\/spreadsheets\/d\/1i17Z4ALbkDdAEtPxpsq5wmHd_93a2kfGyRrW2rlRVgA\/edit?pli=1&amp;gid=1154245724#gid=1154245724\" target=\"_blank\" rel=\"noopener\">hier<\/a>. <span style=\"color: #000000;\"><a href=\"https:\/\/surfshark.com\/research\" target=\"_blank\" rel=\"noopener, nofollow\">Surfshark<\/a> ist ein Cybersecurityunternehmen, das sich auf die Entwicklung von humanisierten Datenschutz- und Sicherheitsl\u00f6sungen konzentriert.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Deepfake-Vorf\u00e4lle, bei denen Prominente missbraucht werden, entwickeln sich in einem alarmierenden Tempo. Im ersten Quartal 2025 wurden bereits 179 Vorf\u00e4lle gemeldet. Das ist ein Anstieg um 19 % gegen\u00fcber 2024, wie eine Analyse von Surfshark zeigt. Hier ein kurzer \u00dcberblick &hellip; <a href=\"https:\/\/borncity.com\/blog\/2025\/04\/29\/deepfakes-boomen-in-2025\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426],"tags":[4903,4328],"class_list":["post-311048","post","type-post","status-publish","format-standard","hentry","category-sicherheit","tag-ki","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/311048","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=311048"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/311048\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=311048"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=311048"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=311048"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}