{"id":256441,"date":"2021-08-06T11:00:55","date_gmt":"2021-08-06T09:00:55","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=256441"},"modified":"2024-10-04T11:08:14","modified_gmt":"2024-10-04T09:08:14","slug":"apple-will-bald-gerte-auf-kinderpornos-scannen","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2021\/08\/06\/apple-will-bald-gerte-auf-kinderpornos-scannen\/","title":{"rendered":"Apple will bald Ger&auml;te auf Kinderpornos scannen"},"content":{"rendered":"<p><img decoding=\"async\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline;\" title=\"Sicherheit (Pexels, allgemeine Nutzung)\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/04\/Sicherheit_klein.jpg\" alt=\"Sicherheit (Pexels, allgemeine Nutzung)\" width=\"200\" align=\"left\" \/>Gestern hat Apple angek\u00fcndigt, k\u00fcnftig Ger\u00e4te wie iPhones aber auch Macs vor einem Bilder-Upload in iCloud einen Scan auf Kinderpornos durchzuf\u00fchren. Auch f\u00fcr die Messages-App soll es einen Filter zum Kinderschutz geben. Dazu soll noch in 2021 eine CSAM-Erkennungstechnik (vorerst) in den USA auf den Ger\u00e4ten zum Einsatz kommen. So begr\u00fc\u00dfenswert die Geschichte im Hinblick auf die Verhinderung der Verbreitung von Kinderpornographie ist, Sicherheitsforscher sind alarmiert.<\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg02.met.vgwort.de\/na\/677f7960f8fc4c0ea469c61414bdcb76\" alt=\"\" width=\"1\" height=\"1\" \/>Im Dokument <a href=\"https:\/\/www.apple.com\/child-safety\/\" target=\"_blank\" rel=\"noopener\">Expanded Protections for Children<\/a> beschreibt Apple seine Pl\u00e4ne im Hinblick auf den Schutz von Kindern. Dazu schreibt der Konzern, dass man Kinder vor Personen sch\u00fctzen m\u00f6chte, die\u00a0 die (Apple-) Kommunikationsmittel nutzen, um Kinder anzuwerben und auszubeuten. Zudem will Apple die Verbreitung von Material \u00fcber sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) einschr\u00e4nken. In dieser Angelegenheit hat man mit entsprechenden Organisationen in den USA, die sich dem Schutz von Kindern widmen, zusammen gearbeitet.<\/p>\n<h2>Kindersicherheitsfunktionen in drei Bereichen<\/h2>\n<p>Apple f\u00fchrt neue Kindersicherheitsfunktionen in drei Bereichen ein, die in Zusammenarbeit mit Kindersicherheitsexperten entwickelt wurden. Erstens werden neue Kommunikationswerkzeuge Eltern in die Lage versetzen, ihre Kinder bei der Online-Kommunikation besser zu unterst\u00fctzen. Die Nachrichten-App wird maschinelles Lernen auf dem Ger\u00e4t nutzen, um vor sensiblen Inhalten zu warnen, w\u00e4hrend private Kommunikation f\u00fcr Apple unlesbar bleiben soll.<\/p>\n<p>Als n\u00e4chstes werden iOS und iPadOS neue Anwendungen der Kryptographie nutzen, um die Verbreitung von CSAM (Bilder mit Kindesmissbrauch) im Internet einzuschr\u00e4nken und gleichzeitig die Privatsph\u00e4re der Nutzer zu sch\u00fctzen. Die Erkennung von CSAM soll Apple dabei helfen, den Strafverfolgungsbeh\u00f6rden wertvolle Informationen \u00fcber Sammlungen von CSAM-Material in iCloud Photos zu liefern.<\/p>\n<p>Schlie\u00dflich bieten die Aktualisierungen von Siri und Search Eltern und Kindern erweiterte Informationen und Hilfe, wenn sie in unsichere Situationen geraten. Siri und Search werden auch eingreifen, wenn Nutzer versuchen, nach CSAM-bezogenen Themen zu suchen.<\/p>\n<h2>F\u00fcr iOS 15, iPadOS 15, watchOS 8 und macOS Monterey<\/h2>\n<p>Apple will die oben genannten Funktionen im Laufe des Jahres mit den Updates f\u00fcr iOS 15, iPadOS 15, watchOS 8 und macOS Monterey in den USA einf\u00fchren.<\/p>\n<p><img decoding=\"async\" title=\"iPhone CSAM-Features\" src=\"https:\/\/i.imgur.com\/MbHD0VL.png\" alt=\"iPhone CSAM-Features\" \/><br \/>\niPhone CSAM-Features, Quelle: Apple<\/p>\n<p>Weiterhin soll die Nachrichten-App (Messages) neue Funktionen erhalten, um Kinder und ihre Eltern zu warnen, wenn sie sexuell eindeutige Fotos erhalten oder senden. Beim Empfang dieser Art von Inhalten wird das Foto unscharf dargestellt und das Kind wird gewarnt, mit hilfreichen Ressourcen versorgt und ihm wird versichert, dass es in Ordnung ist, wenn es dieses Foto nicht ansehen m\u00f6chte.<\/p>\n<p>Als zus\u00e4tzliche Vorsichtsma\u00dfnahme kann dem Kind mitgeteilt werden, dass seine Eltern eine Nachricht erhalten, wenn es das Foto doch ansieht, um sicherzugehen, dass es sicher ist. \u00c4hnliche Schutzma\u00dfnahmen gibt es, wenn ein Kind versucht, sexuell eindeutige Fotos zu versenden. Das Kind wird gewarnt, bevor es das Foto versendet, und die Eltern k\u00f6nnen eine Nachricht erhalten, wenn das Kind sich entscheidet, es zu versenden.<\/p>\n<p>Die Messages-App verwendet ger\u00e4teinternes maschinelles Lernen, um Bildanh\u00e4nge zu analysieren und festzustellen, ob ein Foto sexuell explizit ist. Die Funktion ist so konzipiert, dass Apple keinen Zugriff auf die Nachrichten erh\u00e4lt, schreibt das Unternehmen. Diese Funktion wird im Laufe des Jahres 2021 mit einem Update f\u00fcr Familien-Konten eingef\u00fchrt, die in iCloud f\u00fcr iOS 15, iPadOS 15 und macOS Monterey eingerichtet sind.<\/p>\n<h2>CSAM-Scans auf Ger\u00e4ten<\/h2>\n<p>Ein weiteres Problem ist die Verbreitung von Material \u00fcber sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) im Internet. CSAM bezieht sich auf Inhalte, die sexuell eindeutige Aktivit\u00e4ten mit einem Kind darstellen. Als Gegenma\u00dfnahme wird Apple in iOS und iPadOS neue Technologie integrieren. Diese SCAM-Scan-Technologie soll Apple erm\u00f6glichen, bekannte CSAM-Bilder zu erkennen, die in iCloud Photos gespeichert sind. Diese Scans werden (zun\u00e4chst) f\u00fcr die USA eingef\u00fchrt. Diese Technologie erm\u00f6glicht es Apple, entsprechende F\u00e4lle an das National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC fungiert als umfassende Meldestelle f\u00fcr CSAM und arbeitet mit Strafverfolgungsbeh\u00f6rden in den gesamten Vereinigten Staaten zusammen.<\/p>\n<p>Apples Methode zur Erkennung bekannter CSAM ist, laut Unternehmen, auf den Schutz der Privatsph\u00e4re der Nutzer ausgerichtet. Anstatt Bilder in der Cloud zu scannen, f\u00fchrt das System einen ger\u00e4teinternen Abgleich mit einer Datenbank bekannter CSAM-Bild-Hashes durch, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Apple wandelt diese Datenbank in einen unlesbaren Satz von Hashes um, der sicher auf den Ger\u00e4ten der Benutzer gespeichert wird.<\/p>\n<p>Bevor ein Bild in iCloud Fotos gespeichert wird, erfolgt ein ger\u00e4teinterner Abgleich mit den bekannten CSAM-Hashes. Dieser Abgleich wird durch eine kryptografische Technologie namens \"Private Set Intersection\" unterst\u00fctzt. Diese Technologie stellt fest, ob eine \u00dcbereinstimmung vorliegt, ohne das Ergebnis offenzulegen. Das Ger\u00e4t erstellt einen kryptografischen Sicherheitsgutschein, der das Ergebnis des Abgleichs zusammen mit zus\u00e4tzlichen verschl\u00fcsselten Daten \u00fcber das Bild verschl\u00fcsselt. Dieser Gutschein wird zusammen mit dem Bild in iCloud Photos hochgeladen.<\/p>\n<p>Wohl um h\u00e4ufige Fehlalarme zu verhindern, will Apple eine zweite Technologie, die als \"threshold secret sharing\" bezeichnet wird, verwenden. Mit dieser Technologie soll das System sicherstellen, dass der Inhalt der Sicherheitsgutscheine von Apple nur dann interpretiert werden kann, wenn das iCloud Photos-Konto einen Schwellenwert f\u00fcr bekannte CSAM-Inhalte \u00fcberschreitet. Der Schwellenwert ist so festgelegt, dass er ein extrem hohes Ma\u00df an Genauigkeit bietet und gew\u00e4hrleistet, dass die Wahrscheinlichkeit, dass ein bestimmtes Konto f\u00e4lschlicherweise gekennzeichnet wird, weniger als eins zu einer Billion pro Jahr betr\u00e4gt.<\/p>\n<p>Wird der Schwellenwert \u00fcberschritten, erlaubt die kryptografische Technologie Apple, den Inhalt der mit den passenden CSAM-Bildern verkn\u00fcpften Sicherheitsbelege zu interpretieren. Apple \u00fcberpr\u00fcft dann manuell jeden Bericht, um zu best\u00e4tigen, dass eine \u00dcbereinstimmung vorliegt, deaktiviert das Konto des Nutzers und sendet einen Bericht an NCMEC. Wenn ein Nutzer der Meinung ist, dass sein Konto f\u00e4lschlicherweise gesperrt wurde, kann er Einspruch einlegen, damit sein Konto wieder aktiviert wird.<\/p>\n<p>Apple schreibt dazu: Diese innovative neue Technologie erm\u00f6glicht es Apple, dem NCMEC und den Strafverfolgungsbeh\u00f6rden wertvolle und verwertbare Informationen \u00fcber die Verbreitung von bekannten CSAM zu liefern. Dabei bietet sie im Vergleich zu bestehenden Techniken erhebliche Vorteile f\u00fcr den Datenschutz, da Apple nur dann von den Fotos der Nutzer erf\u00e4hrt, wenn diese eine Sammlung bekannter CSAM in ihrem iCloud-Fotokonto haben. Selbst in diesen F\u00e4llen erf\u00e4hrt Apple nur von Bildern, die mit bekannten CSAM \u00fcbereinstimmen.<\/p>\n<blockquote><p>Eine 12 Seiten umfassende \u00dcbersicht \u00fcber CSAM-Detection l\u00e4sst sich <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener\">als PDF-Dokument abrufen<\/a>.<\/p><\/blockquote>\n<h2>Erweiterte Hinweise in Siri und der Suche<\/h2>\n<p>Als letzte Ma\u00dfnahme erweitert Apple auch die Hilfestellungen in Siri und Search. Es werden zus\u00e4tzliche Ressourcen bereitstellt, die Kindern und Eltern helfen, online sicher zu bleiben und in unsicheren Situationen Hilfe zu erhalten. So werden Nutzer, die Siri fragen, wie sie CSAM oder die Ausbeutung von Kindern melden k\u00f6nnen, auf Ressourcen verwiesen, wo und wie sie eine Meldung machen k\u00f6nnen.<\/p>\n<p>Siri und die Suchfunktion werden ebenfalls aktualisiert, um einzugreifen, wenn Nutzer Suchanfragen zum Thema CSAM stellen. Diese Eingriffe erkl\u00e4ren den Nutzern, dass das Interesse an diesem Thema sch\u00e4dlich und problematisch ist, und stellen Ressourcen von Partnern zur Verf\u00fcgung, um Hilfe bei diesem Problem zu erhalten.<\/p>\n<p>Auch diese Aktualisierungen f\u00fcr Siri und die Suche im Laufe des Jahres 2022 mit einem Update f\u00fcr iOS 15, iPadOS 15, watchOS 8 und macOS Monterey in den USA ver\u00f6ffentlicht.<\/p>\n<h2>Die Ma\u00dfnahmen sind umstritten<\/h2>\n<p>Auf den ersten Blick wird Jeder wohl zustimmen, dass die Verbreitung von Kinderpornographie gestoppt werden muss. Sogenannte Pornoscans auf Cloud-Speichern wie Google Drive, OneDrive etc. sind bei US-Unternehmen gang und g\u00e4be (siehe auch Links am Artikelende). Zum Problem wird das Ganze, wenn unterschiedliche Ansichten vorherrschen, was als verwerflich gilt, oder wenn Funktionen zu unbeabsichtigten Folgen wie Kontensperren f\u00fchren. Denn diese ganzen Filter sind schlicht eine Black-Box f\u00fcr die Nutzer &#8211; und wer wei\u00df, was in drei, f\u00fcnf oder zehn Jahren aus der Technologie geworden ist.<\/p>\n<p>Daher rufen die Ma\u00dfnahmen auch Kritik aus Kreisen von Sicherheitsspezialisten hervor. Speziell die Funktion CSAM-Detection ist bei Sicherheitsaktivisten h\u00f6chst umstritten. Matthew Green, Professor f\u00fcr Kryptografie an der Johns Hopkins Universit\u00e4t weist in einer Folge von <a href=\"https:\/\/twitter.com\/matthew_d_green\/status\/1423071186616000513\" target=\"_blank\" rel=\"noopener\">Tweets<\/a> darauf hin, dass solche Scan-Funktion bereits lange eine Forderung der Strafverfolger sein &#8211; Apple \u00f6ffnet die T\u00fcr.<\/p>\n<p><a href=\"https:\/\/twitter.com\/matthew_d_green\/status\/1423071186616000513\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" title=\"Matthew Green about Apple CSAM Scanning\" src=\"https:\/\/i.imgur.com\/xy3M9Up.png\" alt=\"Matthew Green about Apple CSAM Scanning\" \/><\/a><\/p>\n<p>Auch <a href=\"https:\/\/twitter.com\/Snowden\/status\/1423387232963022848\" target=\"_blank\" rel=\"noopener\">Edward Snowden sieht<\/a> eine verteilte Massen\u00fcberwachung. Ich denke, das Thema wird, trotz des hehren Ziels, sicherlich die Gem\u00fcter noch eine Weile besch\u00e4ftigen. Die Gefahr eines Missbrauchs dieser Technologie liegt auf der Hand (wir haben ja in den letzten Jahren gesehen, wie sich die politischen Vorstellungen in den USA von einem Tag auf den anderen ver\u00e4ndern k\u00f6nnen). Und ob Leute, die untereinander Kinderpornos tauschen, auf andere Ger\u00e4te ausweichen, wird man sehen &#8211; dann bliebe lediglich \"wir von Apple sind sauber\", aber mit einer \u00dcberwachungsfunktion als Black-Box, \u00fcbrig. Da ist es auch kein Trost, dass die Funktionen (zun\u00e4chst) nur f\u00fcr die USA eingef\u00fchrt werden. Es bleibt also ein sensitives und schwieriges Thema.<\/p>\n<p><strong>Erg\u00e4nzungen:<\/strong> Diese Funktionen sollen zwar zun\u00e4chst nur in den USA eingef\u00fchrt werden. Sp\u00e4ter ist die Ausweitung auf weitere L\u00e4nder geplant (<a href=\"https:\/\/www.macrumors.com\/2021\/08\/06\/apple-to-consider-csam-detection-per-country\/?scrolla=5eb6d68b7fedc32c19ef33b4\" target=\"_blank\" rel=\"noopener\">siehe<\/a>). Sicherheitsredakteur J\u00fcrgen Schmidt hat im Kommentar <a href=\"https:\/\/www.heise.de\/meinung\/Totalueberwachung-durch-die-Hintertuer-Apples-fataler-Suendenfall-6157251.html\" target=\"_blank\" rel=\"noopener nofollow ugc external noreferrer\" data-wpel-link=\"external\">Total\u00fcberwachung durch die Hintert\u00fcr \u2013 Apples fataler S\u00fcndenfall<\/a> bei heise sch\u00f6n zusammen gefasst, was uns bl\u00fcht und warum Apple einen S\u00fcndenfall begeht. Generell bl\u00e4st Apple der Wind ins Gesicht, was aber laut <a href=\"https:\/\/9to5mac.com\/2021\/08\/06\/apple-internal-memo-icloud-photo-scanning-concerns\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> in einem internen Memo thematisiert wird. Apple ist fest entschlossen, dass durchzuziehen.<\/p>\n<p>Mal schauen, was die Lemminge so machen &#8211; ich gehe davon aus, dass sie freudig \u00fcber die Klippe springen (wir habe ja nichts zu verbergen). George Orwell hat den Roman <a href=\"https:\/\/de.wikipedia.org\/wiki\/1984_(Roman)\" target=\"_blank\" rel=\"noopener\">1984<\/a> in den Jahren von 1946 bis 1948 geschrieben &#8211; und 1984 ist nicht mal 40 Jahre her. Ohne jetzt als Reichsb\u00fcrger auftreten zu wollen, aber die dystopischen Ausf\u00fchrungen Orwells in Sachen \u00dcberwachungsstaat werden mit Riesenschritten umgesetzt (und in China ist in allem noch einen Schritt voraus). Das gilt es nun aufzuholen.<\/p>\n<p><strong>Erg\u00e4nzung:<\/strong> Inzwischen gibt es einen<a href=\"https:\/\/web.archive.org\/web\/20240903112611\/https:\/\/appleprivacyletter.com\/\" target=\"_blank\" rel=\"noopener\"> offenen Brief<\/a> von Fachleuten an Apple, die geplante Ma\u00dfnahme nicht umzusetzen.<\/p>\n<h2>CSAM-Scan von iCloud Mail schon seit 2019<\/h2>\n<p><strong>Erg\u00e4nzung 2:<\/strong> Jetzt hat Apple offiziell best\u00e4tigt, dass iCloud Mail schon seit 2019 auf CSAM (Child Sexual Abuse Material) gescannt wird. Das geht aus <a href=\"https:\/\/9to5mac.com\/2021\/08\/23\/apple-scans-icloud-mail-for-csam\/\" target=\"_blank\" rel=\"noopener\">einer Meldung<\/a> auf 9to5mac.com hervor. iCloud Photos oder iCloud-Backups wurden jedoch nicht gescannt. In einer archivierten Fassung eines <a href=\"https:\/\/web.archive.org\/web\/20200110193302\/https:\/\/www.apple.com\/legal\/child-safety\/en-ww\/index.html\" target=\"_blank\" rel=\"noopener\">Apple-Dokuments<\/a> findet sich eine entsprechende Ank\u00fcndigung. Neu ist das also nicht. Gegen\u00fcber 9to5mac.com hat Apple jetzt wohl aber einger\u00e4umt, ein- und ausgehenden iCloud Mails auf Kinderporno-Material zu scannen.<\/p>\n<p><strong>\u00c4hnliche Artikel:<\/strong><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2014\/08\/07\/auch-microsoft-macht-den-porno-scan\/\">Auch Microsoft macht den Porno-Scan<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2015\/01\/13\/microsoft-onedrive-inhaltsscans-und-porno-petze\/\">Microsoft, OneDrive, Inhaltsscans und 'Porno-Petze'<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2021\/06\/24\/microsoft-kontensperre-ein-exemplarischer-fall-und-microsofts-fail\/\">Microsoft-Kontensperre, ein exemplarischer Fall<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Gestern hat Apple angek\u00fcndigt, k\u00fcnftig Ger\u00e4te wie iPhones aber auch Macs vor einem Bilder-Upload in iCloud einen Scan auf Kinderpornos durchzuf\u00fchren. Auch f\u00fcr die Messages-App soll es einen Filter zum Kinderschutz geben. Dazu soll noch in 2021 eine CSAM-Erkennungstechnik (vorerst) &hellip; <a href=\"https:\/\/borncity.com\/blog\/2021\/08\/06\/apple-will-bald-gerte-auf-kinderpornos-scannen\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426],"tags":[4328],"class_list":["post-256441","post","type-post","status-publish","format-standard","hentry","category-sicherheit","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/256441","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=256441"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/256441\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=256441"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=256441"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=256441"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}