{"id":260596,"date":"2021-12-16T00:01:00","date_gmt":"2021-12-15T23:01:00","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=260596"},"modified":"2021-12-15T19:13:03","modified_gmt":"2021-12-15T18:13:03","slug":"apple-lscht-hinweise-auf-csam-auf-webseite","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2021\/12\/16\/apple-lscht-hinweise-auf-csam-auf-webseite\/","title":{"rendered":"Apple l&ouml;scht auf seiner Webseite Hinweise auf CSAM-Kinderporno-Scans"},"content":{"rendered":"<p><img decoding=\"async\" title=\"Sicherheit (Pexels, allgemeine Nutzung)\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline\" alt=\"Sicherheit (Pexels, allgemeine Nutzung)\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/04\/Sicherheit_klein.jpg\" width=\"200\" align=\"left\"\/>Apple ist ja mit dem Vorhaben vorgeprescht, sogenannte Kindersicherheitsfunktionen auf seinen Ger\u00e4ten (iPhone, Mac, Software) einzuf\u00fchren, die einen Scan auf Kinderpornos (CSAM) durchzuf\u00fchren sollen. Die Art der Einf\u00fchrung bzw. die Scans auf den Ger\u00e4ten wurde von Datensch\u00fctzern heftig kritisiert. Nun beginnt Apple mit der Einf\u00fchrung der CSAM-Funktion in iOS 15.2, und streicht gleichzeitig alle Erw\u00e4hnung in seiner Web-Dokumentation.<\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" alt=\"\" src=\"https:\/\/vg07.met.vgwort.de\/na\/3b7fd23f422c4edea3885d8b1719bdbb\" width=\"1\" height=\"1\"\/>Ich ja bereits im Blog-Beitrag <a href=\"https:\/\/borncity.com\/blog\/2021\/12\/14\/ios-15-2-verfgbar\/\">iOS 15.2 verf\u00fcgbar<\/a> darauf hingewiesen, dass der umstrittene Nacktfotofilter (CSAM) jetzt im Betriebssystem integriert wurde und sich aktuell nur f\u00fcr iMessages aktivieren l\u00e4sst. Nun berichtet <a href=\"https:\/\/www.macrumors.com\/2021\/12\/15\/apple-nixes-csam-references-website\/?scrolla=5eb6d68b7fedc32c19ef33b4\" target=\"_blank\" rel=\"noopener\">MacRumors hier<\/a>, dass Apple in heimlich alle Erw\u00e4hnungen von CSAM von seiner Kindersicherheits<a href=\"https:\/\/support.apple.com\/en-us\/HT212850\" target=\"_blank\" rel=\"noopener\">-Webseite<\/a> entfernt hat. Die Leute von MacRumors spekulieren nun, dass der umstrittener Plan, Bilder von sexuellem Kindesmissbrauch auf iPhones und iPads aufzusp\u00fcren, nach erheblicher Kritik an seinen Methoden in der Schwebe h\u00e4ngen k\u00f6nnte. Meine obige Erw\u00e4hnung, dass die Funktion mit iOS 15.2 ausgeliefert wird, zeigt aber, dass Apple das Ganze jetzt einf\u00fchrt. <\/p>\n<p>Der Apple-Sprecher Shane Bauer sagte gegen\u00fcber The Verge, dass die CSAM-Erkennungsfunktion zwar nicht mehr auf der Website erw\u00e4hnt wird, sich die Pl\u00e4ne f\u00fcr die CSAM-Erkennung aber seit September nicht ge\u00e4ndert haben.<\/p>\n<h2>Apple und die CSAM-Erkennungstechnik in Ger\u00e4ten<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" alt=\"\" src=\"https:\/\/vg07.met.vgwort.de\/na\/3b7fd23f422c4edea3885d8b1719bdbb\" width=\"1\" height=\"1\"\/>K\u00fcrzlich hatte ich ja im Beitrag <a href=\"https:\/\/borncity.com\/blog\/2021\/08\/06\/apple-will-bald-gerte-auf-kinderpornos-scannen\/\">Apple will bald Ger\u00e4te auf Kinderpornos scannen<\/a> berichtet, dass Apple noch in 2021 (vorerst) in den USA eine CSAM-Erkennungstechnik zur Erkennung von Kindesmissbrauch auf Ger\u00e4ten wie Macs, iPhones und iPads implementieren will. Das w\u00e4re zwar im Hinblick auf die Verhinderung der Verbreitung von Kinderpornographie eine gute Sache, wenn es nicht so viele Haken h\u00e4tte. <\/p>\n<p>Sicherheitsforscher sind jedenfalls alarmiert und lassen kein gutes Haar an der Sache. Sie sehen einen gef\u00e4hrlichen Pr\u00e4zedenzfall und bef\u00fcrchten, dass die Technik sp\u00e4ter zum Scan von allem m\u00f6glichen eingesetzt wird. Statt Scans auf Material zum Kindesmissbrauch auf den eigenen Servern durchzuf\u00fchren, was bei US-Unternehmen seit Jahren Usus ist, kann Apple mit CSAM die Ger\u00e4te auf Inhalte durchsuchen lassen. <\/p>\n<p>Edward Snowden kritisiert, dass Apple damit ein \u00dcberwachungssystem schaffe, mit dem Ger\u00e4te auf beliebige Inhalte durchsucht werden k\u00f6nnten \u2013 und Apple gibt die Kriterien vor.<\/p>\n<p><strong>\u00c4hnliche Artikel:<\/strong><br \/><a href=\"https:\/\/borncity.com\/blog\/2021\/08\/06\/apple-will-bald-gerte-auf-kinderpornos-scannen\/\">Apple will bald Ger\u00e4te auf Kinderpornos scannen<\/a><br \/><a href=\"https:\/\/borncity.com\/blog\/2021\/08\/27\/sndenfall-apple-die-privatsphre-und-der-kinderschutz-aber-man-kriegt-selbst-nix-auf-die-reihe\/\">S\u00fcndenfall: Apple, die Privatsph\u00e4re und der Kinderschutz \u2013 aber man kriegt selbst nix auf die Reihe<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Apple ist ja mit dem Vorhaben vorgeprescht, sogenannte Kindersicherheitsfunktionen auf seinen Ger\u00e4ten (iPhone, Mac, Software) einzuf\u00fchren, die einen Scan auf Kinderpornos (CSAM) durchzuf\u00fchren sollen. Die Art der Einf\u00fchrung bzw. die Scans auf den Ger\u00e4ten wurde von Datensch\u00fctzern heftig kritisiert. Nun &hellip; <a href=\"https:\/\/borncity.com\/blog\/2021\/12\/16\/apple-lscht-hinweise-auf-csam-auf-webseite\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426],"tags":[4328],"class_list":["post-260596","post","type-post","status-publish","format-standard","hentry","category-sicherheit","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/260596","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=260596"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/260596\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=260596"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=260596"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=260596"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}