Gestern hat Apple angekündigt, künftig Geräte wie iPhones aber auch Macs vor einem Bilder-Upload in iCloud einen Scan auf Kinderpornos durchzuführen. Auch für die Messages-App soll es einen Filter zum Kinderschutz geben. Dazu soll noch in 2021 eine CSAM-Erkennungstechnik (vorerst) in den USA auf den Geräten zum Einsatz kommen. So begrüßenswert die Geschichte im Hinblick auf die Verhinderung der Verbreitung von Kinderpornographie ist, Sicherheitsforscher sind alarmiert.
Anzeige
Im Dokument Expanded Protections for Children beschreibt Apple seine Pläne im Hinblick auf den Schutz von Kindern. Dazu schreibt der Konzern, dass man Kinder vor Personen schützen möchte, die die (Apple-) Kommunikationsmittel nutzen, um Kinder anzuwerben und auszubeuten. Zudem will Apple die Verbreitung von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) einschränken. In dieser Angelegenheit hat man mit entsprechenden Organisationen in den USA, die sich dem Schutz von Kindern widmen, zusammen gearbeitet.
Kindersicherheitsfunktionen in drei Bereichen
Apple führt neue Kindersicherheitsfunktionen in drei Bereichen ein, die in Zusammenarbeit mit Kindersicherheitsexperten entwickelt wurden. Erstens werden neue Kommunikationswerkzeuge Eltern in die Lage versetzen, ihre Kinder bei der Online-Kommunikation besser zu unterstützen. Die Nachrichten-App wird maschinelles Lernen auf dem Gerät nutzen, um vor sensiblen Inhalten zu warnen, während private Kommunikation für Apple unlesbar bleiben soll.
Als nächstes werden iOS und iPadOS neue Anwendungen der Kryptographie nutzen, um die Verbreitung von CSAM (Bilder mit Kindesmissbrauch) im Internet einzuschränken und gleichzeitig die Privatsphäre der Nutzer zu schützen. Die Erkennung von CSAM soll Apple dabei helfen, den Strafverfolgungsbehörden wertvolle Informationen über Sammlungen von CSAM-Material in iCloud Photos zu liefern.
Schließlich bieten die Aktualisierungen von Siri und Search Eltern und Kindern erweiterte Informationen und Hilfe, wenn sie in unsichere Situationen geraten. Siri und Search werden auch eingreifen, wenn Nutzer versuchen, nach CSAM-bezogenen Themen zu suchen.
Anzeige
Für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey
Apple will die oben genannten Funktionen im Laufe des Jahres mit den Updates für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey in den USA einführen.
iPhone CSAM-Features, Quelle: Apple
Weiterhin soll die Nachrichten-App (Messages) neue Funktionen erhalten, um Kinder und ihre Eltern zu warnen, wenn sie sexuell eindeutige Fotos erhalten oder senden. Beim Empfang dieser Art von Inhalten wird das Foto unscharf dargestellt und das Kind wird gewarnt, mit hilfreichen Ressourcen versorgt und ihm wird versichert, dass es in Ordnung ist, wenn es dieses Foto nicht ansehen möchte.
Als zusätzliche Vorsichtsmaßnahme kann dem Kind mitgeteilt werden, dass seine Eltern eine Nachricht erhalten, wenn es das Foto doch ansieht, um sicherzugehen, dass es sicher ist. Ähnliche Schutzmaßnahmen gibt es, wenn ein Kind versucht, sexuell eindeutige Fotos zu versenden. Das Kind wird gewarnt, bevor es das Foto versendet, und die Eltern können eine Nachricht erhalten, wenn das Kind sich entscheidet, es zu versenden.
Die Messages-App verwendet geräteinternes maschinelles Lernen, um Bildanhänge zu analysieren und festzustellen, ob ein Foto sexuell explizit ist. Die Funktion ist so konzipiert, dass Apple keinen Zugriff auf die Nachrichten erhält, schreibt das Unternehmen. Diese Funktion wird im Laufe des Jahres 2021 mit einem Update für Familien-Konten eingeführt, die in iCloud für iOS 15, iPadOS 15 und macOS Monterey eingerichtet sind.
CSAM-Scans auf Geräten
Ein weiteres Problem ist die Verbreitung von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) im Internet. CSAM bezieht sich auf Inhalte, die sexuell eindeutige Aktivitäten mit einem Kind darstellen. Als Gegenmaßnahme wird Apple in iOS und iPadOS neue Technologie integrieren. Diese SCAM-Scan-Technologie soll Apple ermöglichen, bekannte CSAM-Bilder zu erkennen, die in iCloud Photos gespeichert sind. Diese Scans werden (zunächst) für die USA eingeführt. Diese Technologie ermöglicht es Apple, entsprechende Fälle an das National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC fungiert als umfassende Meldestelle für CSAM und arbeitet mit Strafverfolgungsbehörden in den gesamten Vereinigten Staaten zusammen.
Apples Methode zur Erkennung bekannter CSAM ist, laut Unternehmen, auf den Schutz der Privatsphäre der Nutzer ausgerichtet. Anstatt Bilder in der Cloud zu scannen, führt das System einen geräteinternen Abgleich mit einer Datenbank bekannter CSAM-Bild-Hashes durch, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Apple wandelt diese Datenbank in einen unlesbaren Satz von Hashes um, der sicher auf den Geräten der Benutzer gespeichert wird.
Bevor ein Bild in iCloud Fotos gespeichert wird, erfolgt ein geräteinterner Abgleich mit den bekannten CSAM-Hashes. Dieser Abgleich wird durch eine kryptografische Technologie namens "Private Set Intersection" unterstützt. Diese Technologie stellt fest, ob eine Übereinstimmung vorliegt, ohne das Ergebnis offenzulegen. Das Gerät erstellt einen kryptografischen Sicherheitsgutschein, der das Ergebnis des Abgleichs zusammen mit zusätzlichen verschlüsselten Daten über das Bild verschlüsselt. Dieser Gutschein wird zusammen mit dem Bild in iCloud Photos hochgeladen.
Wohl um häufige Fehlalarme zu verhindern, will Apple eine zweite Technologie, die als "threshold secret sharing" bezeichnet wird, verwenden. Mit dieser Technologie soll das System sicherstellen, dass der Inhalt der Sicherheitsgutscheine von Apple nur dann interpretiert werden kann, wenn das iCloud Photos-Konto einen Schwellenwert für bekannte CSAM-Inhalte überschreitet. Der Schwellenwert ist so festgelegt, dass er ein extrem hohes Maß an Genauigkeit bietet und gewährleistet, dass die Wahrscheinlichkeit, dass ein bestimmtes Konto fälschlicherweise gekennzeichnet wird, weniger als eins zu einer Billion pro Jahr beträgt.
Wird der Schwellenwert überschritten, erlaubt die kryptografische Technologie Apple, den Inhalt der mit den passenden CSAM-Bildern verknüpften Sicherheitsbelege zu interpretieren. Apple überprüft dann manuell jeden Bericht, um zu bestätigen, dass eine Übereinstimmung vorliegt, deaktiviert das Konto des Nutzers und sendet einen Bericht an NCMEC. Wenn ein Nutzer der Meinung ist, dass sein Konto fälschlicherweise gesperrt wurde, kann er Einspruch einlegen, damit sein Konto wieder aktiviert wird.
Apple schreibt dazu: Diese innovative neue Technologie ermöglicht es Apple, dem NCMEC und den Strafverfolgungsbehörden wertvolle und verwertbare Informationen über die Verbreitung von bekannten CSAM zu liefern. Dabei bietet sie im Vergleich zu bestehenden Techniken erhebliche Vorteile für den Datenschutz, da Apple nur dann von den Fotos der Nutzer erfährt, wenn diese eine Sammlung bekannter CSAM in ihrem iCloud-Fotokonto haben. Selbst in diesen Fällen erfährt Apple nur von Bildern, die mit bekannten CSAM übereinstimmen.
Eine 12 Seiten umfassende Übersicht über CSAM-Detection lässt sich als PDF-Dokument abrufen.
Erweiterte Hinweise in Siri und der Suche
Als letzte Maßnahme erweitert Apple auch die Hilfestellungen in Siri und Search. Es werden zusätzliche Ressourcen bereitstellt, die Kindern und Eltern helfen, online sicher zu bleiben und in unsicheren Situationen Hilfe zu erhalten. So werden Nutzer, die Siri fragen, wie sie CSAM oder die Ausbeutung von Kindern melden können, auf Ressourcen verwiesen, wo und wie sie eine Meldung machen können.
Siri und die Suchfunktion werden ebenfalls aktualisiert, um einzugreifen, wenn Nutzer Suchanfragen zum Thema CSAM stellen. Diese Eingriffe erklären den Nutzern, dass das Interesse an diesem Thema schädlich und problematisch ist, und stellen Ressourcen von Partnern zur Verfügung, um Hilfe bei diesem Problem zu erhalten.
Auch diese Aktualisierungen für Siri und die Suche im Laufe des Jahres 2022 mit einem Update für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey in den USA veröffentlicht.
Die Maßnahmen sind umstritten
Auf den ersten Blick wird Jeder wohl zustimmen, dass die Verbreitung von Kinderpornographie gestoppt werden muss. Sogenannte Pornoscans auf Cloud-Speichern wie Google Drive, OneDrive etc. sind bei US-Unternehmen gang und gäbe (siehe auch Links am Artikelende). Zum Problem wird das Ganze, wenn unterschiedliche Ansichten vorherrschen, was als verwerflich gilt, oder wenn Funktionen zu unbeabsichtigten Folgen wie Kontensperren führen. Denn diese ganzen Filter sind schlicht eine Black-Box für die Nutzer – und wer weiß, was in drei, fünf oder zehn Jahren aus der Technologie geworden ist.
Daher rufen die Maßnahmen auch Kritik aus Kreisen von Sicherheitsspezialisten hervor. Speziell die Funktion CSAM-Detection ist bei Sicherheitsaktivisten höchst umstritten. Matthew Green, Professor für Kryptografie an der Johns Hopkins Universität weist in einer Folge von Tweets darauf hin, dass solche Scan-Funktion bereits lange eine Forderung der Strafverfolger sein – Apple öffnet die Tür.
Auch Edward Snowden sieht eine verteilte Massenüberwachung. Ich denke, das Thema wird, trotz des hehren Ziels, sicherlich die Gemüter noch eine Weile beschäftigen. Die Gefahr eines Missbrauchs dieser Technologie liegt auf der Hand (wir haben ja in den letzten Jahren gesehen, wie sich die politischen Vorstellungen in den USA von einem Tag auf den anderen verändern können). Und ob Leute, die untereinander Kinderpornos tauschen, auf andere Geräte ausweichen, wird man sehen – dann bliebe lediglich "wir von Apple sind sauber", aber mit einer Überwachungsfunktion als Black-Box, übrig. Da ist es auch kein Trost, dass die Funktionen (zunächst) nur für die USA eingeführt werden. Es bleibt also ein sensitives und schwieriges Thema.
Ergänzungen: Diese Funktionen sollen zwar zunächst nur in den USA eingeführt werden. Später ist die Ausweitung auf weitere Länder geplant (siehe). Sicherheitsredakteur Jürgen Schmidt hat im Kommentar Totalüberwachung durch die Hintertür – Apples fataler Sündenfall bei heise schön zusammen gefasst, was uns blüht und warum Apple einen Sündenfall begeht. Generell bläst Apple der Wind ins Gesicht, was aber laut diesem Artikel in einem internen Memo thematisiert wird. Apple ist fest entschlossen, dass durchzuziehen.
Mal schauen, was die Lemminge so machen – ich gehe davon aus, dass sie freudig über die Klippe springen (wir habe ja nichts zu verbergen). George Orwell hat den Roman 1984 in den Jahren von 1946 bis 1948 geschrieben – und 1984 ist nicht mal 40 Jahre her. Ohne jetzt als Reichsbürger auftreten zu wollen, aber die dystopischen Ausführungen Orwells in Sachen Überwachungsstaat werden mit Riesenschritten umgesetzt (und in China ist in allem noch einen Schritt voraus). Das gilt es nun aufzuholen.
Ergänzung: Inzwischen gibt es einen offenen Brief von Fachleuten an Apple, die geplante Maßnahme nicht umzusetzen.
CSAM-Scan von iCloud Mail schon seit 2019
Ergänzung 2: Jetzt hat Apple offiziell bestätigt, dass iCloud Mail schon seit 2019 auf CSAM (Child Sexual Abuse Material) gescannt wird. Das geht aus einer Meldung auf 9to5mac.com hervor. iCloud Photos oder iCloud-Backups wurden jedoch nicht gescannt. In einer archivierten Fassung eines Apple-Dokuments findet sich eine entsprechende Ankündigung. Neu ist das also nicht. Gegenüber 9to5mac.com hat Apple jetzt wohl aber eingeräumt, ein- und ausgehenden iCloud Mails auf Kinderporno-Material zu scannen.
Ähnliche Artikel:
Auch Microsoft macht den Porno-Scan
Microsoft, OneDrive, Inhaltsscans und 'Porno-Petze'
Microsoft-Kontensperre, ein exemplarischer Fall
Anzeige
Irgendwann scannen sie also auch die privaten und lokalen Rechner. Das war's dann wohl langfristig mit meiner Nutzung von Apple. Egal, wie edel die Gründe auch sind, mir schaut keiner auf die Festplatte.
Schade, ich war ein intensiver Nutzer der Produkte dieser Firma: iMac Macbook iPad iPhone, Watch und die neuen Tags. Aber Linux tut es auch.
Ich habe mir vor 10 Tagen zum Erstenmal ein iPhone zugelegt, weil ich von Google`s permanenter Nachspioniererei die Nase gestrichen voll hatte. Bis Montag habe ich noch Zeit es zurückzugegben. Mal sehen, was da noch an Informationen eintrudelt.
Unterm Strich muss ich leider sagen, dass iOS dem Nutzer ganz schön die Fesseln anlegt, da ist Android eindeutig freier und in der Bedienung unkomplizierter. Ich habs bislang in Kauf genommen, weil es bis zuletzt noch so aussah, als wäre iOS gerade im Bereich der App-Kontrolle von Vorteil.
Das wird dann so enden wie mit Microsofts Konto Sperrungen, das am Ende du nie mehr an deine gespeicherten Daten ran kommst!
weil wilkürlich Konto gesperrt werden, auch wenn Apple hier schreib Konto können entsperrt werde.
zusätzlich Datenüberwachung des Users :-(
Georg Orwell 1984 lässt grüßen
Das wird (irgendwann) noch weiter gehen. Wenn der Account gesperrt wird, werden dann gleich die registrierten Geräte unbrauchbar gemacht. Alles natürlich mit Verweis auf den angeblichen Verstoß gegen die Nutzungsrichtlinien und 100% sicheren Erkennungstechnologie.
Wer immer noch auf diese diktatorische Firma setzt, sollte sich endlich mal nach etwas anderem umsehen.
Ist wirklich ein schweres Thema. Nur sehe ich trotzdem nicht ein warum der Hersteller mein Telefon automatisiert durchsuchen dürfen sollte. Generalverdacht gegen alle ist das der Kodex unserer Zeit? Davon abgesehen wird das Telefon den Job wohl nicht selber übernehmen also wird hier sicher eine Datenübertragung an die Apple Server stattfinden, Datenschutz? Ich habe kein Apple Telefon aber machen wir uns nichts vor, wenn das durchgeht wird Google sicher auch auf den Zug aufspringen. Ich sehe mich schon mein eigenes Telefon bauen. Danke deutsche Provider das ihr 3G und nicht GSM abgeschalten habt, denn das macht den Job sein eigenes Handy zu bauen noch einfacher und billiger. Ich kauf schon mal ein paar Rapberry Pi Zero, den Musik sollte man damit schon noch abspielen können :D
Bei Google hättest du immerhin die Möglichkeit, das zu umgehen. Notfalls per Root oder Custom ROM wie Lineage OS.
So findet man u.a. auch einfach heraus, wer die "falschen" Memes oder Screenshots von "falschen" Tweets oder sonstige Bild-, PDF-, usw. Dateien mit "falschen" Inhalten speichert, schöne neue Welt…
Und wieder wird das Thema KiPo missbraucht, um die Allmachtsfantasien der Tech Giganten weiter auszubauen. Und viele werden das achselzuckend hinnehmen, denn die Argumentation "die armen Kinder" verfängt nur allzu häufig. Das mit "false Positives" Existenzen vernichtet werden können, wird als Kolateralschaden in Kauf genommen.
Muss jeder selbst wissen, ob er sich Cupertino derart unterwirft.
Das hieße ja, Apple als Polizeibehörde zu akzeptieren.
Eine ausländische zudem.
Tz.
In den Europäischen Ländern dürfte Apple aufgrund der geltenden DSGVO rechtlich probleme kriegen, wenn Apple auf die Idee kommen sollte das auch in Europa zu machen. Ich denke eher das Apple mehr Daten über die Apple nutzer sammeln will auf diesem weg. Halte die begründung von Apple nur für vorgeschoben, ist aber nur meine Meinung.
Apple kann das ohne Probleme machen. Microsoft praktiziert dies auch: Wenn Du was in OneDrive hochlädst, oder wenn Du Skype verwendest – ebenfalls beim X-Box Sprachchat.
Bei Letzterem geht es sogar noch weiter, wenn Du mal die einschlägige Berichterstattung verfolgst und deren Nutzungsbedingungen liest, die eine zeit lang fast monatlich aktualisiert wurden. Skype und Video-Schweinkram mit der Holden? Konnte eine Kontensperre nach sich ziehen, wobei ich mich frage, ob da Personen oder eine Software observierten. Ich ahne eher Personen…
Sprachchat ebenfalls, schon bevor andere Spieler sich beschweren, kannst Du als Nutzer ausgeschlossen werden. Je nachdem, welche Wortwahl Du nutzt.
Es wird seitens Apple kommen. Technisch möglicherweise so gelöst, wie es Microsoft macht: Bild wird in SW transkodiert, ein Hash erzeugt, mit bekannten KiPos abgeglichen. Evtl. gehen sie noch weiter, man wird sehen.
Vielleicht endet jetzt mal die Idiotie der Menschen, alles mögliche ungesichert per Dritt-Mailer zu versenden oder in die Cloud abzulegen. Das würde ich nur mit verschlüsselten Dateien machen, die wiederum ebenfalls zu einer Kontensperre führen können…
Es gibt hier einen kleinen Unterschied: MS scannt nicht deine Geräte, sondern nur das, was bereits hochgeladen wurde.
Das mit den Hashwerten ist ohnehin der größte Schwachsinn. Eine winzige Kleinigkeit verändern und schon ist der Hashwert ein ganz anderer. Ja, wirklich effektiv. Viel Spaß beim pflegen der Datenbank.
MS hatte ja damals sogar das Problem, daß der SHA-Wert zu klein war und selbst harmlose Dokumente (PDF) mit angeblichen KiPo kollidierten.
Wie, der war zu klein? Selbst SHA-1 ist ja eigentlich nicht gerade kurz. Im Gegensatz zu CRC32. Um welches SHA ging es eigentlich?
Lag der Fehler im System oder bei MS, weil die andere Hashes hätten nehmen müssen?
Wie hoch war denn die Wahrscheinlichkeit, dass 2 komplett unterschiedliche Dateien denselben Hashwert hatten? Das würde mich generell brennend interessieren.
Wenn ich an meine Oma oder Tanten denke, die von den Enkeln immer Fotos machen, auch Mal, wenn die nackig durch den Garten laufen, kann das sehr witzig werden… 😬
MfG,
Blackii
Das ist auch so schon nicht witzig. Es ist mir schleierhaft, warum Verwandte nackte Kinder fotografieren müssen. Ein Kind empfindet noch keine Scham aber ein paar Jahre später findet man es u. U. nicht mehr so lustig, dass man unerlaubt fotografiert wurde, als man keine Kleidung trug.
Ich kann verstehen, wenn Familien völlig ungeniert Fotos machen. Ist ja auch alles kein Problem. Das Problem beginnt genau dann, wenn man anfängt, diese privaten Familienfotos online zugänglich zu machen. Seien es soziale Medien, Freunde / Bekannte per Mail/Messenger (wie WhatsApp) oder Cloud. Das ist ein NoGo. Und kein Erwachsener hat auch nur ansatzweise das Recht, Fotos seiner (Enkel-)kinder zu veröffentlichen! Es ist *verboten*. Ja, auch Eltern ist es *verboten*. Das raffen nur viele Leute nicht.
Klebt euch die Fotos ins Familienalbum und legt es in den Schrank. Bitte nicht bei Online-Diensten drucken lassen, da ist genau dasselbe Problem… (öffentlich machen).
Nur weil ein Foto in die Wolke (automatisch) hochgeladen wird, ist es nicht automatisch veröffentlicht!
Doch, genau das ist es, denn es haben Dritte Zugriff darauf und ist nicht mehr unter persönlicher Kontrolle.
Betreiber, Administratoren, Eindringlinge (Hacker, Personen mit Zugriffsmöglichkeit etc.). Die Bandbreite ist groß.
Ziehe bitte keine Analogie zu diesem Unsinn: https://www.ra-himburg-berlin.de/fotorecht/urteile/973-fotos-hochladen-in-cloud-keine-urheberrechtsverletzung.html
"Administratoren, Eindringlinge (Hacker, Personen mit Zugriffsmöglichkeit etc.)"
Und genau damit wäre auch automatisch eine Veröffentlichung, wenn du es "nur" lokal speicherst. Merkste selbst, dass deine Argumentation nicht so richtig zieht. ;)
In meinen Augen wird KiPo dazu missbraucht ein Überwachungsnetz aufzubauen das Staaten ermöglicht den Bürger gezielt auszuspionieren. Wer glaubt das es wirklich primär um KiPo geht der glaubt auch noch an den Weihnachtsmann.
Damit lässt sich gezielt auch nach religiösen, politischen usw. Themen suchen.
Und über das Thema False Positive Erkennung will ich gar nicht erst nachdenken, einmal unschuldig gebrandmarkt wirst du diesen Makel nie wieder los.
Das ist keine neue Erkenntnis. 2009 gab es einen Vorstoß von Zensursula, bei dem Internetprovider KiPo-Seiten sperren sollten. Es dauerte nicht lange, bis Rufe von anderen Politikern kamen, diese Sperren auf andere Bereiche auszuweiten. Soweit ist es glücklicherweise nicht gekommen.
Die Rufe von 2009 werden dann auch 2021+ wieder kommen.
Jürgen Schmidt hat es bei heise im Kommentar Totalüberwachung durch die Hintertür – Apples fataler Sündenfall schön zusammen gefasst.
Aber die Lemminge werden auch freudig über diese Klippe springen. Ich knipse derweil dann mal das Internet, wie wir es bisher kannten, aus.
Ja, der Kommentar von Jürgen Schmidt ist wirklich gut zeit die Bandbreite der Problematik die entsteht. Im Grunde genommen wird die Büchse der Pandora geöffnet und die Hemmschwelle für weitere "Maßnahmen" sinkt deutlich, sie sind dann mehr oder weniger nur noch Formsache.
Punkt 2) ist ein wichtiger Punkt. In China haben sie sich ja bereits der dortigen Regierung willenlos unterworfen und gewisse Apps aus dem Store genommen. Extrem pikant, wenn man bedenkt, dass der Store die einzige Quelle ist, um überhaupt an Apps zu kommen. Für Taiwan, Hongkong und Tibet kann es düster werden.
Das Problem im Universum dieser Lemminge ist halt, dass sie abgesehen von einem kompletten Neuanfang keinerlei Chancen haben sich dem zu entziehen. Sie sind, wenn sie das OS wollen, auf den einen Gerätehersteller angewiesen und besitzen im OS und auch am Gerät keinerlei Rechte. Bei Android ist es einfacher dagegen vorzugehen, allerdings nicht unbedingt für den Normalnutzer. Jedoch besteht hier die Chance der Hersteller, sich positiv hervorzuheben. Denn jeder kann Android nach eigenen Wünschen anpassen.
Sollte sich das durchsetzen, wird es in 10 Jahren kein freies Internet mehr geben. Verpflichtendes TPM wird das sicher noch erleichtern.
Die Hemmschwelle ist doch schon gesunken. Siehe grenzenloser Einsatz des Bundestrojaners. "Nein, wird nie nicht so weit kommen." und was ist? Genau das, was die Aluhut-Träger damals prognostiziert haben.
Und ich sage auch: Alles, was technisch an Spielereien machbar ist / wäre, wird früher oder später auch genutzt werden. 100 pro, Rechtsstaat hin oder her (Papier ist geduldig, Gesetze sind schnell angepasst).
Das schlimme an von der Leyens Vorstoß war, dass Sie es ein paar Laien schwer machte, und andererseits den Profis eine bundeseigene Linkliste für Pädophile geliefert hatte .
Wie das genau ablaufen hätte sollen, weiß ich nicht mehr. Hätten die "Profis" eine Linkliste frei Haus erhalten, wäre das ähnlich wie bei den Indizierungen und Beschlagnahmungen von Medien: Ursprünglich gedacht, um Jugendliche zu schützen, waren die Listen mit so ziemlich allen indizierten und beschlagnahmten Medien auf diversen Seiten im Netz abrufbar. Diese Liste ist/war dann praktisch eine Konsumliste für Jugendliche. Der Witz daran war/ist, dass Jugendliche durch diese Listen auch "jugendgefährdende" Medien konsumiert haben, auf die sie sonst wahrscheinlich nie gekommen wären. In der Schule wurde dann fleißig getauscht, denn es reichte ja, wenn einer Internet hat. Hier wurde und wird im Grunde genommen genau das Gegenteil des eigentlichen Ziels erreicht. Auch wenn die BPJM heute nicht mehr ganz so in der Steinzeit lebt wie vor 20 Jahren.
ich zitiere einfach denjenigen, der diese Möglichkeit seinerzeit in der Fachkommission für die Kinderpornosperre vorgetragen hatte und die letzten Endes den endgültigen Sargnagel für von der Leyens Lieblingsprojekt bedeutete.
"Es gibt aus verschiedenen Quellen Listen etwa aller angemeldeten .com-Domains. Die in einer kleinen Programmschleife beim Provider-DNS abzufragen, ist trivial. Und wenn ein www. x .com oder x.com auf die IP-Adresse des Stopp-Servers auflöst, dann weiß man, daß es dort Kinderpornographie zu finden gibt, ohne auch nur ein einziges Mal die Seite besucht und sich verdächtig gemacht zu haben"
Es gab ja noch mehr offene Baustellen, aber dass bedeutete definitiv an der eigenen Forderung zu scheitern, dass die Listen keinesfalls in unbefugte Hände geraten dürfen. Das was letzte Endes im Netz als Sperre lief war daher ein Bluff, damit keiner das Scheitern bemerkte. Es wäre ja schon eine schöne Ironie gewesen, von der Leyen hätte Pädophile mit Linklisten versorgt (das hätte Sie uns andererseits als EU-Präsidentin erspart)
wenigstens kann man sagen, dass Apple seine Benutzer darüber informiert. Nur frage ich mich, was es dann noch nützen soll, wenn bekannt ist, dass Daten auf iPhones oder Macs gescannt werden? Welcher Pädophile lädt überhaupt seine Bilddateien auf Server eines U.S. Unternehmens? Hatte man in der letzten Zeit nicht immer wieder gehört, das Kinderpornographie auf privaten Servern gehostet wurde?
Ein paar Ahnungslose wird man zwar erwischen, aber das wäre doch so, als würde man einen Schlag gegen die organisierte Kriminalitär planen und sich damit zufrieden geben ein paar Ladendiebstähle aufzudecken.
"wenigstens kann man sagen, dass Apple seine Benutzer darüber informiert."
Das wäre doch so oder so irgendwann rausgekommen. Spätestens wenn jemand (zu unrecht) beschuldigt wird. Dann gäbe es durchaus Fragezeichen, wie es zu dieser Beschuldigung kommen konnte. Das wäre letztendlich der GAU, dem man durch Pseudotransparenz etwas vorwirken möchte.
Das Enigma Problem. Ich kann dich lesen, aber du sollst das nicht wissen, damit keine Gegenmaßnahmen ergriffen werden.
Man würde die iOS Daten nur als Ausgangsbasis nutzen, bei wem man fahnden kann. Daher wundert es mich schon, dass Apple frei heraus ausposaunt, dass sie mitlesen können. Ist das die Flucht nach vorne, weil Sie gar nicht mehr anders können?
Richtig gefährlich wird es immer dann, wenn sich riesige Unternehmen und die Politik in der Sache einig sind und dann gemeinsame Sache "im positiven Sinne der unbescholtenen Bürger" machen. Der "brave Bürger" soll nach Möglichkeit natürlich brav bleiben und am besten sogar noch etwas braver werden. Natürlich alles wie immer unter dem Deckmantel die wirklich "bösen Bürger" zu entdecken und dingfest zu machen. Hier eine Sicherheitsstellschraube angezogen, dann dort eine, nach einiger Zeit wieder eine, usw., usw. Fingerabdrücke z. B., hat man früher i. d. R. nur von maßgeblichen Verbrechern angefertigt und evtl. generell in autokratischen und diktatorischen Staaten. Seit diesem Monat "darf" ja jeder von uns seine Fingerabdrücke abgeben, sobald er einen neuen Perso braucht. Dient natürlich NUR mal wieder der Sicherheit von uns allen und hat absolut keine Nachteile…
Der schleichende Weg in die totale Überwachung ist wohl nur noch sehr kurz und wohl auch nicht mehr verhinderbar…
"Und ob Leute, die untereinander Kinderpornos tauschen, auf andere Geräte ausweichen, wird man sehen – dann bliebe lediglich „wir von Apple sind sauber", aber mit einer Überwachungsfunktion als Black-Box, übrig."
Ich glaube, darum geht es Apple letztlich, Günter. Oder glaubt irgendwer, die große Masse kinderpornografischen Bildmaterials lagert auf Apples i-cloud. Wenn das als Marketing Element gedacht war, dann bin ich ja mal gespannt, ob das Update auf iOS 15 ungewöhnlich widerwillig erfolgt und ob man dann doch zurückrudert. Man kann nur hoffen, Apples Nutzer setzen ein Zeichen.
Macht es einer, werden alle anderen sicher freudig folgen. Dann kommen Google und Microsoft (Win11, TPM Pflicht) hinterhergechechelt, um auch was "gutes zu tun" und natürlich nur, um alle Kinder zu beschützen.
Nicht falsch verstehen, ich als Familienvater verabscheue Gewalt gegen Kinder und manchmal würde man am liebsten "selbst für Gerechtigkeit sorgen" wollen, aber so eine Total-Überwachung mittels Dauerscan ist ja quasi noch viel schlimmer als jedes "1984"…Da kann man ja gleich seine Persönlichkeit abgeben, und seine Privatsphäre sowieso.
Unfassbar, das so etwas tatsächlich diskutiert wird.
Nun ja, dann kommt es halt in "abgemilderter Form", weil man ja den "Datenschutz berücksichtigen" muss…
Wir werden Ver-apple-t , und zwar richtig, und für die Politiker ist das ganz sicher auch eine feine Sache.
Für "Wehret den Anfängen" ist es bereits zu spät, seitdem es Smartphones gibt.
Wir haben unsere Privatspähre und Persönlichkeit bereits an die Konzerne verkauft….Und dafür mussten wir auch noch Geld bezahlen. Eben wie Schafe zur Schlachtbank, die müssen auch vorher noch Ihre Wolle lassen….
"Brot und Spiele" und die meisten Apple-Jünger werden folgen.
Bin ja selten sprachlos aber die Meldung hat es fast geschafft. Das lässt sich nicht mal mehr mit der "Stasi" vergleichen, denn selbst deren Kontrolle ließ so etwas nicht zu. Das entspricht der totalen Kontrolle auf alle Geräte, den Onlinespeicher, Ausspielen von Werbung, Monetarisierung schlechthin. Apple-Nutzer erinnern dann an eine Kuh-Herde die gemolken wird und kein Ende in Sicht. Der Schutz vor KiPo ist dann nur ein vorgeschobenes Feigenblatt, um das Alles zu tarnen und zu verschleiern…
Das wird lustig…
in diesem Land ist es erlaubt, das 14jährige mit bis zu 21jährigen Sex haben und ab 16 ist open End angesagt.
Ab wann beginnt denn Kinderpornografie? Unter 14, oder auch schon, wenn zwei legal meinen beim Sex lustige Bildchen voneinander zu machen?
Ich rede hier nicht von den Kaputten, die "Kinder" tatsächlich ausnutzen für dreckige Eigenarten, oder Geschäftemacherei, aber das extrem junge Paar, ist theoretisch, wie praktisch auch noch Kind! Die Nummer geht doch irgendwann mal schief, wenn das wirklich so durchgezogen wird.
Dieses Kontrollieren von Daten sorgt nur dafür, das man der Cloud schlicht nicht vertrauen kann. Wer da Daten speichert, hat selbst schuld
Die richtigen Schweine nutzen sicher nicht ihr iPhone um Bilder zu verticken…
OneDrive funktioniert ja ähnlich bekloppt, aber man hat, außer von Kontensperren, noch nichts wildes gehört, oder? Günter?
Es soll ja alles zu "unserem Wohl" sein…Eine KI entscheidet hier über Konten-Sperre oder Weitergabe von Daten an Staatsorgane, und die ist ja unfehlbar….
Da denkt man, das der Mensch hier die letzte Instanz ist, aber nein, eine zweite KI prüft dann nochmals…die Ticken nicht mehr ganz sauber.
Ist man einmal fälschlicherweise und unschuldig in so etwas hineingeraten, ist das der soziale und berufliche Tod. Wenn man etliche Kinderbilder oder Videos der Heranwachsenden hat, ist es leicht möglich, das mal ein "Blödsinns-Foto" eines teilweise unbekleideten Kindes da mal durchrutscht, ohne das man es bemerkt. Aber heute und Dank der sozialen Medien ist man ganz schnell unten durch, auf welche Art auch immer. Man kann schnell in den Himmel gehoben werden, aber noch schneller diffamiert werden. Das versuche ich täglich meinen Kindern einzutrichtern, das zuerst immer die Unschuldsvermutung gilt, und man seine Zeit lieber sinnvoller als in den sozialen Medien nutzen sollte. Vor allem, was man preisgeben sollte, und was nicht, bevor die Persönlichkeit und Privatsphäre völlig flöten geht.
So weit sind wir schon, die Welt wird vor lauter angeblichem Schutz und Sicherheit nur immer Bekloppter, als vernünftiger. Aber übt man Kritik, ist man natürlich sofort auf der gegenerischen Seite. Siehe Corona Kritik.
Das die High-Tech Giganten und auch die Politiker das natürlich für Ihre Zwecke nutzen, versteht sich von selbst.
Egal wer, egal wie, für mich gibt es nur meine private Cloud, und die heisst : NAS. Ich lade nichts mehr hoch, denn alle Cloud Anbieter scannen bereits alles durch, und wenn die KI anschlägt, ob berechtigt oder im schlimmen Fall nicht, kann es zu spät sein.
"So weit sind wir schon, die Welt wird vor lauter angeblichem Schutz und Sicherheit nur immer Bekloppter, als vernünftiger. Aber übt man Kritik, ist man natürlich sofort auf der gegenerischen Seite. Siehe Corona Kritik."
Sehr gute, prägnante Zusammenfassung der derzeitigen Entwicklung, oder besser Lebenswirklichkeit! Dazu: Stichwort "Eigenverantwortung" – denn genau DIESE wollen die meisten doch gar nicht mehr selbst wahrnehmen. Es wird doch immer sofort nach dem Staat gerufen und, "dass da doch was getan werden muss, zu unser aller Schutz…!" Ist doch klar, dass die Politik dieses ängstliche Verhalten "dankbar" aufnimmt und dann natürlich in unserem (??) Sinne handelt. Die überwiegende Mehrheit der Bürger fühlt sich anscheinend wohl damit, weil sie nicht (mehr) weiter denken und vor allem die längerfristigen Konsequenzen nicht durchdenken und auch gar nicht wahrhaben WOLLEN (!) Unbequeme Wahrheiten sind halt nicht sehr angenehm… Hierzu z. B. auch: Ein gewisser Hr. Goebbels hat in den letzten Tagen des unsäglichen 3. Reiches folgendes Zitat von sich gegeben: "Das Volk hat uns doch durch ihre Wahl selbst beauftragt. Jetzt wird Ihnen halt das Hälschen durchgeschnitten." Sollte jedem zu denken geben – auch und gerade in so genannten "guten Zeiten".
Das Inhalte scannen geht offenbar noch viel viel weiter…
> The European Parliament has approved emergency measures allowing internet companies to scan users' private messages for material containing child sex abuse.
> Now, though, internet companies will be allowed to detect, remove and report such content, as part of a temporary solution lasting up to three years.
forbes.com/sites/emmawoollacott/2021/07/07/eu-passes-emergency-law-allowing-tech-companies-to-screen-messages-for-child-abuse/
Nochmals, mit Sicherheit so ziemlich jeder ist gegen sexuellen Missbrauch oder Gewalt gegen Kinder. Aber das ganze wird zu 100% für andere Dinge missbraucht, wie immer.
"Notfallverordnungen"….wenn ich dieses Wort schon lese, dachte ich, das gäbe es nicht mehr, aber was heute Notfall ist, wird morgen zum Standard. Und auf alles andere ausgeweitet.
Hier in Deutschland lässt man pädophile Triebtäter (und solche die Kinderpornografie verbreiten) auf Bewährung heiter von dannen ziehen, weil die Gesetze ein absoluter Witz sind, aber solche (legalen ?) Abkommen gestatten die globale Rasterfahndung alle Bürger und Ihrer Privatsphäre auf eben das gleiche Thema ? Da muss man sich doch als Bürger verarscht vorkommen. Auf der einen Seite macht die Politik gar nichts, und wenn es um die Überwachung in der (angeblich) gleichen Sache geht, ist alles problemlos möglich, und Privatsphäre und Persönlichkeitsrechte existieren nicht.
Lächerlich, von dieser "Raster-Daten-Sammelei" profitieren Politiker genauso wie die Internet-Konzerne.
Fragt sich, wie so etwas ohne Medienecho durchs Euro Parlament gekommen ist. Wahrscheinlich alles im stillen Kämmerlein beschlossen worden. Man kann nun davon ausgehen, das ALLES nicht mehr privat ist.
Egal, jetzt liest jeder überall mit, wie er nur kann. Und jeder, der Nachrichten verschlüsselt, macht sich erst recht verdächtig. Eine wunderbare, neue Welt. :-(
> Fragt sich, wie so etwas ohne Medienecho durchs Euro Parlament gekommen ist.
Man will doch nicht die Bevölkerung verunsichern. Schau mal, da schlägt eine ein Pferd, das sind die wahren Probleme der Welt!
Was für ein unterirdisch blöder Kommentar.
Man tut, was man kann – die einen kümmern sich um geprügelte Pferde, die anderen um Computersysteme. Ein Rollentausch ist ja sicher nicht geplant. Und nötig ist beides – leider.
Daß Dinge hinter verschlossenen Türen beschlossen werden, dafür können Tierschützer auch nichts – die leiden selber genug unter politischen Beschlüssen, die nichts taugen.