{"id":291045,"date":"2024-01-26T00:08:00","date_gmt":"2024-01-25T23:08:00","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=291045"},"modified":"2024-04-08T20:07:41","modified_gmt":"2024-04-08T18:07:41","slug":"eu-chat-kontrollsystem-von-thorn-mit-massiven-sicherheitslcken","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2024\/01\/26\/eu-chat-kontrollsystem-von-thorn-mit-massiven-sicherheitslcken\/","title":{"rendered":"EU-Chat-Kontrollsystem von Thorn mit massiven Sicherheitsl&uuml;cken"},"content":{"rendered":"<p><img decoding=\"async\" title=\"Stop - Pixabay\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline\" alt=\"Stop - Pixabay\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/06\/Stop01.jpg\" align=\"left\"\/>Die Warnungen der Experten scheinen sich zu best\u00e4tigen. Das von der EU geplante Software-System zur Chat-Kontrolle der Organisation Thorn hat massive Sicherheitsl\u00fccken. Bei Einsatz der betreffenden Software w\u00fcrden jede Menge Daten, die Nutzer auf Plattformen wie TikTok, Facebook etc. an die Server von Thorn \u00fcbertragen. Schwachstellen w\u00fcrden dann Dritten den Zugriff auf diese Informationen erm\u00f6glichen.<\/p>\n<p><!--more--><\/p>\n<h2>EU-Pl\u00e4ne zur Chatkontrolle<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" alt=\"\" src=\"https:\/\/vg06.met.vgwort.de\/na\/a4ed408a81874740b95e93106ce5ec2e\" width=\"1\" height=\"1\"\/>Die EU-Kommission treibt ja seit einiger Zeit Pl\u00e4ne zur Chatkontrolle voran. Begr\u00fcndet wird dies mit dem Schutz vor sexuellem Kindesmissbrauch (CSA-Verordnung). Dabei sollten CSA-Systeme zum Scannen aller Chat-Inhalte zum Einsatz kommen (CSA steht f\u00fcr Child Sexual Abuse). <\/p>\n<p>Insbesondere das US-Unternehmen Thorn lobbyiert in der EU-Kommission f\u00fcr seine \u00dcberwachungsl\u00f6sung, und die EU-Kommissarin Johansson hatte eine umstrittene Werbekampagne gestartet (<a href=\"https:\/\/apollo-news.net\/gesetz-zur-chatkontrolle-eu-schaltet-politische-werbung-auf-steuerzahlerkosten\/\" target=\"_blank\" rel=\"noopener\">siehe<\/a>), die in L\u00e4ndern, die gegen die Chatcontrolle waren, lief. Juristen in der EU hatten die Chatkontrolle als besonders <a href=\"https:\/\/netzpolitik.org\/2023\/juristisches-gutachten-chatkontrolle-ist-grundrechtswidrig-und-wird-scheitern\/\" target=\"_blank\" rel=\"noopener\">schweren Eingriff in Grundrechte der Betroffenen<\/a> und vor dem EuGH als zum Scheitern verurteilt eingestuft.&nbsp; Anfang Dezember 2023 wurde dann die verpflichtende Chatkontrolle erst einmal auf Eis gelegt, weil es keine Mehrheit der EU-L\u00e4nder f\u00fcr dieses Gesetzesvorhaben gab (siehe <a href=\"https:\/\/netzpolitik.org\/2023\/etappensieg-verpflichtende-chatkontrolle-vorerst-gescheitert\/\" target=\"_blank\" rel=\"noopener\">diesen Artikel<\/a> von netzpolitik.org). <\/p>\n<p><a href=\"https:\/\/www.epochtimes.de\/politik\/ausland\/eu-aus-fuer-chatkontrolle-stattdessen-richtervorbehalt-und-altersverifizierung-a4539450.html?utm_source=social&amp;utm_medium=evaherman\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" title=\"EU-Chatkontrolle\" alt=\"EU-Chatkontrolle\" src=\"https:\/\/i.postimg.cc\/pd2NhGKX\/image.png\"\/><\/a><\/p>\n<p>Aktuell hat das EU-Parlament eine freiwillige Chatkontrolle f\u00fcr ein Jahr verl\u00e4ngert (<a href=\"https:\/\/netzpolitik.org\/2024\/eu-parlament-ja-zur-freiwilligen-chatkontrolle-fuer-ein-jahr\/\" target=\"_blank\" rel=\"noopener\">siehe<\/a>), die aber ebenfalls auf wackeligen juristischen Beinen steht. In einem <a href=\"https:\/\/netzpolitik.org\/2024\/offener-brief-zur-chatkontrolle-die-eu-mitgliedstaaten-muessen-sich-entscheiden-auf-welcher-seite-sie-stehen\/\" target=\"_blank\" rel=\"noopener\">offenen Brief<\/a> fordern Unternehmen die EU-L\u00e4nder auf, sich gegen die Chatkontrolle auszusprechen. <\/p>\n<h2>Die Lobby-Organisationen im Hintergrund<\/h2>\n<p>Unbemerkt von der breiten \u00d6ffentlichkeit gibt es eine Reihe Lobby-Organisationen, die sich im Hintergrund f\u00fcr die Chatkontrolle in der EU stark machen. Bekannt wurde durch eine Investigativrecherche, dass hinter der \"NGO\"-Kinderschutzkampagne \"Pro Chatkontrolle\" in Wahrheit ein einflussreiches Netzwerk, bestehend aus Strafverfolgern aus den USA und Gro\u00dfbritannien, Lobby- und PR-Agenturen sowie PR-Strategen steckt. Die NGO wird mit Millionen Euro an ausl\u00e4ndischem Geld finanziert, um in der EU die anlasslose \u00dcberwachung von B\u00fcrgern per Chatkontrolle durchzusetzen.<\/p>\n<p>Ich hatte das im Blog-Beitrag <a href=\"https:\/\/borncity.com\/blog\/2023\/09\/26\/eu-chatkontrolle-welche-lobby-organisationen-dahinter-stecken\/\">EU-Chatkontrolle: Welche Lobby-Organisationen dahinter stecken<\/a> aufgegriffen. Insbesondere die vom US-Schauspieler Ashton Kutcher gegr\u00fcndete Organisation <a href=\"https:\/\/www.thorn.org\/\" rel=\"nofollow noopener\" target=\"_blank\">Thorn<\/a> lobbyiert f\u00fcr die Chatkontrolle in der EU. Interne Dokumente der EU-Kommission zeigen laut der Recherche, dass sich EU-Kommissionspr\u00e4sidentin Ursula von der Leyen und Ylva Johansson (EU-Innenkommissarin) sehr eng von Thorn haben beraten lassen.<\/p>\n<p>Offiziell gilt die <a href=\"https:\/\/web.archive.org\/web\/20240223212906\/https:\/\/ec.europa.eu\/transparencyregister\/public\/consultation\/displaylobbyist.do?id=854246640306-96\">Thorn als gemeinn\u00fctzige Organisation<\/a>, hinter den Kulissen verkauft diese Organisation aber auch die Software <a href=\"https:\/\/safer.io\/about\/\">Safer<\/a>. Die Software soll mit Hilfe sogenannter K\u00fcnstlicher Intelligenz Darstellungen von Kindesmissbrauch aufsp\u00fcren. Die Recherchen ergaben, dass etwa das US-Ministerium f\u00fcr Heimatschutz zu den Kunden z\u00e4hlt. Die haben sich laut Zeit die Softwarelizenzen \u00fcber vier Millionen US-Dollar kosten lassen. Und mit der EU-Chatkontrolle k\u00e4me der n\u00e4chste dicke Auftrag f\u00fcr den Anbieter.<\/p>\n<p>Nachdem zwei Europol-Polizisten zur Chatkontrolle-Lobbyorganisation Thorn wechselten, hat die EU-B\u00fcrgerbeauftragte eine Untersuchung zu diesem Fall eingeleitet (<a href=\"https:\/\/netzpolitik.org\/2024\/chatkontrolle-eu-buergerbeauftragte-untersucht-europols-lobby-drehtuer\/\" target=\"_blank\" rel=\"noopener\">siehe<\/a>),<\/p>\n<h2>Thorn-Software mit Schwachstellen<\/h2>\n<p>Ich bin gerade \u00fcber nachfolgenden <a href=\"https:\/\/bsky.app\/profile\/booomxd.bsky.social\/post\/3kjoaweav5725\" target=\"_blank\" rel=\"noopener\">Post<\/a> auf BlueSky auf ein spezielles Thema aufmerksam geworden. Die Kernaussage lautet, dass die umstrittene gemeinn\u00fctzige Organisation Thorn ihre Software zur \u00dcberwachung als datenschutzfreundliche Methode zur Aufdeckung von Kindesmissbrauchsinhalten anpreist. <\/p>\n<p><img decoding=\"async\" title=\"Schwachstellen in Thorns &Uuml;berwachungssoftware\" alt=\"Schwachstellen in Thorns &Uuml;berwachungssoftware\" src=\"https:\/\/i.postimg.cc\/V6qtNFPw\/image.png\"\/><\/p>\n<p>Die Europ\u00e4ische Kommission f\u00e4hrt voll auf Thorn ab. Aber die Technologie ist wohl weniger zuverl\u00e4ssig, als sie vorgibt zu sein. Das sollen neue Dokumente zeigen, die <em>Follow the Money <\/em>erhalten hat. Die \u00dcberwachungssoftware hat schwerwiegende M\u00e4ngel und ist wohl weniger zuverl\u00e4ssig, als Thorn verspricht, wie der Hersteller zugeben musste. Das geht aus einem <a href=\"https:\/\/web.archive.org\/web\/20240125071510\/https:\/\/www.ftm.eu\/articles\/ashton-kutcher-s-anti-childabuse-software-below-par\" target=\"_blank\" rel=\"noopener\">Follow The Money Artikel<\/a> hervor. Experten warnen, dass solche Tools zu einer Massen\u00fcberwachung f\u00fchren k\u00f6nnten.  <\/p>\n<p>Die in den USA ans\u00e4ssige Stiftung Thorn, von den Schauspielern Demi Moore und Ashton Kutcher gegr\u00fcndet, behauptet, dass ihre Technologie bzw. Software eine M\u00f6glichkeit bietet, Material \u00fcber sexuellen Kindesmissbrauch in pers\u00f6nlichen Nutzernachrichten zu finden und gleichzeitig die Privatsph\u00e4re anderer Nutzer zu respektieren, die solche Inhalte nicht teilen.  <\/p>\n<h3>Thorn Safer soll eingesetzt werden<\/h3>\n<\/p>\n<p>Thorn ist es in den vergangenen Jahren gelungen (<a href=\"https:\/\/web.archive.org\/web\/20240111194114\/https:\/\/www.ftm.eu\/articles\/ashton-kutchers-non-profit-start-up-makes-millions-from-fighting-child-abuse-online\" target=\"_blank\" rel=\"noopener\">siehe<\/a>), dass die EU-Kommission Online-Plattformen wie Facebook oder TikTok verpflichtet, Software wie die von Thorn entwickelte Software <a href=\"https:\/\/safer.io\/about\/\">Safer<\/a> einzusetzen. Der Folgenabsch\u00e4tzungsbericht der EU-Kommission, der den Vorschlag zur Chatkontrolle begleitet, erw\u00e4hnt die Software von Thorn als \"ein Beispiel f\u00fcr die F\u00e4higkeit der Industrie, Material \u00fcber sexuellen Kindesmissbrauch zu erkennen\".  <\/p>\n<h3>Massen\u00fcberwachung durch Scans?<\/h3>\n<\/p>\n<p>Aber das hat Folgen. F\u00fcr Nutzer bedeutet dies, dass jedes einzelne Foto oder Video, das sie \u00fcber eine Plattform wie TikTok oder X, ehemals Twitter, versenden, einschlie\u00dflich privater Nachrichten, gescannt wird. Die g\u00e4ngigste Form des Scannens nach CSAM vergleicht die digitalen Fingerabdr\u00fccke der Bilder, so genannte Hashes, mit denen von Inhalten, von denen den Beh\u00f6rden bereits bekannt ist, dass sie kindermissbr\u00e4uchliche Inhalte enthalten. Wenn es eine \u00dcbereinstimmung gibt, wird das Bild markiert. Erkennt die Software eine \u00dcbereinstimmung mit Quellen von Kindesmissbrauch, wird der Fund an die Strafverfolgungsbeh\u00f6rden im Land des Nutzers weitergeleitet &#8211; zumindest theoretisch.  <\/p>\n<p>Das bedeutet aber eine anlasslose Massen\u00fcberwachung&nbsp; von Millionen unbescholtener Nutzer, was einen Eingriff in die Grundrechte bedeutet. Zudem besteht die Gefahr, dass irrt\u00fcmlich von der Software gekennzeichnete Bilder zu falschen Anschuldigungen des Besitzes von CSAM f\u00fchren und die Strafverfolgungsbeh\u00f6rden mit falschen Hinweisen \u00fcberfrachten k\u00f6nnten, schreibt Follow the Money (FTM). <\/p>\n<h3>Die EU-Kommission mauert<\/h3>\n<p>Die EU-Kommission weist diese Kritik zur\u00fcck und argumentiert, dass ihr Vorschlag von den Unternehmen verlangt, Technologien zu verwenden, die \"am wenigsten in die Privatsph\u00e4re eingreifen\". Die EU-Kommission behauptet, dass die Technologien bei der Erkennung von Inhalten extrem genau sind und dass \"keine falsch positiven\" Bilder (also die f\u00e4lschlicherweise als Material \u00fcber Kindesmissbrauch eingestufte Inhalte) die Strafverfolgungsbeh\u00f6rden erreichen w\u00fcrden.<\/p>\n<p>Das ist aber erstunken und erlogen, wie Dokumente zeigen,&nbsp; die die EU-Kommission geheim halten will. Als die EU-Kommission von FTM gebeten wurde, technische Beschreibungen der von Thorn Safer bereitgestellten Erkennungssoftware zur Verf\u00fcgung zu stellen, verweigerte sie dies. Die EU-Kommssion berief sich dabei auf die Notwendigkeit, die kommerziellen Interessen der gemeinn\u00fctzigen Stiftung Thorn zu sch\u00fctzen. <\/p>\n<p>Die EU-Exekutive stellte nur &#8211; nach R\u00fccksprache mit Thorn &#8211; Inhalte zur Verf\u00fcgung, die an wichtigen Stellen von zwei Strategiepapieren und dem Protokoll geschw\u00e4rzt waren. Ein drittes Dokument mit dem Titel \"False Positive Mitigation\" hielt die EU-Kommission sogar zur\u00fcck. <\/p>\n<p>FTM bekam durch den Antrag aber Zugang zur schwedischen Regierung. Die wurden zwar auch durch Thorn lobbyiert. Aber FTM konnte dort dort ungeschw\u00e4rzte Versionen der Strategiepapiere einsehen. Die Dokumente lassen Zweifel an den technischen F\u00e4higkeiten der Software von Thorn aufkommen. Laut FTM tr\u00e4gt eines der Dokumente den Titel \"False Positive Mitigation\", enth\u00e4lt aber nur wenige Details. <\/p>\n<p>Mittlerweise hat&nbsp; Follow the Money (FTM) Beschwerde bez\u00fcglich der drei einseitigen Strategiepapiere, die Thorn zur Verf\u00fcgung gestellt hat, sowie bez\u00fcglich des Protokolls eines Treffens zwischen Kommissionsbeamten und der gemeinn\u00fctzigen Organisation eingereicht. Das Zur\u00fcckhalten und Schw\u00e4rzen von Informationen entspricht nicht den EU-Transparenzregeln, fand der Europ\u00e4ische B\u00fcrgerbeauftragte, Ombudsmann Emily O'Reilly. Das Urteil des Ombudsmannes ist f\u00fcr die Kommission rechtlich nicht bindend. Die Kommission hat bisher nicht auf die Empfehlung des B\u00fcrgerbeauftragten geantwortet, die Papiere freizugeben. <\/p>\n<h2>Brisante Erkenntnisse<\/h2>\n<p>Im ungeschw\u00e4rzten Dokument mit dem Titel \"False Positive Mitigation\" werden die technischen Herausforderungen der automatischen CSAM-Erkennung angedeutet. Thorn gibt an, dass \"keine Technologie v\u00f6llig unfehlbar ist, aber da wir innovativ sind, werden diese bew\u00e4hrten Tools immer besser\". Das Dokument macht jedoch auch deutlich, dass die Software von Thorn weit davon entfernt ist, ein technisches Allheilmittel zu sein, welches Bilder sicher als kindermissbr\u00e4uchliche Inhalte identifizieren kann. <\/p>\n<p>Laut Thorn k\u00f6nnen beim Einsatz von Algorithmen, die die Merkmale eines Bildes mit denen bekannter CSAM abgleichen, die Filter in der Genauigkeit eingestellt werden. Einem Bericht der Kommission zufolge ist die Software von Thorn bei der Erkennung bekannter Inhalte \u00fcber Kindesmissbrauch zu 99,9 Prozent genau. Bei dieser Rate w\u00fcrde sich eines von tausend Bildern als falsch-positiv herausstellen &#8211; Bilder, die keine CSAM enthalten, aber vom Programm als problematisch eingestuft wurden. <\/p>\n<p>Nun werden aber t\u00e4glich Millionen Bilder in soziale Medien hochgeladen, was ggf. Zehntausende Fehlalarme bedeuten w\u00fcrde. Dies wiederum bedeutet, dass Menschen &#8211; entweder Moderatoren in Unternehmen oder Strafverfolgungsbeh\u00f6rden &#8211; die gekennzeichneten Bilder \u00fcberpr\u00fcfen m\u00fcssen. Das bedeutet aber auch, dass Bilder normaler und unbescholtener Nutzer durch die Mitarbeiter der Unternehmen, die diese Filter einsetzen und Alarme bewerten m\u00fcssen, eingesehen werden.&nbsp; <\/p>\n<p>Auf der einen Seite f\u00fchrt das zur Erkenntnis, dass Medien unbescholtener B\u00fcrger gescant und im Zweifelsfall von Menschen eingesehen werden. Das f\u00fchrt dazu, dass die mit dem Scan beauftragten Unternehmen die Zahl der Fehlalarme begrenzen wollen, um das von der Menge durch die Moderatoren handhabbar zu machen. Das f\u00fchrt dann aber dazu, dass ein gro\u00dfer Teil der Inhalte, die tats\u00e4chliche Kindesmissbrauch (CSAM) aufweisen von der Software aber nie erkannt wird. \"Es gibt einen Kompromiss, wie viel illegales Material gefunden wird\", r\u00e4umte Thorn laut dem FTM-Artikel in einer der ungeschw\u00e4rzten Versionen der Dokumente vom M\u00e4rz 2022 ein.<\/p>\n<p>FTM hat weitere Dokumente von Thorn bei den Schweden gefunden, die belegen, dass die \u00f6ffentlichen Aussagen von Thorn und der EU-Kommission in dieser Angelegenheit nicht dem entsprechen, was Thorn intern vertritt. In einem Strategiepapier schreibt Thorn, dass die \"derzeitige Ende-zu-Ende-Verschl\u00fcsselungstechnologie es unm\u00f6glich macht, illegale CSAM zu entdecken, zu entfernen und zu melden\". <\/p>\n<p>Thorn f\u00fchrt zwei Techniken zur Erkennung solcher Inhalte ein. Einerseits ist ein \"On-Device-Hashing\" m\u00f6glich, bei dem ein digitaler Fingerabdruck der auf dem Ger\u00e4t gespeicherten Bilder und Videodateien erstellt wird. Dieser Fingerabdruck wird dann an einen Server gesendet, wo er mit bekannten CSAM-Bildern verglichen wird, z. B. mit Fotos oder Videos, die von der \u00f6rtlichen Polizei als verbotene Inhalte identifiziert wurden. <\/p>\n<p>Thorns gibt an, das diese Technik zuverl\u00e4ssig Bilder von Kindesmissbrauch identifiziert, die den Strafverfolgungsbeh\u00f6rden bereits bekannt sind. Die Technologie \"erkennt nicht umfassend neues Material \u00fcber Kindesmissbrauch\", r\u00e4umt die gemeinn\u00fctzige Organisation ein.<\/p>\n<p>Eine andere Methode w\u00e4re die so genannte \"homomorphe Verschl\u00fcsselung\", die sowohl neues als auch bekanntes Material \u00fcber sexuellen Kindesmissbrauch auf eine \"datenschutzfreundliche\" Weise aufsp\u00fcren w\u00fcrde, hei\u00dft es in Thorn-Dokumenten. Bei der homomorphen Verschl\u00fcsselung handelt es sich um eine Methode, die die Abfrage von Daten, z. B. die Suche nach bestimmten Mustern in einem Bild, auch im verschl\u00fcsselten Zustand erm\u00f6glichen soll. Theoretisch k\u00f6nnte dies die Erkennung von CSAM in Fotos oder Videos erm\u00f6glichen, ohne das eigentliche Bild mit einer zentralen Datenbank zu teilen.<\/p>\n<p>In einer dramatischen Pr\u00e4sentation im Europ\u00e4ischen Parlament pl\u00e4dierte Kutcher f\u00fcr den Einsatz dieser Technologie, schreibt FTM. FTM deckt aber auf, dass es in einem Monate vor Kutchers Pr\u00e4sentation verschickten Strategiepapier von Thorn hei\u00dft: \"Die derzeit auf dem Markt erh\u00e4ltlichen Ger\u00e4te haben nicht die Verarbeitungskapazit\u00e4t, um diese L\u00f6sung sofort in gro\u00dfem Umfang einzusetzen. Es sind weitere technologische Fortschritte und Forschungsarbeiten erforderlich, um diese M\u00f6glichkeit voll auszusch\u00f6pfen.\" <\/p>\n<p>Hintergrund ist, dass die&nbsp; homomorphe Verschl\u00fcsselung eine betr\u00e4chtliche Menge an Rechenleistung erfordert, die auf absehbare Zeit nicht realistisch bereitsteht. Anja Lehmann, Kryptographieforscherin an der Universit\u00e4t Potsdam sagt, dass es derzeit keine datenschutzfreundliche Technologie gibt, mit der in verschl\u00fcsselten Umgebungen nach CSAM gesucht werden kann. <\/p>\n<p>FTH hat Lehmann Unterlagen bereitgestellt und die Kryptographieforscherin wies wohl auf eine weitere scheinbar widerspr\u00fcchliche Aussage in der Thorn -Pr\u00e4sentation hin. Eine enthaltene Grafik soll angeblich zeigen, wie die Erkennungssoftware in der Praxis funktioniert.&nbsp; Laut dieser Grafik wird aber die homomorphe Verschl\u00fcsselung nur auf dem Server verwendet. Bedeutet im Umkehrschluss aber, dass die Server Zugriff auf die Bilder haben m\u00fcssen. Dies f\u00fchrt jeden Anspruch auf Schutz der Privatsph\u00e4re ad absurdum, weil der Betreiber des Servers alles zu sehen bekommt. <\/p>\n<h2>Fazit: T\u00e4uschen, tricksen, l\u00fcgen<\/h2>\n<p>Schaut man sich die Informationen an, die Follow the Money (FTM) in <a href=\"https:\/\/web.archive.org\/web\/20240125071510\/https:\/\/www.ftm.eu\/articles\/ashton-kutcher-s-anti-childabuse-software-below-par\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> offen legt, wird die \u00d6ffentlichkeit und das EU-Parlament durch Thorn und EU-Kommission systematisch belogen. Die Br\u00fcsseler Thorn Lobbyistin, Emily Slifer, r\u00e4umte ein, dass die Software Safer derzeit keine Bilder auf dem Ger\u00e4t scannen kann. In einer E-Mail-Antwort stellte sie gegen\u00fcber FTM klar, dass \"die Technologie von Thorn nicht in verschl\u00fcsselten R\u00e4umen funktioniert\".<\/p>\n<p>Slifer wirbt aber mit: \"Obwohl es derzeit noch keine effektiven L\u00f6sungen zur Erkennung von CSAM in verschl\u00fcsselten Umgebungen gibt, glauben wir aufgrund unserer langj\u00e4hrigen Erfahrung in der Technologiebranche, dass es solche L\u00f6sungen eines Tages geben wird.\" Den Beteiligten ist klar, dass der CSAM-Scan nicht in verschl\u00fcsselten Umgebungen funktioniert und auch von der ben\u00f6tigten Rechenleistung so schnell nicht funktionieren wird. <\/p>\n<p>Slifer sagt dazu: \"Daher m\u00fcssen wir mehr Gespr\u00e4che und Brainstorming als ein breiteres \u00d6kosystem f\u00fcr die Sicherheit von Kindern f\u00fchren, um herauszufinden, wie wir die Technologie skalieren, auf den neuesten Stand bringen und am besten nutzen k\u00f6nnen, um Kinder vor sexuellem Missbrauch zu sch\u00fctzen.\"<\/p>\n<p>Und auf die Frage, warum Thorn versuchte, die Freigabe der fraglichen Dokumente zu verhindern, antwortete Slifer, dass \"diese Ma\u00dfnahmen nicht darauf abzielten, Informationen zu verbergen, sondern notwendig waren, weil einige von ihnen sensible Details \u00fcber die operativen Aspekte und Methoden unserer Software enthalten, die m\u00f6glicherweise ihre Wirksamkeit untergraben und ungewollt denjenigen helfen k\u00f6nnten, die diese Schutzma\u00dfnahmen umgehen wollen\". <\/p>\n<p>Also t\u00e4uschen, tricksen und l\u00fcgen, was das Zeug h\u00e4lt. Das erkl\u00e4rt auch, warum die EU-Kommission darauf dringt, dass staatliche Stellen eine Ende-zu-Ende-Verschl\u00fcsselung aufbrechen k\u00f6nnen sollen. Inzwischen kann ich verstehen, dass viele Menschen sich von den EU-Institutionen abwenden und deren Abwicklung verlangen. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die Warnungen der Experten scheinen sich zu best\u00e4tigen. Das von der EU geplante Software-System zur Chat-Kontrolle der Organisation Thorn hat massive Sicherheitsl\u00fccken. Bei Einsatz der betreffenden Software w\u00fcrden jede Menge Daten, die Nutzer auf Plattformen wie TikTok, Facebook etc. an &hellip; <a href=\"https:\/\/borncity.com\/blog\/2024\/01\/26\/eu-chat-kontrollsystem-von-thorn-mit-massiven-sicherheitslcken\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426,7459],"tags":[8453,4328],"class_list":["post-291045","post","type-post","status-publish","format-standard","hentry","category-sicherheit","category-software","tag-chatkontrolle","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/291045","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=291045"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/291045\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=291045"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=291045"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=291045"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}