{"id":220466,"date":"2019-07-12T08:44:59","date_gmt":"2019-07-12T06:44:59","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=220466"},"modified":"2019-07-12T10:14:22","modified_gmt":"2019-07-12T08:14:22","slug":"dsgvo-google-hat-sprachaufzeichnungen-weiter-gegeben","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2019\/07\/12\/dsgvo-google-hat-sprachaufzeichnungen-weiter-gegeben\/","title":{"rendered":"DSGVO: Google hat Sprachaufzeichnungen weiter gegeben"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2015\/01\/Schutz.jpg\" width=\"40\" align=\"left\" height=\"47\"\/>Google hat gerade eingestanden, dass vertrauliche Sprachaufzeichnungen eines Sprachassistenten von einem beauftragten Sprachanalysten in den Niederlanden unbefugt weiter gegeben wurden. Das d\u00fcrfte ein Versto\u00df gegen die Datenschutzgrundverordnung (DSGVO) sein, ist aber auf jeden Fall kritisch zu sehen und zeigt, wie problematisch die Sprachassistenten sind. <\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" alt=\"\" src=\"https:\/\/vg05.met.vgwort.de\/na\/e69b67ece11344f7beb602d05e0e9798\" width=\"1\" height=\"1\"\/>Vor wenigen Tagen hatte ich noch den Beitrag <a href=\"https:\/\/borncity.com\/blog\/2019\/07\/05\/amazons-alexa-aufzeichnungen-werden-nicht-gelscht\/\">Amazons Alexa-Aufzeichnungen werden nicht gel\u00f6scht<\/a> zu einem Problem der ganzen Sprachassistenten hier im Blog thematisiert. Dort kam schon der Hinweis 'Google macht das doch aus'. Insidern war das alles klar, nur der gemeine Nutzer ignoriert so was gerne. Nun kommt die n\u00e4chste Meldung, diesmal zu Google.<\/p>\n<h2>Google sammelt Sprachaufzeichnungen<\/h2>\n<p>Googles Sprachassistenten sammeln ebenfalls flei\u00dfig Sprachnachrichten und \u00fcbermitteln diese an Google. \u00c4hnlich wie bei Amazon h\u00f6ren sich dort Sprachanalysten die Aufzeichnungen an, um die Sprachauswertung der Assistenten zu verbessern. Das Unternehmen <a href=\"https:\/\/www.blog.google\/products\/assistant\/more-information-about-our-processes-safeguard-speech-data\/\" target=\"_blank\" rel=\"noopener noreferrer\">schreibt<\/a> dazu:<\/p>\n<blockquote>\n<p>Im Rahmen unserer Arbeit zur Entwicklung von Sprachtechnologien f\u00fcr weitere Sprachen arbeiten wir mit Sprachexperten auf der ganzen Welt zusammen, die die Nuancen und Akzente einer bestimmten Sprache verstehen. Diese Sprachexperten \u00fcberpr\u00fcfen und transkribieren eine kleine Reihe von Fragen, um uns zu helfen, diese Sprachen besser zu verstehen. Dies ist ein kritischer Teil des Prozesses der Entwicklung von Sprachtechnologie und ist notwendig, um Produkte wie den Google Assistant zu erstellen. <\/p>\n<\/blockquote>\n<p>Es muss also jedem Nutzer klar sein, dass selbst intimste Unterhaltungen durch 'die Wanze' (Google Home, Android Smartphone mit Google Assistant) aufgezeichnet werden. Dazu schreibt Google:<\/p>\n<blockquote>\n<p>Der Google-Assistent sendet Audio an Google nur dann, wenn Ihr Ger\u00e4t feststellt, dass Sie mit dem Assistenten interagieren &#8211; z.B. durch \"Hey Google\" oder durch physisches Ausl\u00f6sen des Google-Assistenten. Eine deutliche Anzeige (wie die blinkenden Punkte auf einem Google Home oder eine Anzeige auf dem Bildschirm auf Ihrem Android-Ger\u00e4t) wird jedes Mal aktiviert, wenn das Ger\u00e4t mit Google kommuniziert, um Ihre Anfrage zu erf\u00fcllen. <\/p>\n<\/blockquote>\n<p>Aber es gibt auch falsche Aktivierungen (laut Google selten), bei denen der Google Assistant ungewollt aktiviert wird. Das bedeutet, dass es einige Ger\u00e4usche oder W\u00f6rter im Hintergrund gab, die Googles Software als Hotword interpretierte (wie \"Ok Google\"). Google dazu: Wir haben eine Reihe von Schutzvorkehrungen getroffen, um das zu verhindern. Aber die Gefahr ist da, die Assistenten sollten deaktiviert werden, wenn jemandem die Privatsph\u00e4re wichtig ist.<\/p>\n<h2>Sprachaufzeichnungen wurden weiter gegeben<\/h2>\n<p>Im Dokument <a href=\"https:\/\/www.blog.google\/products\/assistant\/more-information-about-our-processes-safeguard-speech-data\/\" target=\"_blank\" rel=\"noopener noreferrer\">More information about our processes to safeguard speech data<\/a> musste Google jetzt einen Datenversto\u00df eingestehen. Dort schreibt man:<\/p>\n<blockquote>\n<p>Wir haben gerade erfahren, dass einer dieser Sprachpr\u00fcfer gegen unsere Datenschutzrichtlinien versto\u00dfen hat, indem er vertrauliche niederl\u00e4ndische Audiodaten weitergegeben hat. <\/p>\n<\/blockquote>\n<p>Das ist nat\u00fcrlich ein dicker Hund, die setzen zig Leute an die Auswertung und es ist klar, dass es Leaks geben wird. In meinen Augen handelt es sich um einen DSGVO-Versto\u00df \u2013 zumindest um einen Bruch der vom Benutzer vermuteten 'Vertraulichkeit'. Wie der Fall an die \u00d6ffentlichkeit gelangte, war mir unbekannt. <\/p>\n<h2>Erg\u00e4nzung: Der Hintergrund der Geschichte<\/h2>\n<p>Der belgische Rundfunk VRT (Sender f\u00fcr den fl\u00e4misch sprechenden Teil der Bev\u00f6lkerung) berichtete <a href=\"https:\/\/www.vrt.be\/vrtnws\/en\/2019\/07\/10\/google-employees-are-eavesdropping-even-in-flemish-living-rooms\/\" target=\"_blank\" rel=\"noopener noreferrer\">hier \u00fcber den Fall<\/a>. Der Sender konnte tausende Sprachaufzeichnungen anh\u00f6ren und hat Leute diese Sprachaufzeichnungen ebenfalls anh\u00f6ren lassen. Einige erkannten sich oder Angeh\u00f6rige bzw. Bekannte in diesen Nachrichten. <\/p>\n<p>VRT schreibt, dass dort klar Adressen oder andere sensitive Informationen zu h\u00f6ren waren. So konnte der Sender die Leute identifizieren und mit den Audioaufzeichnungen des Google-Sprachassistenten konfrontieren. Und es geht noch weiter, wie VRT NWS schreibt. Von den mehr als tausend Ausz\u00fcgen von Sprachaufzeichnungen waren 153 Gespr\u00e4che dabei, die nie h\u00e4tten aufgezeichnet werden d\u00fcrfen. Dort wurde eindeutig nie der Befehl 'Okay Google' gegeben. <\/p>\n<p>Eine der VRT-Quelle f\u00fchrte aus, dass er eine Aufnahme beschreiben musste, in der er eine Frau h\u00f6rte, die in gro\u00dfer Not war. Die Frage: Was sollen die Google-Mitarbeiter mit solchen Informationen machen? Den Mitarbeitern wird gesagt, dass es in solchen F\u00e4llen keine klaren Richtlinien gibt. Es handelt sich jedoch um eine wichtige ethische Frage. Nur bei Kontonummern und Passw\u00f6rtern erhalten die Mitarbeiter bestimmte Anweisungen. Diese sind als sensible Informationen gekennzeichnet. Die Lekt\u00fcre des englischsprachigen Texts von VRT ist da sehr aufschlussreich.<\/p>\n<p>Dem Medium haben drei unabh\u00e4ngige Quellen best\u00e4tigt, dass Google so arbeitet, sprich: Sprachaufzeichnungen werden gespeichert und auch durch Sprachanalysten ausgewertet.<\/p>\n<h2>Jeder Google-Nutzer kann sich in so was wiederfinden<\/h2>\n<p>Es wird zwar keine systematische \u00dcberwachung betrieben. An dieser Stelle sollte aber auch dem letzten Nutzer klar sein, dass bei Verwendung des Sprachassistenten jederzeit das Gesprochene aufgezeichnet und an Google \u00fcbermittelt werden kann. <\/p>\n<p>Kritisch ist dies, sofern Vertraulichkeit erforderlich ist. Mir ist dabei unklar, wie der Google Assistent in Android agiert, wenn er vermeintlich ausgeschaltet ist. W\u00fcrde mich nicht wundern, wenn wir irgendwann lesen, dass Google ungewollt auch dort mitgeh\u00f6rt hat. In Firmen w\u00fcrde ich Handy-Verbot in Besprechungen anordnen. Besonders kritisch wird es auch in Bereichen wo Leute auf die Vertraulichkeit bauen (in Beratungsstellen, beim Arzt, im Beichtstuhl, bei Anw\u00e4lten etc.). Dort m\u00fcssten beide Parteien ebenfalls Smartphones ausschalten. <\/p>\n<h2>Google verspricht \u2026<\/h2>\n<p>Das hat Google wohl auf dem falschen Fu\u00df erwischt. Jedenfalls d\u00fcrfte bei Google jetzt die H\u00fctte brennen. Das Unternehmen schreibt dazu:<\/p>\n<blockquote>\n<p>Unsere Sicherheits- und Datenschutzteams wurden zu diesem Thema aktiviert, untersuchen, und wir werden Ma\u00dfnahmen ergreifen. Wir f\u00fchren eine umfassende \u00dcberpr\u00fcfung unserer Sicherheitsvorkehrungen in diesem Bereich durch, um zu verhindern, dass sich ein solches Fehlverhalten wiederholt.<\/p>\n<\/blockquote>\n<p>Hier gilt: Nach dem Versto\u00df ist vor dem Versto\u00df \u2013 das wird nicht der letzte Fall sein, wo so etwas passiert. <\/p>\n<p><strong>\u00c4hnliche Artikel:<\/strong><br \/><a href=\"https:\/\/borncity.com\/blog\/2019\/07\/05\/amazons-alexa-aufzeichnungen-werden-nicht-gelscht\/\">Amazons Alexa-Aufzeichnungen werden nicht gel\u00f6scht<\/a><br \/><a href=\"https:\/\/borncity.com\/blog\/2018\/02\/04\/sprachassistenten-hacken-die-unerkannte-gefahr\/\">Sprachassistenten hacken, die unerkannte Gefahr<\/a><br \/><a href=\"https:\/\/borncity.com\/blog\/2016\/07\/12\/sprachassistenten-als-hacking-risiko-fr-mobilgerte\/\">Sprachassistenten als Hacking-Risiko f\u00fcr Mobilger\u00e4te<\/a><br \/><a href=\"https:\/\/borncity.com\/blog\/2019\/02\/10\/alexa-co-in-us-krankenhusern\/\">Alexa &amp; Co. in US-Krankenh\u00e4usern<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google hat gerade eingestanden, dass vertrauliche Sprachaufzeichnungen eines Sprachassistenten von einem beauftragten Sprachanalysten in den Niederlanden unbefugt weiter gegeben wurden. Das d\u00fcrfte ein Versto\u00df gegen die Datenschutzgrundverordnung (DSGVO) sein, ist aber auf jeden Fall kritisch zu sehen und zeigt, wie &hellip; <a href=\"https:\/\/borncity.com\/blog\/2019\/07\/12\/dsgvo-google-hat-sprachaufzeichnungen-weiter-gegeben\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426],"tags":[405,4328,5148],"class_list":["post-220466","post","type-post","status-publish","format-standard","hentry","category-sicherheit","tag-google","tag-sicherheit","tag-sprachassistenten"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/220466","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=220466"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/220466\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=220466"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=220466"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=220466"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}