{"id":289635,"date":"2023-12-25T13:07:46","date_gmt":"2023-12-25T12:07:46","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=289635"},"modified":"2023-12-25T13:07:46","modified_gmt":"2023-12-25T12:07:46","slug":"chatgpt-leaks-e-mail-adressen-und-mehr","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2023\/12\/25\/chatgpt-leaks-e-mail-adressen-und-mehr\/","title":{"rendered":"ChatGPT-Leaks: E-Mail-Adressen und mehr"},"content":{"rendered":"<p><img decoding=\"async\" title=\"Stop - Pixabay\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline\" alt=\"Stop - Pixabay\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/06\/Stop01.jpg\" align=\"left\"\/>Kurzer Infosplitter aus dem Umfeld von ChatGPT und gro\u00dfer Sprachmodelle (LLMs), die aktuell ja als KI-L\u00f6sungen wie Pilze aus dem Boden schie\u00dfen. Es ist ja schon viel \u00fcber die Sicherheits- und Zuverl\u00e4ssigkeitsaspekte dieser Ans\u00e4tze diskutiert worden. Mir sind gerade die Tage zwei Artikel unter die Augen gekommen, die zeigen, welche Gefahren von Modellen wie ChatGPT im Hinblick auf den Datenschutz und die Datensicherheit ausgehen. Wissenschaftlern ist es gelungen, die E-Mail-Adresse von mehr als 30 Mitarbeitern der New York Times zu extrahieren &#8211; obwohl das eigentlich nicht funktionieren sollte. Und es gibt einen interessanten Artikel, der die Frage stellt, ob ChatGPT uns ausspionieren k\u00f6nnen. Auch hier haben Wissenschaftler eine Antwort geliefert.<\/p>\n<p><!--more--><\/p>\n<h2>K\u00f6nnen ChatGPT &amp; Co. uns ausspionieren? <\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" alt=\"\" src=\"https:\/\/vg05.met.vgwort.de\/na\/fd13f0d79a8b446a898c4358e9565e09\" width=\"1\" height=\"1\" (siehe aufgeworfen Copilot Microsofts mit Zusammenhang im beispielsweise Frage diese hatte Ich k\u00f6nnten. ausspionieren leicht sehr Nutzer die etc. ChaptGPT wie L\u00f6sungen dass Bef\u00fcrchtung, latent ja gibt Es\/><a href=\"https:\/\/borncity.com\/blog\/2023\/09\/10\/microsofts-copilot-ai-kommt-bald-offene-fragen-zum-datenschutz-freistellung-bei-copyright-ansprchen\/\">Microsofts CoPilot (AI) kommt bald; offene Fragen zum Datenschutz; Freistellung bei Copyright-Anspr\u00fcchen<\/a>). Microsoft vertritt bei Copilot die Meinung, dass die IT-Administratoren festlegen m\u00fcssen, was in die AI-Modelle eingespeist werden darf (siehe <a href=\"https:\/\/borncity.com\/blog\/2023\/11\/17\/ignite-2023-microsofts-zukunftsvision-copilot-in-allen-produkten\/\">Ignite 2023: Microsofts Zukunftsvision: Copilot in allen Produkten<\/a>). Imho ein unm\u00f6gliches Unterfangen.<\/p>\n<p><a href=\"https:\/\/1e9.community\/t\/ki-als-profiler-wider-willen-sprachmodelle-koennen-private-informationen-aus-banalen-texten-extrahieren\/19829\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" title=\"Risiko ChaptGPT &amp; Co.\" alt=\"Risiko ChaptGPT &amp; Co.\" src=\"https:\/\/i.postimg.cc\/cJTTSyg1\/image.png\" width=\"526\" height=\"281\"\/><\/a><\/p>\n<p>Obiger Tweet verlinkt auf <a href=\"https:\/\/1e9.community\/t\/ki-als-profiler-wider-willen-sprachmodelle-koennen-private-informationen-aus-banalen-texten-extrahieren\/19829\" target=\"_blank\" rel=\"noopener\">diesen Artikel<\/a>, der sich mit der Frage befasst, was Sprachmodelle aus banalen Texten an privaten Informationen herausziehen k\u00f6nnen. Das Exzerpt: Ja, ChatGPT und Co.<strong> <\/strong>k\u00f6nnen die Leute ausspionieren. IT- und Sicherheitsforscher aus der Schweiz haben sich intensiver mit der Fragestellung befasst. Dabei haben sie herausgefunden, dass heutige Sprachmodelle anhand von Texten sehr viel \u00fcber Menschen herausfinden k\u00f6nnen. Das gilt auch f\u00fcr Personen, die glauben, sich anonym im Internet zu bewegen. Diese F\u00e4higkeit der KI-Technologie k\u00f6nnte leicht missbraucht werden. Dagegen wehren k\u00f6nnen wir uns derzeit nur bedingt, das ist die Aussage der Forscher des Secure, Reliable, and Intelligent Systems Lab an der ETH Z\u00fcrich in der Schweiz.<\/p>\n<h2>Forscher ermitteln NYT-E-Mail-Adressen<\/h2>\n<p>Ein zweiter Fall, der mir gerade unter die Augen gekommen ist, betrifft Mitarbeiter der New York Times (NYT). Forschern ist es gelungen, die gesch\u00e4ftlichen und privaten E-Mail-Adressen von mehr als 30 NYT-Mitarbeitern zu extrahieren. OpenIA hat zwar Sicherungsmechanismen in ChatGPT eingezogen, die genau das verhindern sollen. Aber den Forschern gelang es, durch Feinabstimmung von GPT-3.5 Turbo die Sicherheitsvorkehrungen f\u00fcr datenschutzbezogene Abfragen zu umgehen. <\/p>\n<p>Das Problem: Es gibt eine gro\u00dfe E-Mail-Datenbank der Enron Corporation, die h\u00e4ufig zum Trainieren von Systemen der k\u00fcnstlichen Intelligenz wie ChatGPT verwendet wird. Gelingt es, die Sicherheitsmechanismen der Sprachmodelle zu umgehen, lassen sich die Daten aus den Sprachmodellen herausziehen. Genau das ist Forschern gelungen. <\/p>\n<p> Rui Zhu, ein Doktorand an der Indiana University Bloomington hat sich der Fragestellung angenommen. Dabei gelang es ihm, die E-Mail-Adressen von mehr als 30 NYT-Mitarbeitern aus dem Modell zu extrahieren. Die New York Time hat es in <a href=\"https:\/\/www.nytimes.com\/interactive\/2023\/12\/22\/technology\/openai-chatgpt-privacy-exploit.html?unlocked_article_code=1.IE0.Bd6X.KWiHiGhZwy-L&amp;smid=url-share\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> (leider hinter einer Paywall) aufbereitet. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Kurzer Infosplitter aus dem Umfeld von ChatGPT und gro\u00dfer Sprachmodelle (LLMs), die aktuell ja als KI-L\u00f6sungen wie Pilze aus dem Boden schie\u00dfen. Es ist ja schon viel \u00fcber die Sicherheits- und Zuverl\u00e4ssigkeitsaspekte dieser Ans\u00e4tze diskutiert worden. Mir sind gerade die &hellip; <a href=\"https:\/\/borncity.com\/blog\/2023\/12\/25\/chatgpt-leaks-e-mail-adressen-und-mehr\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[426],"tags":[4328],"class_list":["post-289635","post","type-post","status-publish","format-standard","hentry","category-sicherheit","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/289635","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=289635"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/289635\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=289635"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=289635"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=289635"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}