{"id":279943,"date":"2023-04-19T10:45:18","date_gmt":"2023-04-19T08:45:18","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=279943"},"modified":"2023-10-05T18:25:06","modified_gmt":"2023-10-05T16:25:06","slug":"chatgpt-co-chance-oder-eher-dsgvo-risiko","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2023\/04\/19\/chatgpt-co-chance-oder-eher-dsgvo-risiko\/","title":{"rendered":"ChatGPT &amp; Co: Chance oder eher (DSGVO-)Risiko?"},"content":{"rendered":"<p><img decoding=\"async\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline;\" title=\"Cloud\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/05\/Cloud-Symbol.jpg\" width=\"200\" \/>Microsoft liefert sich mit anderen Firmen ja so etwas wie ein \"Rattenrennen\" um die schnellste KI-Einf\u00fchrung in Produkten. Bing, Office etc., kaum noch ein Microsoft-Produkt, in dem LLM-Funktion in Form von CoPiloten (ChatGPT) Einzug halten sollen. Auf der Hannover Messe spricht Deutschland-Chefin Marianne Janik von einer \"historischen Chance\" durch KI f\u00fcr die Industrie. Gleichzeitig ist mir ein Artikel von einem Rechtswissenschaftler unter die Augen gekommen, der sich mit der Frage der DSGVO-Kompatibilit\u00e4t von ChatGPT &amp; Co. befasst. Die Botschaft: Ja, man k\u00f6nnte ChatGPT &amp; Co. DSGVO-konform einsetzen, aber man muss genau hinschauen und die Hersteller m\u00fcssten das Zeugs entsprechend entwickeln. Und hier erwachen meine Zweifel, dass das klappt. Nachfolgend ein Abriss dieser Themenfelder.<\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg07.met.vgwort.de\/na\/712c179f12994f98adbee83f9c77300d\" alt=\"\" width=\"1\" height=\"1\" \/>Die Diskussion um den Einsatz von k\u00fcnstlicher Intelligenz a la ChatGPT oder \u00e4hnlichem in Software-Produkten ist aktuell ja in vollem Gange. Ich hatte diverse Themen hier im Blog reflektiert. Pers\u00f6nlich geh\u00f6re ich eher zur Fraktion Vorsicht, die erwartet, dass die Leute sich erst einmal im Klaren sind, was eine k\u00fcnstliche Intelligenz in Form von LLM-L\u00f6sungen kann, welches Risiken existieren und was man realistisch erwarten kann. Es gibt aber auch eine Fraktion \"einfach mal schauen, was geht\", die meint, dass man zur Not die Funktionen &#8211; so die in Microsoft Office als CoPilot ausgerollt werden, ja abschalten k\u00f6nne. Da kommt es immer gut, wenn man auf Fundsplitter st\u00f6\u00dft, die bei der Beurteilung helfen k\u00f6nnen.<\/p>\n<h2>Microsoft: AI-Technik als Chance begreifen?<\/h2>\n<p>Im Umfeld der aktuell stattfindenden Hannover Messe hat Deutschland-Chefin Marianne Janik einige Aussagen zum Thema gemacht. Die Kollegen von Dr. Windows haben es in <a href=\"https:\/\/www.drwindows.de\/news\/microsoft-deutschland-kuenstliche-intelligenz-soll-als-grosse-chance-gesehen-werden\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> aufgegriffen. Frau Jasik spricht \"von einer historischen Chance, die gerade in Kernbereichen wie der klassischen Industrie eine enorme Schubkraft in Deutschland entwickeln k\u00f6nnte\". Die Technologie k\u00f6nne nicht nur von allen auch mit viel Kreativit\u00e4t angewandt werden, sondern k\u00f6nne auch helfen, Blockaden wie den Arbeitskr\u00e4ftemangel zu \u00fcberwinden und Innovationsprozesse zu beschleunigen, zitieren die Kollegen.<\/p>\n<h3>Verst\u00e4ndis f\u00fcr Forderungen<\/h3>\n<p>Interessant fand ich dann so Aussagen, dass Microsoft Verst\u00e4ndnis f\u00fcr Forderungen habe, dass man K\u00fcnstliche Intelligenz nicht \u00fcberhastet entwickeln solle (das ist wohl dem Thema, welches ich im Beitrag <a href=\"https:\/\/borncity.com\/blog\/2023\/04\/01\/gegenwind-fr-chatgpt-co-moratorium-bei-der-ki-entwicklung-gefordert-und-italien-sperre-fr-chatgpt\/\">Gegenwind f\u00fcr ChatGPT &amp; Co, Moratorium bei der KI-Entwicklung gefordert, und Italien-Sperre f\u00fcr ChatGPT<\/a> aufgegriffen habe, geschuldet). Frau Jasik \"meint\", dass Microsoft sich bereits zu einem sehr fr\u00fchen Zeitpunkt Gedanken \u00fcber die ethischen Prinzipien, denen man folgen sollte, gemacht habe. Wichtig seien Fairness, Sicherheit, Zuverl\u00e4ssigkeit und Inklusion und am Ende m\u00fcsse immer ein Mensch (bez\u00fcglich der Ergebnisse, die die KI auswerfe) rechenschaftspflichtig sein.<\/p>\n<h3>Behutsame Einf\u00fchrung?<\/h3>\n<p>Die Ausf\u00fchrungen von Frau Janik gipfeln in der Aussage, dass Microsoft neue Produkte \"wie die Copilot-Erweiterungen in Microsoft 365 nicht einfach auf den Markt werfe, sondern erst sehr behutsam nach einer l\u00e4ngeren Preview-Phase einf\u00fchre\". Diese Aussage l\u00f6st selbst in der Dr. Windows-Leserschaft Kopfsch\u00fctteln aus, wie ich einigen Kommentaren entnehme.<\/p>\n<h3>Ein anderer Blick<\/h3>\n<p>Mir ist vor einigen Tagen <a href=\"https:\/\/web.archive.org\/web\/20231004040844\/https:\/\/www.nytimes.com\/2023\/04\/07\/technology\/ai-chatbots-google-microsoft.html\" target=\"_blank\" rel=\"noopener\">ein Artikel<\/a> der New York Time (leider nicht frei verf\u00fcgbar) mit interessanten Aussagen unter die Augen gekommen. Technologieunternehmen seien einst misstrauisch gegen\u00fcber dem, was k\u00fcnstliche Intelligenz leisten k\u00f6nnte, gewesen. Im \"Rattenrennen\" um die schnellste Integration von KI in Produkte w\u00fcrden Microsoft und Google Geschwindigkeit statt Vorsicht w\u00e4hlen. Jetzt geht es darum, die Kontrolle \u00fcber das n\u00e4chste gro\u00dfe Ding der Branche zu gewinnen.<\/p>\n<p>Der Artikel kolportiert, dass zwei Google-Mitarbeiter, die f\u00fcr die \u00dcberpr\u00fcfung der KI-Produkte des Unternehmens verantwortlich sind, im M\u00e4rz 2023 versucht h\u00e4tte, Google davon abzuhalten, einen KI-Chatbot zu starten. Sie waren der Meinung, dass dieser ungenaue und gef\u00e4hrliche Aussagen macht. Zehn Monate zuvor seien bei Microsoft \u00e4hnliche Bedenken von Ethikern und anderen Mitarbeitern ge\u00e4u\u00dfert worden. Die Leute \u00e4u\u00dferten in mehreren Dokumenten Bedenken, dass die KI-Technologie hinter einem geplanten Chatbot Gruppen auf Facebook mit Desinformationen \u00fcberschwemmen, das kritische Denken beeintr\u00e4chtigen und die faktische Grundlage der modernen Gesellschaft untergraben k\u00f6nnte.<\/p>\n<p>Hat Microsoft nicht davon abgehalten, das KI-Rennen im Februar 2023 mit der Ank\u00fcndigung der ChatBot-Integration in Bing zu er\u00f6ffnen. Eine interne E-Mail von Sam Schillace, F\u00fchrungskraft im Technologiebereich bei Microsoft, aus der die New York Times zitiert, macht die Sto\u00dfrichtung klar. Sam Schillace schrieb, dass es ein \"absolut fataler Fehler sei, sich in diesem Moment um Dinge zu sorgen, die sp\u00e4ter behoben werden k\u00f6nnen\". Das ist also eine kontr\u00e4res Bild zu dem, was Microsofts Vertreterin der deutschen Industrie auf der Hannover Messe ins Ohr s\u00e4uselte.<\/p>\n<h2>ChatGPT und die DSGVO<\/h2>\n<p>Mich trieb ja, als ich erste Pl\u00e4ne zur ChatGPT-Integration in Microsoft Office (CoPilot) vernahm, sofort die Frage nach der DSGVO-Konformit\u00e4t um. Erste Reaktionen diverser Leute auf von mir angerissene Fragestellungen: \"Ist kein DSGVO-Risiko, und zur Not schalte ich es ab &#8211; mache dich erst mal \u00fcber die Technik schlau\". Kann man so sehen, muss man aber nicht.<\/p>\n<p>Aktuell liegt meines Wissens noch keine technische Implementierung der LLM-Modelle als CoPilot in den Office-Modulen vor. Die Winkelz\u00fcge Microsofts zur DSGVO-Konformit\u00e4t von Microsoft 365\/Office 365 wecken bei mir aber eher Misstrauen, was die AI-Implementierung f\u00fcr die DSGVO-Konformit\u00e4t bedeutet.<\/p>\n<p><a href=\"https:\/\/twitter.com\/Dennis_Kipker\/status\/1647945752763674625\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" title=\"Datenschutz bei ChatGPT &amp; Co. \" src=\"https:\/\/i.imgur.com\/Yts0g1f.png\" alt=\"Datenschutz bei ChatGPT &amp; Co. \" \/><\/a><\/p>\n<p>Daher war ich sofort geflasht, als mir obiger <a href=\"https:\/\/twitter.com\/Dennis_Kipker\/status\/1647945752763674625\" target=\"_blank\" rel=\"noopener\">Tweet<\/a> von Prof. Dr. Dennis-Kenji Kipker (ein deutsch-japanischer Rechtswissenschaftler und Professor f\u00fcr IT-Sicherheitsrecht) unter die Augen gekommen ist. Christoph Kr\u00f6nke, Professor f\u00fcr f\u00fcr \u00d6ffentliches Recht I an der Universit\u00e4t Bayreuth hat sich der Frage angenommen, wie Technologien wie ChatGPT in Bezug auf die DSGVO einzustufen sind. Tenor seines Beitrags <a href=\"https:\/\/verfassungsblog.de\/attention-is-all-you-need\/\" target=\"_blank\" rel=\"noopener\">Attention Is All You Need: ChatGPT und die DSGVO<\/a> ist \"die AI-Technologie ChatGPT&amp; Co. kann DSGVO-konform gestaltet werden\", wenn die Firmen einige Prinzipien ber\u00fccksichtigen.<\/p>\n<p>Der Beitrag ist in meinen Augen in der typischen Form eines Juristen verfasst, der das Verbot von ChatGPT durch die Datensch\u00fctzer in Italien als Fall aufspie\u00dft und dann nachweist, dass dieses Verbot \"unverh\u00e4ltnism\u00e4\u00dfig\" sei. Es lohnt sich aber auf jeden Fall, den Artikel genauer durchzulesen. Dann im Verlaufe des Beitrags beleuchtet Prof. Kr\u00f6nke die Fallstricke von ChatGPT &amp; Co. in Bezug auf die DSGVO. Herausgearbeitet wird die Unterscheidung von Trainingsdaten und Betriebsdaten im Hinblick auf die DSGVO. In beiden Varianten k\u00f6nnen pers\u00f6nliche Daten eingeflossen sein oder einflie\u00dfen.<\/p>\n<h3>Rechtsgrundlage f\u00fcr Verarbeitung<\/h3>\n<p>Es stellt sich also die Rechtsgrundlage f\u00fcr die Verarbeitung solcher Daten. Interessant war f\u00fcr mich, dass selbst eine Verarbeitung frei verf\u00fcgbarer Daten zu Trainingszwecken nicht in unbegrenztem Ma\u00dfe gestattet ist. Eine Berufung auf Art. 6 Abs. 1 lit. f) DSGVO setze eine Abw\u00e4gung der einander gegen\u00fcberstehenden Rechte und Interessen voraus, in deren Rahmen auch die Rechte der betroffenen Personen aus Art. 7 und 8 GRC ber\u00fccksichtigt werden m\u00fcssen, schreibt Kr\u00f6nke. Deren Interessen seien durch Programme wie ChatGPT vor allem dann ber\u00fchrt, wenn die KI in Beantwortung von Nutzeranfragen im Internet \u00f6ffentlich verf\u00fcgbare personenbezogene Informationen zusammentr\u00e4gt, miteinander verkn\u00fcpft und mit der Nutzeranfrage in Kontext bringt.<\/p>\n<blockquote><p>Der Fall Jonathan Turley, Rechtswissenschafter mit Professur an der George Washington University, ist in meinen Augen bereits ein Beispiel f\u00fcr solche Konstruktionen, der aufzeigt, was schief laufen kann. ChatGPT hatte in einer Anfrage den Professor f\u00e4lschlicherweise der sexuellen Bel\u00e4stigung beschuldigt und das Ganze mit einem frei erfundenen Artikel belegt, wie z.B. <a href=\"https:\/\/www.derstandard.de\/story\/2000145272836\/chatgpt-beschuldigt-professor-faelschlicherweise-der-sexuellen-belaestigung\" target=\"_blank\" rel=\"noopener\">hier<\/a> zu lesen ist. Turleys hat nun jedenfalls Klage gegen OpenAI, den Entwickler von ChatGPT eingereicht.<\/p><\/blockquote>\n<p>Bei der Verarbeitung von Betriebsdaten wird die Sache noch kritischer. Deren Verwendung zu Trainingszwecken ist kaum mehr mit Art. 6 Abs. 1 lit. f DSGVO zu begr\u00fcnden. Es liefe auf eine Einwilligung durch betroffene Benutzer hinaus &#8211; in der Praxis eine schwierige Sache, die die Datensch\u00fctzer in Firmen in einige Zwickm\u00fchlen bringen d\u00fcrfte. Hier kommt es also darauf an, wie Microsoft das konkret implementiert und wie sichergestellt wird, dass ein \"Ausschluss\" der Verwendung von Betriebsdaten f\u00fcr Trainingszwecke im Rahmen der kontinuierlichen Updates \u00fcber Jahre sichergestellt werden kann &#8211; ich halte dies f\u00fcr nicht m\u00f6glich.<\/p>\n<h3>Fazit: Es k\u00f6nnte klappen &#8230;<\/h3>\n<p>Das Fazit des Beitrag sollte sich jeder Verantwortliche auf der Zunge zergehen lassen: <em>F\u00fcr die Anbieter von Programmen wie ChatGPT gilt in der Gesamtschau: Datenschutzrechtliche Sorgfalt und Aufmerksamkeit lohnen sich. Die Anspr\u00fcche des europ\u00e4ischen Datenschutzrechts sind durchweg erf\u00fcllbar, verlangen aber sowohl beim Betrieb als auch bereits bei der Entwicklung innovativer KI-Produkte entsprechende Anstrengungen. Es gilt damit, in Anlehnung an den von den Sch\u00f6pfern des Transformer-Modells ausgegebenen Leitsatz, auch in datenschutzrechtlicher Hinsicht: <\/em><a href=\"https:\/\/arxiv.org\/pdf\/1706.03762.pdf\" target=\"_blank\" rel=\"noopener\"><em>\"Attention is all you need\"<\/em><\/a><em>.<\/em><\/p>\n<h3>&#8230; oder eher Prinzip \"Hoffnung\"?<\/h3>\n<p>Dieses Fazit ist von der Hoffnung und dem Glaube an das \"Gute im Menschen\" bzw. in den Produkten der Firmen getragen, dass es schon gut gehen wird. Geht man den Artikel durch, lese ich zwischen den Zeilen bereits heraus, dass der Punkt \"Datenschutz bei der Entwicklung von KI-Produkten\" bereits bei OpenAI vernachl\u00e4ssigt wurde &#8211; und frank heraus gesprochen, ich sehe den Punkt auch nicht bei Microsofts Produktentwicklern. Dort wird die europ\u00e4ischen GDPR (DSGVO) sofern \u00fcberhaupt bekannt, als unwichtiges Anh\u00e4ngsel gesehen, welches man ignoriert, solange kein Stopp in der Nutzung von Office 365 kommt.<\/p>\n<p>Die besondere Erfahrung, die Samsung mit der versuchsweisen Verwendung von ChatGPT machen durften (siehe <a href=\"https:\/\/borncity.com\/blog\/2023\/04\/10\/chatgpt-fabuliermaschine-und-plappermaul-fr-firmengeheimnisse\/\">ChatGPT: Fabuliermaschine und Plappermaul f\u00fcr Firmengeheimnisse<\/a>), habe ich hier noch gar nicht angesprochen. Binnen 20 Tagen konnte man intern bereits drei F\u00e4lle identifizieren, bei denen Mitarbeiter Firmeninterna durch Verwendung von ChatGPT geleaked hatten. Samsung will jetzt eine eigene, intern gehostete AI-L\u00f6sung entwickeln, um solche F\u00e4lle zu vermeiden.<\/p>\n<p><strong>Erg\u00e4nzung:<\/strong> Nachdem ich den obigen Artikel publiziert habe, bin ich bei den Kollegen von Golem auf den Artikel <a href=\"https:\/\/www.golem.de\/news\/microsoft-365-copilot-ist-der-ki-kollege-eine-datenkrake-2304-173353.html\" target=\"_blank\" rel=\"noopener\">Ist der KI-Kollege eine Datenkrake?<\/a> gesto\u00dfen, wo Florian Zandt genau die Fragen stellt, die auch mir so durch den Kopf gehen.<\/p>\n<p><strong>\u00c4hnliche Artikel:<\/strong><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/01\/04\/bericht-microsoft-plant-bing-bis-mrz-2023-mit-chatgpt-suche-zu-erweitern\/\">Bericht: Microsoft plant Bing bis M\u00e4rz 2023 mit ChatGPT-Suche zu erweitern<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/02\/05\/chatgpt-perlen-und-neuigkeiten-zum-sonntag\/\">ChatGPT Perlen und Neuigkeiten zum Sonntag<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/02\/13\/microsoft-plant-nach-einem-bericht-office-mit-chatgpt-4-funktionen-zu-erweitern\/\">Microsoft plant nach einem Bericht Office mit ChatGPT-4-Funktionen zu erweitern<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/03\/17\/microsoft-365-copilot-vorgestellt-ki-funktionen-fr-alle-office-apps\/#comment-144696\">Microsoft 365 Copilot vorgestellt: KI-Funktionen f\u00fcr alle Office-Apps<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/04\/01\/gegenwind-fr-chatgpt-co-moratorium-bei-der-ki-entwicklung-gefordert-und-italien-sperre-fr-chatgpt\/\">Gegenwind f\u00fcr ChatGPT &amp; Co, Moratorium bei der KI-Entwicklung gefordert, und Italien-Sperre f\u00fcr ChatGPT<\/a><br \/>\n<a href=\"https:\/\/borncity.com\/blog\/2023\/02\/05\/chatgpt-perlen-und-neuigkeiten-zum-sonntag\/\">ChatGPT Perlen und Neuigkeiten zum Sonntag<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Microsoft liefert sich mit anderen Firmen ja so etwas wie ein \"Rattenrennen\" um die schnellste KI-Einf\u00fchrung in Produkten. Bing, Office etc., kaum noch ein Microsoft-Produkt, in dem LLM-Funktion in Form von CoPiloten (ChatGPT) Einzug halten sollen. Auf der Hannover Messe &hellip; <a href=\"https:\/\/borncity.com\/blog\/2023\/04\/19\/chatgpt-co-chance-oder-eher-dsgvo-risiko\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7263,270,426],"tags":[8382,8383,6932,4322,4328],"class_list":["post-279943","post","type-post","status-publish","format-standard","hentry","category-cloud","category-office","category-sicherheit","tag-ai","tag-chatgpt","tag-dsgvo","tag-office","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/279943","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=279943"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/279943\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=279943"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=279943"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=279943"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}