{"id":175977,"date":"2016-03-25T03:11:10","date_gmt":"2016-03-25T02:11:10","guid":{"rendered":"http:\/\/www.borncity.com\/blog\/?p=175977"},"modified":"2022-02-09T07:53:22","modified_gmt":"2022-02-09T06:53:22","slug":"microsoft-tay-chatbotteilweise-missglcktes-experiment","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2016\/03\/25\/microsoft-tay-chatbotteilweise-missglcktes-experiment\/","title":{"rendered":"Microsoft Tay-Chatbot&ndash;teilweise missgl&uuml;cktes Experiment"},"content":{"rendered":"<p>Der auf KI basierende Microsoft Chatbot Tay musste nach nur einem Tag abgeschaltet werden. Grund: Rassistische \u00c4u\u00dferungen der Software. Tay soll nach \"Anpassungen\" wohl wieder online gehen.<\/p>\n<p><!--more--><\/p>\n<p>Es war ein spannendes Experiment, welches die Bing-Entwicklergruppe von Microsoft da gestartet hatte: Ein auf K\u00fcnstlicher Intelligenz (KI) basierendes Programm wurde als sogenannter Chatbot mit dem Namen Tay aufgesetzt. Tay konnte mit <a href=\"https:\/\/twitter.com\/TayandYou\" target=\"_blank\" rel=\"noopener\">Twitter<\/a>, Snapchat und anderen Portalen interagieren und sollte Konversationen mit Nutzern abwickeln. Gestartet wurde Tay mit dem Profil eines 18 bis 24 j\u00e4hrigen Mobilger\u00e4tenutzers. Durch den KI-Teil konnte der Chatbot dabei lernen.<\/p>\n<p><img decoding=\"async\" title=\"Tay Twitter-Profil\" src=\"https:\/\/i.imgur.com\/Ei38KL3.jpg\" alt=\"Tay Twitter-Profil\" \/>(Tay Twitter-Profil)<\/p>\n<p>Auf dieser Webseite haben die Microsoft Entwickler einige Infos zusammen getragen. Bei <a href=\"http:\/\/www.engadget.com\/2016\/03\/23\/microsofts-tay-ai-chat-bot\/\" target=\"_blank\" rel=\"noopener\">engadget.com<\/a> (englisch) und <a href=\"http:\/\/www.heise.de\/newsticker\/meldung\/Microsoft-laesst-KI-auf-Twitter-Co-mit-Nutzern-plaudern-3150555.html\" target=\"_blank\" rel=\"noopener\">heise.de<\/a> gibt es kurze Vorstellungen des Projekts.<\/p>\n<h3>Der KI-Algorithmus sollte von Nutzern lernen und tat es auch<\/h3>\n<p>Leider ging ein Teil des Experiments schief. Tay wurde mit \u00f6ffentlich verf\u00fcgbaren Informationen \"gef\u00fcttert\" und dann gestartet. Er sollte anschlie\u00dfend von den Nutzern lernen und seine Kommunikation verbessern. Nutzer der Gruppe 4Chan haben darauf hin erfolgreich versucht, den Chatbot zu rassistischen \u00c4u\u00dferungen \u00fcber farbige Menschen sowie \u00fcber Hitler und zu sexistischen Antworten \u00fcber Frauen zu veranlassen (es sollte ein Hitler-Bot creiert werden). Das ist wohl, dank der KI-Komponente, auch gelungen. Der Bot speicherte ungefiltert die Infos, die von anderen Nutzern in die Konservation eingebracht wurden und wandelte sich \"vom Hipster-M\u00e4del zu Hitler- oder Hass-Bot\", wie man im Web z.B. <a href=\"http:\/\/www.spiegel.de\/netzwelt\/web\/microsoft-twitter-bot-tay-vom-hipstermaedchen-zum-hitlerbot-a-1084038.html\" target=\"_blank\" rel=\"noopener\">bei Spiegel Online<\/a> lesen kann. Ein englischsprachiger Abriss findet sich <a href=\"http:\/\/www.theguardian.com\/technology\/2016\/mar\/24\/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter\" target=\"_blank\" rel=\"noopener\">im The Guardian<\/a>.<\/p>\n<h3>Das Experiment ging schief<\/h3>\n<p>Microsoft entschloss sich daher nach nur einem Tag, das Programm zu stoppen und hat einen Gro\u00dfteil der Tweets gel\u00f6scht. Bei techrepublic.com findet sich ein <a href=\"https:\/\/web.archive.org\/web\/20220131195850\/https:\/\/www.techrepublic.com\/article\/why-microsofts-tay-ai-bot-went-wrong\/\" target=\"_blank\" rel=\"noopener\">englischsprachiger Artikel<\/a>, der kurz auf die Gr\u00fcnde eingeht, warum es schief gehen musste. Nun sitzen die Microsoft-Entwickler dran, die Algorithmen einem Software-Upgrade zu unterziehen, wie neowin.net <a href=\"http:\/\/www.neowin.net\/news\/tay-microsofts-chatbot-is-offline-after-twitter-turned-it-into-a-racist-nutjob\" target=\"_blank\" rel=\"noopener\">hier schreibt<\/a>. Auch mspoweruser.com <a href=\"http:\/\/mspoweruser.com\/microsoft-making-adjustments-tay-avoid-inappropriate-responses\/\" target=\"_blank\" rel=\"noopener\">meldet<\/a> so etwas. Bei winfuture hat man ebenfalls eine <a href=\"http:\/\/winfuture.de\/news,91588.html\" target=\"_blank\" rel=\"noopener\">Zusammenfassung<\/a> zum Thema ver\u00f6ffentlicht.<\/p>\n<p><strong>Nachtrag:<\/strong> Microsoft hat zwischenzeitlich eine Entschuldigung und ein paar Infos in diesem Blog-Beitrag ver\u00f6ffentlicht.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der auf KI basierende Microsoft Chatbot Tay musste nach nur einem Tag abgeschaltet werden. Grund: Rassistische \u00c4u\u00dferungen der Software. Tay soll nach \"Anpassungen\" wohl wieder online gehen.<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[4293,4903,4904],"class_list":["post-175977","post","type-post","status-publish","format-standard","hentry","category-allgemein","tag-allgemein","tag-ki","tag-tay-chatbot"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/175977","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=175977"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/175977\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=175977"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=175977"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=175977"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}