{"id":283418,"date":"2023-07-07T00:09:00","date_gmt":"2023-07-06T22:09:00","guid":{"rendered":"https:\/\/www.borncity.com\/blog\/?p=283418"},"modified":"2024-05-04T00:03:21","modified_gmt":"2024-05-03T22:03:21","slug":"informationssplitter-aus-der-ki-welt-fails-von-ai-lsungen-warnungen-und-microsofts-way-of-ai","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2023\/07\/07\/informationssplitter-aus-der-ki-welt-fails-von-ai-lsungen-warnungen-und-microsofts-way-of-ai\/","title":{"rendered":"Informationssplitter aus der KI-Welt: Fails von Algorithmen, Warnungen und Microsofts &quot;way of AI&quot;"},"content":{"rendered":"<p>Heute noch ein Sammelbeitrag zu diversen Sachverhalten rund um das Thema \"k\u00fcnstliche Intelligenz\" bzw. Large Language Models (LLMs) und Algorithmen. So haben Leute mal einen Blick auf das geworfen, was Microsoft aktuell als AI bzw. CoPilot unter Windows 11 Insider Preview implementiert hat &#8211; entt\u00e4uschend. Die ChatGPT-Entwickler warnen, dass \"KI die Menschheit bedrohen k\u00f6nne\"; und es gibt gesammelte F\u00e4lle von negativen Folgen, getroffen von Algorithmen (w\u00e4ren k\u00fcnftig KI-Entscheidungen), die von Menschen nicht erkannt bzw. korrigiert wurde. <strong>Erg\u00e4nzung: <\/strong>In Australien hat ein fehlerhafter Sozialhilfe-Algorithmus f\u00fcr einen Skandal und bei Betroffenen f\u00fcr Verzweiflung und Suizide gesorgt.<\/p>\n<p><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg08.met.vgwort.de\/na\/9acce72fe6c04d0e88dd38b209509904\" alt=\"\" width=\"1\" height=\"1\" \/>Das BSI hat in einem Schaubild bzw. in <a href=\"https:\/\/www.bsi.bund.de\/SharedDocs\/Downloads\/DE\/BSI\/KI\/Grosse_KI_Sprachmodelle.html\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> aufgearbeitet, was Large Language Models (LLMs) wie \"ChatGPT\", \"LlaMA\", \"Bard\" und \"Luminous\" gut k\u00f6nnen.<\/p>\n<p><img decoding=\"async\" title=\"BSI: Was k\u00f6nnen gro\u00dfe KI-Modelle\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2023\/07\/fvgvCoG.png\" alt=\"BSI: Was k\u00f6nnen gro\u00dfe KI-Modelle\" \/><\/p>\n<p>Im Beitrag werden Chancen und Risiken f\u00fcr die Industrie und Beh\u00f6rden umrissen. Sie k\u00f6nnen gro\u00dfe Texte generieren, Daten analysieren, aber auch f\u00fcr b\u00f6swillige Zwecke missbraucht werden und haben das Risiko, nicht auf aktuellen Daten zu arbeiten oder falsche bzw. inkonsistente Ergebnisse zu liefern. Man sollte also als Verantwortlicher wissen, was man tut.<\/p>\n<h2>Wenn (AI-)Algorithmen scheitern<\/h2>\n<p>Ich fand es eine spannende Geschichte &#8211; die Kollegen von heise haben in <a href=\"https:\/\/www.heise.de\/news\/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html\" target=\"_blank\" rel=\"noopener\">diesem Beitrag<\/a> drei Beispiele zusammen getragen, in denen AI-Algorithmen gradios gescheitert sind. Hintergrund war die anstehende EU-Verordnung zum Umgang mit K\u00fcnstlicher Intelligenz. Anbieter von Algorithmen (inklusive k\u00fcnstliche Intelligenz) sollen durch diese Verordnung gezwungen werden, eine Folgenabsch\u00e4tzung der Wirkung ihrer Technologie vorzunehmen. Das ist auch bitter notwendig, wie Negativbeispiele immer wieder zeigen. Es geht dabei nicht um Gaga-Abfragen, bei denen ein Windows Produktschl\u00fcssel oder ein falsches Expos\u00e9 von ChaptGPT geliefert wird. K\u00fcrzlich machte in den USA ein Fall Schlagzeilen, bei dem ein Anwalt Klageschriften vor Gericht einreichte, bei denen ChatGPT einfach juristische F\u00e4lle und Urteile erfunden hatte (siehe\u00a0<a href=\"https:\/\/borncity.com\/blog\/2023\/05\/29\/anwalt-nutzt-chatgpt-fr-klage-und-bekommt-richtig-rger-wegen-erfundener-rechtsflle\/\" rel=\"bookmark\">Anwalt nutzt ChatGPT f\u00fcr Klage und bekommt richtig \u00c4rger wegen \"erfundener\" Rechtsf\u00e4lle<\/a>). Vielmehr zeigt die Auflistung bei heise die Gefahr auf, die von AI-Modellen (und Algorithmen sowie Datenerfassung) ausgeht, wenn diese nicht mehr verstanden oder keiner\u00a0 Folgen-\/Risikoabsch\u00e4tzung unterworfen werden.<\/p>\n<p><a href=\"https:\/\/www.heise.de\/news\/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" title=\"Wenn AI-Algorithmen scheitern\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2023\/07\/PjIr4GF.png\" alt=\"Wenn AI-Algorithmen scheitern\" \/><\/a><\/p>\n<p>Da in den Niederlanden alle \u00f6ffentlichen Verwaltungen seit 2022 verpflichtet sind, solche externen Folgenabsch\u00e4tzungen f\u00fcr ihre automatisierten Statistiksysteme vorzunehmen, gibt es dort Erfahrungen mit Super-Fails von Algorithmen. Der Fall einer Gemeinde, die zur Verkehrsberuhigung einfach nur in Autos durchfahrende Personen an Hand der Handy-Signale ermitteln wollte, zeigt die Gefahr solcher Auswertungen. Im \u00fcberwachten Bezirk fand sich ein Gotteshaus einer religi\u00f6sen Minderheit und die Besucher w\u00e4ren anhand der Signale eindeutig identifizierbar gewesen. Das Projekt wurde dann nach einer Evaluierung fallen gelassen.<\/p>\n<p>Krasser ist ein Versuch, Sozialbetrug bei Beziehern sozialer Leistungen mittels solcher Algorithmen aufzusp\u00fcren. Bei der Analyse der Daten wurden 10.000 jungen Elternpaaren wegen vermeintlichem Sozialbetrugs staatliche Zusch\u00fcsse gestrichen und R\u00fcckzahlungen gefordert. Betroffene Paare gerieten dadurch nicht selten in finanzielle Probleme. Das Programm musste 2020 abgebrochen werden, weil sich herausstellte, dass alle Betroffenen zum Kreis der Paare geh\u00f6rten, bei denen einer oder beide eine doppelte Staatsb\u00fcrgerschaft besa\u00dfen. Der Algorithmus hatte das Merkmal \"Doppelstaatsb\u00fcrgerschaft\" zu hoch gewichtet &#8211; mit entsprechenden Folgen. Die Kollegen von netzpolitik.org haben diesen Fall, der zu einem Millionen-Bu\u00dfgeld wegen Versto\u00dfes gegen die DSGVO und dem R\u00fccktritt des gesamten Kabinetts von Mark Rutte f\u00fchrte,\u00a0 2021 in <a href=\"https:\/\/netzpolitik.org\/2021\/kindergeldaffaere-niederlande-zahlen-millionenstrafe-wegen-datendiskriminierung\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> n\u00e4her beschrieben.<\/p>\n<p>Ein weiterer Fall von Algorithmen-Fail wurde in Italien aufgedeckt, als dort ein Lehrermangel per Software durch verbesserte Stellenbesetzungen behoben werden sollte. Im Endergebnis verschlechterte sich die Bilanz durch den Algorithmus, weil erfahrene P\u00e4dagogen vom System pl\u00f6tzlich als Aushilfslehrer eingestuft und pl\u00f6tzlich arbeitslos wurden. Es waren zwar alles keine \"heute diskutierten LLM-Algorithmen\", die in diesen F\u00e4llen zum Tragen kamen. Die F\u00e4lle zeigen aber, wie der Teufel bzw. das Risiko im Detail liegen kann und die Folgen abzusch\u00e4tzen sowie die Ergebnisse abzupr\u00fcfen sind.<\/p>\n<p><strong>Erg\u00e4nzung: <\/strong>Ich bin zum 8. Juni 2023 auf einen neuen Fall gesto\u00dfen. In Australien hat ein fehlerhafter Sozialhilfe-Algorithmus f\u00fcr einen Skandal und bei Betroffenen f\u00fcr Verzweiflung und Suizide gesorgt, weil die Folgen teilweise dramatisch waren. Die Kollegen von heise haben den Fall mit den Folgen wie drastische Armut in <a href=\"https:\/\/www.heise.de\/news\/Australien-Sozialhilfe-Algorithmus-fuehrte-zu-Suiziden-und-verschaerfte-Armut-9210590.html\" target=\"_blank\" rel=\"noopener\">diesem Beitrag<\/a> aufgegriffen. Australiens Regierung setzte das Robodebt-System zwischen 2016 und 2019 dazu ein, R\u00fcckzahlungen von Sozialhilfe-Empf\u00e4ngern einzufordern. Ganz lesenswert &#8211; auch f\u00fcr die gro\u00dfen Bef\u00fcrworter von KI in allen Lebenslagen &#8211; ohne (pers\u00f6nliche) Haftung der Verantwortlichen und klare gesetzliche Regeln mit vorheriger Folgenabsch\u00e4tzung drohen u.U. dystopische Zust\u00e4nde.<\/p>\n<h2>OpenAI-Entwickler warnt drastisch<\/h2>\n<p>Ich erinnere mich noch, als ich in ersten Beitr\u00e4gen zum Microsofts AI-Pl\u00e4nen f\u00fcr Office und Windows wenig Begeisterung erkennen lie\u00df. Damals gab es Kommentare der Art \"soll man nicht erst schauen, was geht, bevor man mit kritisieren beginnt\". Inzwischen gibt es zahlreiche Warnungen und Beispiele zu Risiken des AI-Einsatzes. Der bei Google ausgeschiedene LLM-Entwickler Geoffrey Hinton hatte ja vor einiger Zeit bereits eindringlich vor den Gefahren einer unkontrollierbaren <em>Entwicklung<\/em> besonders fortgeschrittener k\u00fcnstlicher Intelligenz (<em>KI<\/em>) gewarnt. Bei Interesse l\u00e4sst sich bei <a href=\"https:\/\/www.t-online.de\/digital\/aktuelles\/id_100169196\/kuenstliche-intelligenz-google-entwickler-warnt-eindringlich-vor-gefahren.html\" target=\"_blank\" rel=\"noopener\">T-Online<\/a> oder beispielsweise bei <a href=\"https:\/\/www.tagesschau.de\/wirtschaft\/technologie\/ki-google-gefahren-hinton-100.html\" target=\"_blank\" rel=\"noopener\">tagesschau.de<\/a> nachlesen, was der <em>Godfather of<\/em> <em>AI<\/em> zu sagen hat.<\/p>\n<p>Auch von OpenAI Mitbegr\u00fcnder Sam Altmann sind Forderungen nach Regulierung von AI-Modellen bekannt. OpenAI-Mitgr\u00fcnder Ilya Sutskever und der Leiter der OpenAI-Abteilung f\u00fcr zuk\u00fcnftige Ausrichtung Jan Leike, haben k\u00fcrzlich drastisch vor den Gefahren durch AI-Modelle <a href=\"https:\/\/web.archive.org\/web\/20240501063744\/https:\/\/openai.com\/blog\/introducing-superalignment\" target=\"_blank\" rel=\"noopener\">gewarnt<\/a>. Eine \"Superintelligenz k\u00f6nnte die Menschheit entmachten\", wird\u00a0 <a href=\"https:\/\/www.spiegel.de\/netzwelt\/kuenstliche-intelligenz-warnung-des-chatgpt-anbieters-openai-vor-superintelligenz-a-bbd50fe0-2e97-4df3-b5ce-a95d84043713\" target=\"_blank\" rel=\"noopener\">bei Spiegel Online<\/a> kolportiert (einen <a href=\"https:\/\/www.reuters.com\/technology\/chatgpt-maker-openai-says-it-is-doubling-down-preventing-ai-going-rogue-2023-07-05\/\" target=\"_blank\" rel=\"noopener\">englischsprachigen Beitrag<\/a> gibt es von Reuters). Es gibt zwar Fachleute, die das f\u00fcr Unsinn halten. Aber OpenAI beginnt (leider erst jetzt) ein neues Forschungsteam zusammen zu stellen, um mit erheblichen Ressourcen die Sicherheit der eigenen KI-Modelle sicherzustellen.<\/p>\n<h2>Microsofts erste AI-Gehversuche<\/h2>\n<p>Microsoft hat ja mit gro\u00dfen Worten den Einzug von AI unter dem Begriff Windows CoPilot in Windows 11 angek\u00fcndigt (siehe\u00a0<a href=\"https:\/\/borncity.com\/blog\/2023\/05\/28\/windows-11-bekommt-mit-windows-copilot-ai-funktionen\/\" rel=\"bookmark\">Windows 11 bekommt mit \"Windows Copilot\" AI-Funktionen<\/a>) &#8211; auch Office soll so etwas bekommen (siehe\u00a0<a href=\"https:\/\/borncity.com\/blog\/2023\/03\/17\/microsoft-365-copilot-vorgestellt-ki-funktionen-fr-alle-office-apps\/\" rel=\"bookmark\">Microsoft 365 Copilot vorgestellt: KI-Funktionen f\u00fcr alle Office-Apps<\/a>). Windows Insider k\u00f6nnen wohl einen ersten Eindruck von Windows CoPilot erhaschen. Die Tage ist mir <a href=\"https:\/\/www.neowin.net\/news\/hands-on-with-windows-copilot-a-buggy-mess-that-will-hopefully-get-better-with-time\/\" target=\"_blank\" rel=\"noopener\">dieser Beitrag<\/a> von neowin.net untergekommen, der von einem fehlerhaften Chaos spricht und hofft, dass es besser wird.<\/p>\n<p><a href=\"https:\/\/www.windowscentral.com\/software-apps\/windows-11\/first-look-at-windows-copilot-its-actually-just-microsoft-edge-not-windows-11\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" title=\"Windows CoPilot\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2023\/07\/JmnQfYJ.png\" alt=\"Windows CoPilot\" \/><\/a><\/p>\n<p>Interessant fand ich auch <a href=\"https:\/\/www.windowscentral.com\/software-apps\/windows-11\/first-look-at-windows-copilot-its-actually-just-microsoft-edge-not-windows-11\" target=\"_blank\" rel=\"noopener\">den Beitrag von Zac Bowden<\/a> auf Windows Central, dass Windows CoPilot aktuell nur die Edge Sidebar sei, der irgendwie in der Taskleiste integriert wurde. Es muss wohl noch viel investiert werden, bis da was brauchbares vorliegt. Sind jetzt nur einige Infosplitter, die ich zusammengezogen habe. Aber das gezeichnete Bild ist irgendwie in meinen Augen ern\u00fcchternd.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Heute noch ein Sammelbeitrag zu diversen Sachverhalten rund um das Thema \"k\u00fcnstliche Intelligenz\" bzw. Large Language Models (LLMs) und Algorithmen. So haben Leute mal einen Blick auf das geworfen, was Microsoft aktuell als AI bzw. CoPilot unter Windows 11 Insider &hellip; <a href=\"https:\/\/borncity.com\/blog\/2023\/07\/07\/informationssplitter-aus-der-ki-welt-fails-von-ai-lsungen-warnungen-und-microsofts-way-of-ai\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7459],"tags":[8393,4903,4322,3836,3288],"class_list":["post-283418","post","type-post","status-publish","format-standard","hentry","category-software","tag-copilot","tag-ki","tag-office","tag-software","tag-windows-en"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/283418","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=283418"}],"version-history":[{"count":0,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/283418\/revisions"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=283418"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=283418"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=283418"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}