Das Thema Künstliche Intelligenz (KI) ist ja in "aller Munde" und das Interesse der Unternehmen am Einsatz groß. In den letzten Tagen sind mir einige Informationen untergekommen, die von Datenschutzanforderungen an AI-/LLM-Lösungen bis hin zu Klagen gegen OpenAI reichen und das ganze Geschäftsmodell kippen könnten, reichen. Nachfolgend bereite ich einige Informationshäppchen rund um das Thema für interessierte Leser auf.
Anzeige
Druck auf Unternehmen steigt …
Kürzlich ist mir eine Mitteilung von Teradata auf den Tisch gekommen, die sich mit den Ergebnissen einer beauftragten IDC-Umfrage zum Thema GenAI (generative artificial intelligence) unter Führungskräften befasst. Im Auftrag von Teradata wurden 900 C-Suite- und andere Führungskräften in Unternehmen befragt.
IDC Executive Preview, beauftragt von Teradata: "The Possibilities and Realities of Generative AI", IDC # US51015023, Juli 2023. Die Studie wurde im März 2023 unter 900 Führungskräften in den USA, Europa und Asien durchgeführt.
Das Fazit: Weltweit sähen sich Führungskräfte großem Druck ausgesetzt, generative KI (GenAI – generative künstliche Intelligenz) in ihrem Unternehmen einzuführen. Gleichzeitig müssten sie jedoch die wachsende Fachkräfte- und Qualifikationslücke im Bereich KI schließen und die ständig wachsende Komplexität von Daten bewältigen. Hier die Schlüsselaussagen:
- 9 von 10 Führungskräften [glauben] die Vorteile und das Potenzial von generativer KI zu erkennen
- 2 von 3 Führungskräften sehen die Auswirkungen von generativer KI mit Sorge, insbesondere in Bezug auf voreigenommene Ergebnisse und Desinformation
- Komplexität von Daten bleibt weiterhin ein kritischer Faktor: 85 Prozent der Befragten sehen kaum Veränderungen oder befürchten größere Herausforderungen in den nächsten zwei Jahren
Obwohl rund 80 Prozent der 900 weltweit befragten Führungskräfte ein erhebliches Maß an Vertrauen haben, dass GenAI für zukünftige Angebote und Abläufe ihres Unternehmens genutzt werden kann, muss ihrer Meinung nach noch mehr getan werden, heißt es in der Mitteilung. 86 Prozent der Befragten stimmten zu, dass Regulierung und Richtlinien nötig seien, um die Qualität und Zuverlässigkeit von GenAI-Erkenntnissen zu gewährleisten. Zudem haben 66 Prozent Bedenken hinsichtlich möglicher Vorurteile und Verzerrungen sowie Desinformation durch GenAI.
Ein weiteres Problem sei die wachsende Qualifikationslücke in Bezug auf GenAI: Nur 30 Prozent der Befragten gaben an, dass sie heute sehr gut vorbereitet oder bereit sind, GenAI zu nutzen. 42 Prozent stimmten voll und ganz zu, dass sie in den nächsten sechs bis zwölf Monaten über die nötigen Fähigkeiten verfügen werden, um GenAI einzuführen. Zugleich bestätigte jeder zweite Befragte (56 Prozent), dass man unter "hohem" oder "erheblichem" Druck stehe, GenAI kurzfristig im Unternehmen einzuführen.
Anzeige
Obwohl 89 Prozent der Befragten die Vorteile und das Potenzial von GenAI anerkennen, sind nicht alle davon überzeugt, dass GenAI seine derzeitige Beliebtheit behalten wird: 57 Prozent glauben, dass das Interesse an GenAI mit der Zeit abnehmen wird.
ChatGPT, Datenschutz und Datenethik
Die obige Umfrage befasste sich auch mit Fragen des Datenschutzes und der Datenethik – insbesondere in Hinblick darauf, dass ChatGPT ein Phänomen ist, das quasi über Nacht eingetreten ist. Überall auf der Welt gaben Führungskräfte an (92 Prozent), dass Datenethik und die verantwortungsvolle Nutzung von Daten von größter Bedeutung für sie sind. 97 Prozent sagen, dass sie damit in ihrem eigenen Unternehmen umfassend vertraut sind. Fast 9 von 10 Befragten bestätigen, dass sie über Experten bzw. ein Gremium auf dem Gebiet der Datenethik verfügen.
Die Umfrage zeigt auch, dass die Unternehmen digital reifer werden: In 54 Prozent der Unternehmen ist der Informationsfluss laut Angabe der Befragten uneingeschränkt möglich. Darüber hinaus sagten 49 Prozent, dass sie in der Lage sind, eine überdurchschnittliche Wertschöpfung aus ihren Unternehmensdaten zu gewinnen.
IT-Komplexität nimmt zu
Darüber hinaus zeigt die Umfrage, dass die Datenkomplexität in Unternehmen in den letzten Jahren zugenommen hat (70 Prozent). Dabei sind 85 Prozent der Meinung, dass diese Komplexität in den nächsten zwei Jahren konstant bleibt. 20 Prozent sind überzeugt, dass sie in Zukunft noch erheblich komplexer wird. Dies liegt unter anderem an akuten wirtschaftlichen Herausforderungen durch geopolitische Veränderungen, der wachsenden Anzahl an Homeoffice- oder hybriden Arbeitsformen sowie den Themen Umweltschutz und Nachhaltigkeit, die immer mehr im Mittelpunkt unternehmerischen Handelns stehen.
Mitarbeiter mit KI-Fähigkeiten gesucht
Inwieweit die obigen Aussagen Wunschdenken im Management sind, kann ich aktuell nicht wirklich beurteilen. Wenn die ChatBots zum Kundensupport etwas "mehr Intelligenz" an den Tag legen würden, kann es nur besser werden. Die Tage hatte ich im Beitrag Vodafone: Wenn der Kunde eine Störung melden will…. eine solche Perle mit thematisiert – Prädikat "wenig hilfreich". Persönlich durfte ich gestern den Elster-ChatBot kennen lernen, weil meine vom Finanzamt auf Papier angezeigten Bescheiddaten von dem abwichen, was mit Elster im Steuerprogramm zurück meldete. Ich hoffte, auf die Schnelle eine Erklärung oder einen Hinweis der Art "Problem bekannt" zu erhalten. Keine Chance, das Teil ist unbrauchbar. Ein Supporter der Steuersoftware hatte dann eine Erklärung, dass es an der Energiepreispauschale liegen muss, konnte aber auch nicht angeben, warum Papierausdruck und rückübermittelte elektronische Elster-Daten divergieren. Wunder der Technik und Totalausfall des ChatBot – ob AI dahinter steckt, weiß ich bei der Elster nicht, sollen ja kluge Vögel sein. Fazit: Es gibt viel Potential nach oben bei diesen ChatBots.
Und was man braucht: Mitarbeiter, die im Zweifelsfall mehr von dem Thema verstehen als Cheffe, der das in illustren Runden mit "wir machen jetzt in AI" erläutert. heise greift in diesem Artikel die Beobachtung auf, dass in Stellenanzeigen jetzt KI-Fähigkeiten erwünscht sind. Ob es dann auf den 20 jährigen Absolventen mit 10 Jahren KI-Erfahrung hinausläuft, wird man abwarten müssen. Ich sage es mal so: AI-Lösungen werden uns in den kommenden Monaten an allen Ecken und Enden entgegen springen, um uns zu beglücken. Bleibt zu hoffen, dass das besser ist, als das, was uns Verbrauchern/Kunden bisher vorgesetzt wurde. Denn der Kunde ist längst nicht mehr König, sondern lästiges Zahlvieh – so mein Eindruck.
Infosplitter aus der Praxis
Weil es gerade rein passt, IBM hat gerade den "Stein der Weisen" diesbezüglich ans Rollen gebracht. Man hat einen AI-gestützten Code-Assistenten für IBM Z freigegeben, der COBOL-Programmcode in JAVA überführen soll. Damit soll dem Mangel an Cobol-Experten begegnet werden. Ein Video gibt es hier, unter anderem hat Techcrunch das Thema in diesem Artikel aufgegriffen.
Und die Tage las ich bei heise in diesem Artikel, dass die Krankenkassen in Deutschland zwar Interesse an generativen Sprachmodellen haben, sogar Arbeitsgruppen zum Einsatz bilden, aber auf noch auf entsprechende Gesetze warten. Interessant die Aussage, dass "Prozessinnovationen im Gesundheitswesen bisher kaum messbar seien". Daher bezweifelt Frank Wild, Wissenschaftliches Institut der PKV, dass der Einsatz von KI die jährlich steigenden Ausgaben tatsächlich senken könnten. Ist doch eine erstaunliche Position der Art "wir schauen es uns an, versprechen uns aber nicht zu viel und sehen auch noch nicht den Durchbruch", die gänzlich vom Hype "wir müssen jetzt unbedingt generative Sprachmodelle einführen" abweicht.
Wie gaga Lösungen wie ChatGPT sein können, ging die Tage durch die Presse, heise hat es hier aufgegriffen. Microsoft Network (MSN) hat sich wohl per AI einen Artikel über "Sehenswürdigkeiten" generieren lassen. Dabei wurden in einem Fall für die Stadt Ottawa auch "Food Banks" erwähnt, was im Deutschen den Tafeln zur Lebensmittelausgabe an Bedürftige entspricht.
Microsoft hat übrigens auch ChaptGPT für seine Forenmoderatoren bei Microsoft Answers eingeführt. Ich bin als früherer Communitymoderator darauf hingewiesen worden und habe mal ein paar Minuten getestet. Viele Moderatorenantworten (generiert von automatischen Übersetzern) sind bisher schon Müll. Mein Kurztest einer Antwort auf ein konkretes Nutzerproblem hätte noch mehr Müll produziert (Strickmuster: Nimm den ursprünglichen Post, wiederhole diesen und verwurstele mit "habe ich das richtig verstanden", dann füge ein paar Trivialia sowie den Verweis auf den Support hinzu). Hab dann einige Fundstellen aus meinem Blog verlinkt, wo der Betroffene Hilfestellung zu Fehlermeldungen finden konnte.
Datenschutzbeauftragter fordert klare Regeln
Der Beauftragte für Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI), Ulrich Kelber, hat sich kürzlich ebenfalls in die Debatte eingemischt und fordert klare Regeln für KI-Datensammlungen.
Die Kollegen von Golem haben das Interview von Ulrich Kelber mit dem Deutschlandfunk in diesem Artikel aufbereitet.
Juristischer Ärger für OpenAI
Die Large Language Models (LLMs), die für die gegenwärtigen AI-Lösungen verwendet werden, sind ja auf Trainingsdaten angewiesen. Die Entwickler von OpenAI haben sich dazu im Web bedient. Das kollidiert aber mit dem Urheberecht und dem Schutz der Urheber. Die New York Times hat deshalb Klage gegen OpenAI eingereicht und will, dass die Trainingsdaten aus deren Webseiten gelöscht werden.
Arstechnica hat das beispielsweise in diesem Beitrag aufgegriffen. Wenn die Klage durchkommt, ist das Geschäftsmodell von OpenAI und vieler anderer Firmen hinfällig. Denn die müssten die Trainingsdaten löschen und von vorne beginnen. Jede Verletzung der Urheberrechte in den Trainingsdaten würde darüber hinaus teuer für OpenAI, wenn die im Raum stehenden Zahlen von 150.000 US-Dollar pro Verstoß Realität werden. Auf deutsch lässt sich das Ganze bei heise nachlesen.
Anzeige
– GenAI ist keine künstliche Intelligenz, sondern nur Text-Generierung auf Basis von Wahrscheinlichkeiten statt Wahrheiten
– basiert auf dem Internet mit allen seinen Urteilen und Vorurteilen
– um das zu verbessern, wäre eine Zensur erforderlich
– diese wird dann wohl auf political correctness basieren
– ist das wünschenswert ?
– NEIN
– also sollte man das Ganze als Fehlinvestition bzw. Hype abschreiben
Viele von unserer Spezies durch alle gesellschaftlichen Schichten hindurch sind auch nur Sprücheklopfer, die nur das wiedergeben, was sie mal gehört/gesehen/gefühlt haben. Wir haben nur viel mehr Sensorik/Sinne als nur massiv viele Texteingaben, mit denen wir lernen und reagieren.
Aus der Zeit, als die IT-Welt (vielleicht) noch etwas einfacher war, der Comic aber auf jeden Fall unpolitischer:
Google nach "I think mauve has the most RAM" und ersetze "SQL database" durch GenAI. Voilà!
KI ist das was die zivile Luftfahrt in ihren Anfängen war. Eine interessante Sprungtechnologie die viele Möglichkeiten bietet aber wir müssen noch den Umgang damit lernen und die Kinderkrankheiten rauskriegen. In der zivilen Luftfahrt sind viele Menschen gestorben bevor wir das wirklich im Griff hatten, dabei ist das Prinzip der Luftfahrt naturwissenschaftlich bewiesen. Der mediale Hype um KI ist aktuell grösser als der Internethype im Jahr 2000 scheint mir, und das macht mir am meisten Sorgen. Heise hat scheinbar nix anderes mehr zu tun als KI zu schreien. Wenn ich mir das von aussen so anschaue, erwische ich mich manchmal bei dem Gedanken das die Amish People vielleicht recht haben.