Noch ein Thema kurz aufgegriffen: Kürzlich wurde bekannt, dass Microsoft seine Nutzer seiner AI-Lösung Copilot von Copyright-Ansprüchen freistellen werde, falls der Anwender von Dritten verklagt wird. Aber nichts ist so alt wie die Zeitung mit der Nachricht von gestern. Nun hat Microsoft klargestellt, dass die Anwender seiner Software selbstverständlich haften, wenn die erstellten Ergebnisse gegen ein Copyright verstoßen.
Anzeige
Es sah wie eine Freistellung aus
Bei Verwendung von AI-Modellen (LLMs) lauern für Nutzer ja einige juristische Fallstricke, die von der Haftung für die Korrektheit der Ergebnisse der von den Large Language Modellen (LLMs) generierten Ergebnisse bis hin zu Fragen des Copyrights reichen. Speziell der Umstand, dass Benutzerdaten zum Training der Sprachmodelle verwendet wurden, wirft die Frage nach dem Copyright der generierten Textdokumente auf.
Im August 2023 verursachte die Information, dass die New York Times intern eine Klage gegen OpenAI (den Erfinder von ChatGPT) prüft, einigen Aufruhr in der Branche. Hintergrund ist, dass die New York Times ihre Rechte durch OpenAI verletzt sieht. Denn OpenAI verwendet öffentlich zugängliche Quelle (u.a. die Artikel der New York Times) zum Training ihrer LLMs.
Microsoft hat zum 7. September 2023 im Blog-Beitrag Microsoft announces new Copilot Copyright Commitment for customers so etwas wie ein Ablassschein für potentielle Kunden ihrer AI-Lösungen auszustellen. Im Blog-Beitrag heißt es, dass einige Kunden besorgt über das Risiko der Verletzung von Rechten des geistigen Eigentums Dritter seien, wenn sie die von generativer KI erzeugten Ergebnisse verwenden. Um diese Bedenken zu zerstreuen, kündigte Microsoft eine neue Copilot-Urheberrechtsverpflichtung an.
Kunden, die durch einen Dritten wegen Urheberrechtsverletzungen aufgrund der Verwendung von Microsoft CoPilot oder der von ihnen erzeugten Ergebnisse verklagt werden, will Microsoft schützen, habe ich in obigem Beitrag herausgelesen. Microsoft sicherte den Kunden zu, diese vor Gericht bei Klagen zu verteidigen und den Betrag aller nachteiligen Urteile oder Vergleiche, die sich aus dem Rechtsstreit ergeben, zu übernehmen.
Anzeige
Voraussetzung sei lediglich, dass der Kunde die Schutzmechanismen und Inhaltsfilter verwendet hat, die Microsoft in seine Produkte eingebaut habt. Diese sollen wohl verhindern, dass Inhalte der Trainingsdaten aus dem Large Language Model (LLM) in die Ausgaben einfließen. In der Vergangenheit hat diese Filterung aber nicht immer funktioniert. Ich hatte im Blog-Beitrag Microsofts CoPilot (AI) kommt bald; offene Fragen zum Datenschutz; Freistellung bei Copyright-Ansprüchen über diesen wunderbaren Persilschein berichtet.
Pustekuchen, der Kunde haftet
Nun stellt sich das alles als billige Marketing-Ente heraus. Martin Geuß ist das die Tage aufgefallen und er hat es in diesem Artikel als "Marketing-Lücke" aufgegriffen – erstmals war das hier thematisiert worden. Microsoft hat zum 30. Oktober 2023 gegenüber US-Behörden eine Stellungnahme mit dem Titel Microsoft Notice of Inquiry Comments to the US Copyright Office abgegeben, die das alles ganz anders klingen lässt. Im Dokument heißt es auf Seite 10:
When a person uses an AI application to create expressive works, it is possible that AI generated outputs may infringe copyright if the output is substantially similar to a previous work. Just like using any other general purpose tool, such as a photocopy machine, camera, computer, smart phone, users must take responsibility for using the tools responsibly and as designed. When users employ AI tools to create allegedly infringing works, courts should undertake the same considerations they would in any other infringement analysis—evaluating factors like substantial similarity and fair use.
Übersetzt heißt dies: Wenn eine Person eine KI-Anwendung zur Schaffung von Werken mit Ausdruckscharakter verwendet, kann es sein, dass die von der KI erzeugten Ergebnisse das Urheberrecht verletzen, wenn die Ergebnisse einem früheren Werk im Wesentlichen ähnlich sind. Wie bei jedem anderen Allzweckwerkzeug, z. B. einem Fotokopierer, einer Kamera, einem Computer oder einem Smartphone, müssen die Nutzer die Verantwortung für die verantwortungsvolle und bestimmungsgemäße Nutzung der Werkzeuge übernehmen. Wenn Nutzer KI-Tools einsetzen, um mutmaßlich urheberrechtsverletzende Werke zu schaffen, sollten die Gerichte dieselben Überlegungen anstellen, die sie auch bei jeder anderen Verletzungsanalyse anstellen würden – und dabei Faktoren wie wesentliche Ähnlichkeit und lautere Nutzung bewerten.
Mit anderen Worten: Von der Eingangs zitierten "Haftungsfreistellung" ist bei dieser Aussage nicht mehr viel übrig geblieben. Martin Geuß bezeichnet die Haftungsfreistellung von Anfang September als als "Marketing-Lüge".
Ähnliche Artikel:
Microsofts CoPilot (AI) kommt bald; offene Fragen zum Datenschutz; Freistellung bei Copyright-Ansprüchen
Informationssplitter aus der KI-Welt: Fails von Algorithmen, Warnungen und Microsofts "way of AI"
KI im Gesundheitswesen – die "Risiken und langen Schatten" aus den USA
Studie belegt wirtschaftliche Schäden durch Microsofts Produktbündelung
Anzeige
Ich bemerke (trotz im Blog verwendeten cropped-Header-XY.jpg voll mit MS-Büchern) eine zunehmende (mE gesunde) kritische Tendenz :-)
Global stelle ich in den letzten Jahren eine zunehmende Sozialisierung oder Umlenkung der Haftungsrisiken fest. Von Arztpraxis bis zu AI-Nutzer.
Änhliches schaffen diverse Konzerne: Siemens externalisiert die Verluste von Windkraft (auf Steuerzahler), schließt Geschäftsjahr jedoch mit Rekord (für Investoren) ab.
Siemens != Siemens Energy
Siemens Energy war aber mal Siemens und jetzt ist Siemens dort (größter/einziger) Gesellschafter.
Es war trotzdem eine Falschinformation!
Und es ist komplett offtopic. Als nächstes kommt noch Politikgebashe.
"Siemens externalisiert die Verluste von Windkraft (auf Steuerzahler)"
Da ist eine Falschinformation!
Siemens Energy hat um eine staatliche Bürgschaft für anstehende Projekte erbeten. Das ist durchaus üblich in der Exportwirtschaft, nannte sich früher Exportkreditgarantien oder Hermesdeckung.
de.wikipedia[.]org/wiki/Hermesdeckungen
und
www[.]bundesfinanzministerium[.]de/Content/DE/Standardartikel/Themen/Internationales_Finanzmarkt/Internationale_Finanzpolitik/auslandsgewaehrleistungen-des-bundes.html
Diese Andeckung wird sehr häufig von ausländischen Geschäftspartnern verlangt, um Ausfälle abzusichern. Es fliesst in der Regel kein Geld. Es ist eine Bürgschaft! Nur wenn der deutsche Hersteller oder Lieferant pleite geht, springt Hermes Euler ein.
Wenn ihr etwas politisches rausposaunt, was nicht zu eurem Alltagsgeschäft gehört, dann macht euch vorher gefälligst schlau. Sonst steht ihr als Troll da.
Bürge nie!
Betrifft das auch GitHub Copilot? Was passiert wenn die KI ein GPL Source Code vorschlägt?
Dann gelten für Dich GPL Bedingungen wenn Du solchen Sourcecode übernimmst? Warum sollte es anders sein?
Der Artikel ist schräg.. und aus dem Kontext zitiert, eventuell wäre etwas mehr Zeit sinnvoll..?
Im Zitat geht es darum .. wenn ich der AI sage mach eine Kopie von Musik des Künstlers XY dann ist das natürlich eventuell eine Urheberrechtsverletzung.
Nichts andres schrieb Günter.
Nein, er schreibt von jeglichem Ergebnis aus dem Text-/ oder Bildgenerator. Das wirklich schwierig. Wenn es tatsächlich darum geht, von z.B. einem LLM das Ergebnis von einem Auftrag ala "Schreib mir ein Theaterstück so ähnlich wie Dürrematts "Physiker" " zu schützen, dann zieht sich MS mit dieser Erklärung aus der Verantwortung heraus. Und das wäre absolut korrekt. Das Problem was ich dabei aber sehe, ist wie will der Kläger den Auftrag an die KI erkennen, wenn nur das Ergebnis öffentlich wird? Jede noch so gut generierte Antwort könnte irgendeinem Werk ähneln, auch wenn das garnicht beabsichtigt ist.
Vielleicht habe ich dich falsch verstanden? Dass eine Kopie eines Werkes immer Copyrights verletzt, steht außer Frage. Im Artikel – und in der zitierten Englischen Quelle – steht nirgendwo etwas von einer Kopie. Darüber muss niemand diskutieren.
Da in den "KI" Datenquellen geschützes Material liegt, kann es sein, dass der Chatbot eine Ausgabe generiert, in der Copyright geschützes Material enthalten ist. Die "KI" arbeite ja nur mit Textwahrscheinlichkeiten. Im ungünstigen Fall, kommt es dabei zu unerwünschten geschützten Zitaten.
Ein PRoblem was sich mir der derzeitigen Technik immer wieder stellen wird und nicht wegzudiskutieren ist. Und genau darum ging es ursprünglich mit Microsofts Versprechen, für die rechtlichen Folgen aufzukommen.
Wie sinnvoll und hilfreich das "Copyright Commitment for customers" tatsächlich sein wird, sei mal dahin gestellt. Aber sorry, in diesem Artikel wurde einiges völlig unsinnig zusammengebraut!
Das Zitat aus der Stellungnahme besagt nur, dass es durchaus möglich ist, dass man mit einer generativen KI ein Ergebnis erhalten kann, das ein Gericht als Urheberrechtsverletzung ansieht (ach was, wer hätte das gedacht?!) und dass man selbstverständlich rechtlich dafür haftbar ist, wenn man dieses Ergebnis verwendet.
Das widerspricht sich aber in keiner Weise damit, dass MS Schadenersatz für solche Fälle anbieten will.
Tatsächlich steht das sogar wortwörtlich in der Stellungnahme an das Copyright Office ebenfalls drin: "Microsoft has also committed to indemnifying and defending customers of our commercial Copilot offerings if a third party sues for using Microsoft's commercial copilot offerings or the output generated by these tools, provided that the customer has used the guardrails built into the products.". Letzter Absatz auf Seite 11.
Man beachte aber "COMMERCIAL Copilot offerings". Für Privatanwender-Dienste wie den kostenlosen Bing Chat gilt es also nicht.
Und was ist genau mit "guardrails" gemeint?
Schutzmaßnahmen, die in die KI eingebaut wurden, um Urheberrechtsverletzungen, Pornographie, Rassismus, illegale und gefährliche Ausgaben usw. zu vermeiden. Es ist aber möglich, diese zu umgehen ("prompt injection").
KI mit "Schutzmassnahmen" ist keine KI sondern allenfalls betreutes Denken. Eine echte KI wüsste, was "gut" für die Menschheit wäre und würde ungeachtet temporärer ideologischer Anomalien passende Antworten liefern. Das ist derzeit aber nicht gewollt. Die KI Welle ist ein Versuch, eine vermeintlich immer korrekte nicht zu hinterfragende übergeordnete Instanz zu installieren und darüber eine bestimmte Sichtweise als Wahrheit zu etablieren.
Hält die Nutzer_innen schadfrei ist humorvoll. Nebelkerze. Es ist Aufgabe der Bereitstellenden zu garantieren, dass der Output des Werkeugs frei von Rechten und Ansprüchen dritter ist. Micosoft ist Lieferant der entsprechenden Güter. Wenn sie Recht nicht einhalten können, dann muss das bei der Vertragserstellung deutlich hervorgehoben werden.
Bezogen auf Windows muss es einen Option geben die ganze Toolchain wirkungslos zu halten, um nicht aus Versehen in die Falle zu tappen.
Bei der Nutzung von KIs zur Erstellung "kreativer" Inhalte steht man andernfalls immer mit 1,5 Beinen im Knast. Schließlich basiert alles wesentlich, grundlegende Datengeknote darin aus absichtsvollen Urheberrechtsverletzungen.
Aber wir können ja auch Copyright, Patent-, Marken-, jedewede Verwertungsrechte, etc. auch gern abschaffen und dann mal schauen.
Naja, eine Verletzung der Copyright,- Patent-,Marken-, etc. Rechte wird das aber nur, wenn ich das auch öffentlich zugänglich mache.
Es ist nämlich nach deutschem Recht, erlaubt, z.B. urheberrechtlich geschützte Werke zu kopieren, nur darf ich diese Kopien nicht weitergeben oder der Öffentlichkeit zugänglich machen.
Ein sehr sehr häufig vorkommender Fall aus der Praxis ist z.B. die Kopie von Musik, früher oft auf Kassette, heute eher auf ein NAS oder das Smartphone.
Ich schreibe mir selbst aber so selten, und ich habe auch schon für andere geproggt ;)
Das wird m.E. nun viel häufiger Einzug halten, dass man z.B. Code oder Texte abgleicht und nach deren Quellen befragt. Bei einem wie oben stehend "Fotokopierer" WEISS ich, dass ich kopiert habe, aber bei einem für mich generierten Text oder Code ist das anders. Jede Wette, wenn Du das LLM dann fragst, ob oder ob nicht ein Copyright hinter seiner Antwort stünde, beginnt es "faktenbasiert zu halluzinieren" und sagt mal so, mal so…
Umgekehrt, wenn man erst mal auf eine Copyrightverletzung antworten muss, hat man schon Schaden (mind. zeitlich und nervlich). Selbst wenn ich den Vorgang zu Microsoft weiterreiche, muss ICH erst mal Aufwand treiben und nachweisen, dass ich alles mögliche getan habe (s.o.), dass das nicht passiert. Und dann hoffen, dass das MS genau so sieht wie ich. Naja, ich glaub ja nicht daran…
Moin,
hmmm, egal welche Suchmaschine ich mit der Frage "kann Chatgpt Quellenangaben?" füttere, bringen mich die Ergebnisse früher oder späteer immer wieder zu den folgenden Aussagen:
"ChatGPT kann keine genauen Quellenangaben liefern, da es nicht auf eine bestimmte Datenbank zugreifen kann, um Quellen zu überprüfen."
"ChatGPT [kann] keine genauen Quellenangaben liefern, was in der wissenschaftlichen Arbeit ein wesentliches Element ist."
"… dass ChatGPT ein wertvolles Werkzeug für die Erzeugung von Texten sein kann, solange seine Stärken und Schwächen berücksichtigt werden und die generierten Texte einer angemessenen menschlichen Überprüfung unterzogen werden."
Quelle: h–ps://www.scientific-economics.com/chatgpt-wissenschaftliche-arbeit-texte-artikel-schreiben/
Daraus ergeben sich für mich zwei Probleme:
1) Wie soll ich nachweisen, daß ich keine Urheberrechtsverletzung begangen habe, wenn ich nicht einmal die Quellen genannt bekomme, aus denen die LLM ihre Ergebnisse bezogen hat?
2) Ohne Quellenangabe ist es auch nicht möglich, zu erkennen, ob die gesammelten Informationen aus "echten" News bestehen, oder ob ihnen "Alternative Fakten" zugrunde liegen.
Schlußendlich stellt sich auch die Frage, warum ich LLMs nutzen soll, wenn ich die erzeugten Ergebnisse "einer angemessenen menschlichen Überprüfung" unterziehen soll/muß. Wie soll das vonstatten gehen, wenn keine Quellenangaben vorliegen?
Mein persönliches Fazit: Wer ChatGPT oder eine andere LLM einsetzt, um Ergebnisse für sein berufliches Umfeld zu erzielen, hat eindeutig zu viel Zeit. Einerseit muß derjenige die Suchziele vorgeben und andererseits die Ergebnisse dann noch einmal als Suchanfrage ins Netz stellen und nach den hoffentlich realen Fundstellen suchen lassen.
Falls ich das jetzt falsch sehen sollte, wie sieht es dann wirklich aus?
Wenn du mit Quellen belegte Angaben brauchst, ist (ausschließlich) ein LLM sicher nicht das Tool der Wahl. Das heißt aber nicht, dass es zu nichts zu gebrauchen wäre.
Die Antworten eines LLMs sind ein wenig vergleichbar mit Texten, die du selbst rein aus deiner Erinnerung und Kreativität erschaffst. Da kannst du dir auch nicht sicher sein, ob alles richtig ist oder ob du nicht versehentlich eine Urheberrechtsverletzung produzierst.
"Aber nichts ist so alt wie die Zeitung mit der Nachricht von gestern."
Oh doch.
Die Virensignaturen von vor 10 Minuten.
SCNR
Was haben die geraucht?
"Just like using any other general purpose tool, such as a photocopy machine, camera, computer, smart phone, users must take responsibility for using the tools responsibly and as designed. "
Auf der einen Seite JA!, man sollte wissen wie und ob man Tools benutzt. Ansonsten ist die Aussage…
Photocopy machine -> Damit kopiert man Dokumente, Dokumente die man selber in der Hand hält und vmtl. weiß woher die stammen.
Camera -> Damit fotografiert man Objekte/Personen, die direkt vor einem stehen und "greifbar" sind.
Computer -> Google und Co. wird auch massiv benutzt um urheberrechtlich geschütztes Material illegal zu verwenden. Hier ist es den Leuten aber meist egal woher die Sachen stammen, ansonsten handelt sich häufig um 1:1 Kopien, man hat noch die Möglichkeit nachzuforschen, kann/sollte sich die Bestätigung einholen, dass die Sachen frei von Rechten Dritter sind.
Jetzt kommt die KI:
KI: Hallo, ich habe dir einen Text/Bitte erstellt! Vielleicht habe ich das Werk "selbst" erstellt, vielleicht auch nicht und es besteht zu wesentlichen Teilen aus geklauten Elementen anderer Werke. Viel Spaß beim recherchieren, irgendwas auf dieser Welt hat mich evtl. ganz oder teilweise inspiriert. Bitte prüf genau, ob mein Werk urheberrechtlich Probleme macht. Ist nur minimal schwierig, weil selbst wenn ich mich habe stark inspirieren lassen, habe ich das Werk verfälscht. Ich kann dir leider nicht sagen was meine Quellen sind, weil ich eine künstliche Intelligenz bin!
"Just like using any other general purpose tool"