Alles macht in KI, es ist ein regelrechter Hype. Aber wenn es um die Bereitstellung der Daten für die Nutzung durch KI geht, sind die Deutschen merkwürdig zugeknöpft (finde ich gut). Vom eco gibt es eine Umfrage, die mir Ende Februar 2024 zugegangen ist. Bemerkenswert: Laut der eco Umfrage: lehnen zwei Drittel der Deutschen die Nutzung ihrer anonymisierten Daten für Künstliche Intelligenz ab.
Anzeige
Künstliche Intelligenz (KI) kann Produktionsprozesse in Wirtschaft und Industrie optimieren, Stau vermeiden und in der Krebs-Früherkennung sogar Leben retten. So die Heilsversprechen der Anbieter. Damit das zukünftig immer besser gelingt, müssen KI-Modelle mit einer Vielzahl von Daten trainiert werden.
Und damit sind wir beim Problem: Der Verband der Internetwirtschaft in Europa (eco) hat eine Umfrage durch das Meinungsforschungsunternehmen Civey hat im Auftrag von eco rund 2.518 volljährige Bundesbürger zwischen dem 12. und 13. Februar 2024 durchführen lassen. Die Ergebnisse sind repräsentativ. Der statistische Fehler der Gesamtergebnisse liegt bei 3,2 Prozent.
Laut dieser eco-Umfrage sind die Menschen in Deutschland nur begrenzt dazu bereit, ihre Daten anonymisiert für das Training künstlicher Intelligenzen zur Verfügung zu stellen.
- Zwei Drittel der Deutschen (66,3 Prozent) wollen ihre Daten selbst in anonymisierter Form nicht für das Training künstlicher Intelligenzen zur Verfügung stellen
- Daten zur eigenen Technologienutzung sowie Transport- und Verkehrsdaten würde rund jeder und jede Fünfte zur Verfügung stellen
- Künstliche Intelligenz sorgt in Deutschland für Verunsicherungen bei Bürger:innen
Immerhin 18,3 Prozent der Deutschen würden Daten zu ihrer Technologienutzung zur Verfügung stellen, 18,1 Prozent Transport- und Verkehrsdaten. Daten zum Reiseverhalten würden 15,7 Prozent der Deutschen teilen und Gesundheitsdaten 15,6 Prozent.
Anzeige
"Der visionäre Einsatz von Technologien und Anwendungen auf Basis von künstlicher Intelligenz bietet nicht nur enormes Wirtschaftspotenzial, sondern kann auch dazu beitragen, unser aller Lebensverhältnisse in vielen Bereichen zu verbessern. Diese Vorteile müssen stärker herausgestellt werden. Um diese Potenziale zu heben, braucht es neben digitalen Infrastrukturen, Diensten und Plattformen eben auch Datenpools. Die Verfügbarkeit hochwertiger Daten sowie ein einheitlicher und rechtssicherer Umgang mit Daten ist essentiell für alle datenbasierten Geschäftsmodelle. Wir brauchen ein vertrauenswürdiges Datenökosystem, das Bürger und Bürgerinnen auch die nötige Transparenz und Sicherheit gewährleistet, damit sie der Nutzung ihrer Daten für das Training von KI-Anwendungen zustimmen", sagt eco Vorstandsvorsitzender Oliver Süme. Die Bundesregierung sei hier jetzt dringend in der Pflicht.
Persönlich schießt mir ein Zitat von unserem früheren Bundeskanzler Helmut Schmidt durch den Kopf, der mal meinte: "Wer Visionen hat, soll zum Arzt gehen.". Und es ist noch nicht Hopfen und Malz verloren, wenn die Leute ihre Daten nicht hergeben wollen, egal, welche Anonymisierung da versprochen wird. Denn das Zitat des eco Vorstandsvorsitzender ist nichts anderes als eine Worthülse und Wortgeklingel, in der Praxis geht das mit der "Anonymisierung" schlicht in die Hose.
Und wenn wir schon beim Vertrauen sind – ich habe es nicht im Blog thematisiert. 404media.co berichtet in diesem Artikel, dass Tumblr und WordPress Nutzerdaten zum Trainieren von KI-Tools verkaufen. Da werden die Nutzer erst gar nicht gefragt. Fefe hatte es hier aufgespießt. Na ja, Tumblr und WordPress sind Ami-Klitschen, wir haben da eher den Heiner, Lauterbach, der deine Gesundheitsdaten in eine ePA pressen und dann für die Forschung bereitstellen will. Natürlich nur anonymisiert – versprochen.
Anzeige
> … lehnen zwei Drittel der Deutschen die Nutzung ihrer anonymisierten Daten für Künstliche Intelligenz ab.
Ist das nicht peinlich? Weil KI draufsteht bricht Hysterie aus. Dass sie per weidlich genutzen Apps aber längst Tonnen an zuordenbaren Daten abgeliefert haben, kommt den Befragten erst gar nicht in den Sinn.
… Buzzwords sind alles – diffus intransparente Ausleitung bei Apps? Verstehen wenige… … selbst wir müssen erst mal Lilith anfragen oder Wiresharken.
[Postulat, Arbeitstheorie] – Aber vielleicht hat die breite 2/3-Masse auch Angst, dass die KI durch Ihre Daten nur dümmer wird? Will doch keiner …
p.s. ich denke nicht, dass das Problem die Daten an sich sind. Es ist die Nutzung durch die Nutzenden. Dies eben eher nicht (nur) mit Fokus auf Transparenz, Gemeinwohl, oder Rechtskonformität über den Life Cycle.
Ich gehe mal davon aus, dass die Antwort bei der Weitergabe von anonymisierten Daten an Nicht-KI von der Tendenz auch nicht anders sein wird…
Es ist aber offensichtlich schon ein Unterschied, ob man Daten in eine KI füttert oder die Daten "nur" bei Bedarf verwendet. Die Daten werden dann in irgendeiner Form vom KI-Modell verwendet, werden ggf. nicht mal 1:1 wiedergegeben. Was schon ein massives Problem darstellt wenn es ums Löschen/Ansprüche geht. Die KI spuckt persönliche Daten aus bzw. es lassen sich irgendwelche Rückschlüsse ziehen, die Ausgaben sind aber so "schwammig", dass man nicht 100% sagen kann, dass die Ausgabe sich wirklich auf deine Daten bezieht…
Das Löschen ist dann auch wieder eine Sache, weil es ist auch vmtl. nicht damit getan, dass man einfach den Datensatz löscht. Keine Ahnung wie das genau läuft, aber je nach Anwendung müsste die KI wieder neu trainiert werden damit die Daten "raus" sind. Das ist auch mit deutlich mehr Aufwand verbunden.
Die Daten sind zwar anonymisiert, aber was da einige Firmen drunter verstehen….
Ich hoffe die 2/3 verstehen gerade KI und mögliche Folgen, peinlich ist das nicht. Datenschutzrechtlich der absolute Super-GAU, wenn irgendwelche personenbezogenen Daten in der KI landen und bei Ausgaben nicht klar erkennbar ist, ob es jetzt deine Daten sind oder Daten von mehreren Personen gemischt wurden. Versuch mal hier deine Ansprüche durchzusetzen wenn die KI irgendeinen "Datenmix" macht. Zumal die Systeme dann auch so eingestellt sind, dass personenbezogene Daten evtl. gar nicht ausgegeben werden, aber trotzdem im System drinnen sind.
Es gibt keine KI, nur irgendwelche Sprachmodelle.
Tja Daten sind das Öl de Neuen Jahrtausends. Könnte Ihre gerne haben, nur nicht als Raubbau, den dieser Rohstoff gehört nicht den Konzernen!
Ihr wollt meine Daten bitte sehr, könnte ihr gegen Bezahlung haben, aber das wird nicht billig! Die ContentMAFIA weis ja wies läuft, die Datensätze gelten nur pro Kaufzweck einmalig und nicht universal. Weitergabe an Dritte nicht erlaubt. Abo möglich.
Je nach Datensatz eben kostet es eben mehr oder weniger. Name Anschrift Alter ist günstiger als Religion, Glauben Politik Sexualvorlieben usw. ;-P Preis bestimmt der Datenhalter inkl. Übergang an die Erben bis 70 Jahre nach dem Tod!
/edit/
Ach so: es entsteht kein Besitztrechtsübergang, sondern nur ein Nutzungsrecht!
Anfragen willkommen ;-P
diese Umfragen sollte man nicht überbewerten, gäbe es 1x im Monat McDoof oder Würger King Gutscheine für die Nutzung, wären 2/3 damit einverstanden.
Korrekt.
Es werden Menschen befragt die vermutlich nicht mal so genau wissen was KI ist. Evtl. hätten die Fragesteller AI als Begriff nehmen sollen ;) – der ist noch nicht so "verbrannt".
Gibt es bereits in Form von Punktekarten bei Einkäufen und in jedem Supermarkt Rabatte mit der jeweiligen App. Die Mausefallen sind überall ausgelegt.
Wenn man sich wirklich damit beschäftigt stellt man fest das wirksame Anonymisierung verdammt schwer ist. Ich würde sogar soweit gehen und behaupten das wirklich anonyme Daten eigentlich wertlos sind. Es ist erstaunlich mit wie wenig Information man wieder Rückschlüsse auf eine bestimmte Person ziehen kann und dazu brauche ich nichtmal personenbezogene Daten.
Außerdem besteht doch die Gefahr das mehrere anonyme Datensätze wieder zu einem nicht anonymen Datensatz zusammengeführt werden.
Dazu kommt dann noch die Möglichkeit das anonyme Daten vielleicht gerade so passend, weil unschaft, sind das sie fälschlicherweise jemandem zugeordnet werden. Das ist so ein bisschen wie beim Horoskop das dann halt auch oft passt weil wage genug.
Ich will meine Daten auch anonymisiert nicht in solchen Sprachmodellen aber ich bin auch eher Aluhutträger was das angeht :)
Kommt jetzt auf die Daten an, aber anonyme Daten sind natürlich nicht wertlos.
Wenn du weißt welche Altersgruppe/Geschlecht welche Produktgruppe zum Frühstück ist, dann sind die Infos schon sehr wertvoll. Das sind theoretisch auch komplett anonyme Daten, zumindest auf der ersten Ebene und wenn es überall genug Antworten pro Gruppe gab.
Es wird nur dann schon wieder sehr problematisch wenn hier wirklich konkrete Produkte dahinterstehen und keine Gruppen, wie "Müsli" oder "Brötchen". Es gibt evtl. zwei Leute in Deutschland die zum Frühstück evtl. Rollmops von Firma XY essen. Die Person könnte man dann durch andere Datensätze rausfinden.
Das ist jetzt das simpelste Beispiel, aber wenn neben Angaben wie "Ich esse Müsli zum Frühstück" noch andere Informationen dazukommen, dann wird es dann immer kritischer. Je einmaliger der Datensatz wird. Der ist dann zwar immer noch anonym, aber mit Vergleichsinformationen könnte man dann durchaus auf die Person kommen.
Wobei ich darin noch nicht mal das Problem sehe, sondern was Firmen als "anonyme Daten" klassifizieren. In vielen Fällen sind es ja nicht mal anonyme Daten. Teilweise sind die Firmen auch der Meinung, dass wenn in einer Tabelle irgendwo eine ID auftaucht bzw. nur die ID übermittelt wird, dann sind die Daten anonym. Das an anderer Stelle dann ein Nutzername mit der ID verknüpft wird und es dann zuordenbar wäre -_- Ebenfalls wird dann auch immer die gleiche ID mitgeschickt. Selbst
Anonymität im Internet gibt es schlichtweg nicht! Du kannst lediglich den Aufwand den man betrieben muss hochschrauben aber niemals so hoch das man das nicht zurückverfolgen kann.
Selbst nen Einsiedler in der tiefsten Tundra ist nicht anonym! Dazu schwirren zu viel Überwachungssatelliten im All umher!
Und da gab es in den 90igern schon Teile die dir die Zigarattenmarke ablesen konnten wenn du eine rauchtest.
Was die heutigen können will ich gar nicht wissen.
McDoof ? Wäre nicht McFett oder McDickels passender?
Wir sollten die KI mit wirren Informationen füttern, dann hat dieser alberne Hype eine schnelleres wie lustiges Ende :-) Die KI wird auf Consumer Ebene lediglich als ausgefeilte wie manipulativ kapitalistische Einkaufsförderung benutzt werden. Warum soll ich die KI füttern, damit diese mich später zu manipulativen Kauf-oder Wahlentscheidungen manipuliert – eben.
Man muß die KI in Händen der globalen Multimilliardärs-Sozialisten als Waffe gegen uns normale Bürger begreifen!
mach ich heute schon ;-P Coockie Faker, Referrer Faker, Browser Switcher usw. erstickt an den falschen Daten!
Zwei Drittel der Deutschen wären auch nicht bereit, gegen Bezahlung von 25 EUR einen Monat lang eine Fußfessel zu tragen, damit man ihren Standort und ihre Bewegung nachvollziehen kann. Die selben zwei Drittel gehen allerdings in den ${upermarkt} und bezahlen eine ${beliebigeWareMitEinemWertGeringerAls2Euro} mit dem Smartphone.
Was soll man also aus diesen Umfragen ableiten?
Das die Leute nur sehr zögerlich oder eher gar nicht dazu lernen und lieber von dem bösen Erwachen überrascht werden wollen.
Nur meine Beobachtung.
Aus Umfragen kann man generell nur ableiten, dass die Leute gewisse Dinge in einer Umfrage gesagt haben.
Ich habe schon selbst an genügend Umfragen teilgenommen, um zu wissen, dass das, was ich dort angegeben habe, und das, was ich tatsächlich denke und/oder mache, nicht viel miteinander zu tun haben. Und ich gehe davon aus, dass das bei anderen nicht anders ist.
Es ist doch bekannt, das das Ergebnis von Umfragen alleine schon durch die Fragestellung und/oder die Antwortmöglichkeiten manipuliert wird.
Wenn ich z.B. nach der Lieblingszahl frage und nur 0-9 als Antworten zulasse, manipuliere ich das Ergebnis, denn jemand, dessen Lieblingszahl z.B. die 17 ist, kann diese Antwort gar nicht nennen.
Das ist es!
Die Scheinheiligkeit der Leute ist der totale Witz.
Schlimmer ist es noch, dass um ein besondere Video zu gucken alles an diesen Cookies zu akzeptieren.
Aber es kommt ja noch schlimmer. Solange die normalen Wahlen nicht mher "geheim" sind (Stichwort "Ergebnisverfolgung in den Wahlkreisen") ist alles scheinheillig.Die größte Ausrede ist auch "Datenschutz".
Das hat doch nichts mit Scheinheiligkeit zu tun. Die Leute[tm] begreifen schlicht nicht, dass das Akzeptieren von Cookies für ein lustiges Katzenvideo auch die Weitergabe von Daten von sich selbst beinhaltet. Wären Sie auf der Straße gefragt worden, ob sie freiwillig Daten über ihr Surfverhalten und die eingsetzte Hardware an einen US-Konzern senden würden, hättest du genau die gleichen Antworten bekommen: Die Mehrheit hätte empört abgelehnt. Hättest du sie dann auf die Diskrepanz zwischen Aussage und Tat hingewiesen, wäre nur ungläubiges Staunen und Abwiegelungen gekommen.
Klar doch aber bei Facebook, Insta, Tiktok und Co bereitwillig alles freigeben und teilen. Ganz mein Humor :-D
Du scheinst also 2518 Leute und noch viel wichtiger deren Kommunikation und digitale Nutzung zu kennen – Respekt, ich kenne nicht einen von denen…
Die unaufhaltsame Entwicklung der Künstlichen Intelligenz (KI) birgt zweifelsohne das Potenzial, sämtliche Lebensbereiche in der Zukunft nachhaltig zu prägen. Von der öffentlichen Sicherheit über das Gesundheitswesen bis hin zu Finanzangelegenheiten wird die KI zweifellos eine omnipräsente Rolle spielen. Diese technologische Revolution bringt jedoch nicht nur bahnbrechende Fortschritte mit sich, sondern wirft auch ernsthafte Bedenken hinsichtlich militärischer, nachrichtendienstlicher und manipulativer Anwendungen auf.
Besonders besorgniserregend ist die Möglichkeit der Manipulation durch KI, vor allem wenn es um die Ausnutzung von Informationen zum Vorteil weniger auf Kosten der Privatsphäre und des Wohlergehens der Vielen geht. Eine konkrete Gefahr wird deutlich, wenn man sich vor Augen führt, wie anonymisierte Daten von Stadtbewohnern gesammelt werden können. Zwar werden dabei keine direkten Verbindungen zu Einzelpersonen hergestellt, dennoch besteht die Gefahr, durch die Analyse von Massendaten Muster von Vorlieben, Sorgen und sozialen Verhältnissen in einer breiten Zielgruppe zu identifizieren.
Ein beunruhigendes Szenario offenbart sich, wenn man bedenkt, dass diese Informationen gezielt genutzt werden könnten, um die Meinungen und Entscheidungen einer großen Gruppe zu beeinflussen. Die Manipulation von Massendaten durch KI könnte somit zu einem mächtigen Werkzeug für diejenigen werden, die Zugang zu diesen Informationen haben. In einer Welt, in der persönliche Daten als kostbares Gut gelten, besteht die ernsthafte Möglichkeit, dass KI dazu verwendet wird, die öffentliche Meinung zu steuern, politische Entscheidungen zu beeinflussen oder wirtschaftliche Vorteile zu erlangen.
Dieses Potenzial für Missbrauch führt zu einer begründeten Angst vieler, denn die Erfahrung lehrt uns, dass Macht korrumpiert. In Anbetracht dieser Tatsache stellt sich die Frage, ob man selbst dazu beitragen möchte, dass die KI zu einem Instrument der Manipulation in den Händen weniger wird. Insbesondere die Interessen weniger decken sich selten mit den Interessen der breiten Masse, wie es beispielsweise in den Bereichen Kriege, Religion oder Finanzen deutlich wird. Diese Bedenken unterstreichen die Notwendigkeit, nicht nur die technologische Entwicklung der KI, sondern auch die ethischen Standards und rechtlichen Rahmenbedingungen sorgfältig zu gestalten, um einen verantwortungsbewussten und transparenten Umgang mit dieser bahnbrechenden Technologie sicherzustellen. Meine persönlichen Zweifel an einer verantwortungsbewussten Entwicklung der Künstlichen Intelligenz sind durchaus vorhanden und begründet. Es scheint, als teilten viele Deutsche ähnliche Bedenken in dieser Hinsicht. Nichtsdestotrotz könnte es letztendlich dazu kommen, dass politische Maßnahmen und Zwänge uns dieser Entwicklung ausliefern.
Du schreibst, als wäre das noch nicht Realität. Ist es aber.
> Ein beunruhigendes Szenario offenbart sich, wenn man bedenkt, dass diese Informationen gezielt genutzt werden könnten, um die Meinungen und Entscheidungen einer großen Gruppe zu beeinflussen.
Das passiert bereits und passierte bereits lange vor der KI.
> Dieses Potenzial für Missbrauch führt zu einer begründeten Angst vieler, denn die Erfahrung lehrt uns, dass Macht korrumpiert.
Der Drops ist gelutsch. Leute sind auf Social Media und trainieren dort die "KI" mit ihren Signalen (Likes, Stars, Views, was auch immer) bereits. Die Aussage bei so eine Umfrage kannst du völlig ignorieren.
Deshalb werden sie auch nicht gefragt, ob sie damit einverstanden sind.
So sieht das aus wenn eine "Umfrage" nicht von Bitkom stammt. Die hätten 90% Zustimmung vermeldet.
Wer KI auf seinen Geräten ablehnt, dem bleibt nur ich von Microsoft zu verabschieden.
Denn Microsoft rollt im vollen Umfang KI aus: und spricht schon Blockbuster KI Funktionen im Explorer, der schon bald eure Dateien inhaltlich verstehen wird.
Bei all den gezielten Datenübergriffigkeiten Microsofts, wäre es naiv darauf zu Vertrauen das Microsoft Datenschutz jetzt plötzlich ernst nimmt: Ganz im Gegenteil – eure Daten sind Datenbasis und somit Geschäftsgrundlage für Microsofts KI. Was werden sie also tun?
Sich vielleicht 20 neue Richtlinien ausdenken, die unter 10.000 andern Verstecken, und wenn Du die nicht abgelehnt hast, hast Du Microsoft die Zustimmung erteilt? Solche Interpretation von Datenschutz würde ich inzwischen als gezielten Raub einstufen.
Das hinterhältige ist: Wenn wir Europäer uns dem Datenhunger der globalen Internetriesen verweigern, führt das eben gerade nicht zum Schutz unserer Identität und unseres Gesellschaftsmodells. Die Alphabets und Apples beglücken uns ja trotzdem mit ihren Datenmodellen gebildet aus asiatischen und us-amerikanischen Daten – und form(at)ieren uns damit letztendlich.
Das passiert ja jetzt schon und da begrüßen wir das: Wenn etwa junge Russen und Chinesen individualistischen Lifestyle des Westens kopieren, hoffen wir, dass wir damit unseren Hybriden aus Demokratie und Kapitalismus in ihre Köpfe pflanzen und halten das für gut. Ganz anders wird das wahrgenommen, wenn das umgekehrt passiert.
Obwohl mir das hochgradig unsympathisch ist, was da passiert, seh' ich da auch keine wirklich gute Lösung. Und dass wir da nicht mehr mit eigenen europäischen Konzepten mitspielen, liegt eben an der strukturellen Blockade. Neues zerschellt stets an alten Geschäftsmodellen – und weil die mal Geld verdient haben, sind sie heilig.