[English]Kürzlich hat das chinesische Unternehmen Deepseek seine AI-Lösungen V3 und jetzt R1 als Open-Source für private und kommerzielle Nutzung freigegeben. R1 schlägt US KI-Modelle und ist in der API-Nutzung günstiger. Seit diesem Schritt ist der KI-Markt in den USA in Aufruhr, weil die US-Firmen ihre Dominanz bedroht sehen. Hier ein kurzer Überblick zur Sachlage.
Anzeige
Was steckt hinter Deepseek?
DeepSeek ist als erstes ein chinesisches Labor für künstliche Intelligenz, das quelloffene große Sprachmodelle (LLMs) entwickelt. Dessen Arbeit wurde erst im Jahr 2023 aufgenommen, um AI-Modelle zu entwickeln. DeepSeek wird zu einem großen Teil vom chinesischen Hedgefonds High-Flyer finanziert. Beide Organisationen wurden von Liang Wenfeng gegründet, der diese auch leistet. Die Organisationen haben ihren Sitz in Hangzhou, Zhejiang.
KI-Modell als Open-Source freigegeben
Im Dezember 2024 stellte Deepseek dann V3 als Sprachmodell (LLM) unter einer MIT-Lizenz der Allgemeinheit als Open-Source zur Verfügung, wie man in der Wikipedia nachlesen kann. Die Kernaussagen der Entwickler:
- Das Sprachmodell sei leistungsfähiger als die US-Modelle Llama 3.1 (Meta), GPT-4o (OpenAI) und Claude 3.5 Sonnet (Anthropic).
- Das Sprachmodell sei mit nur rund 5,3 Millionen US-Dollar entwickelt worden und musste mit wesentlich weniger leistungsfähigen AI-Chips beim Training auskommen.
- Das neue Sprachmodell V3 wurde unter MIT-Lizenz freigegeben, d.h. jeder kann dieses Sprachmodell einsetzen.
- Es gibt ein zweites Sprachmodell R1, welches auf logisches Denken und Vergleichstests optimiert ist und die OpenAI-Modelle schlägt. Dieses wurde am 20. Januar 2025 vorgestellt.
Auf Grund dieser Aussagen wurden von US-Unternehmen Benchmarks aufgesetzt, die diese technologischen Versprechen zu bestätigen scheinen.
Anzeige
Obigem Post auf BlueSky hat Meta vier sogenannte War-Rooms eingerichtet, um die Fähigkeiten der Sprachmodelle zu analysieren. Der Artikel hier fasst einige Informationen dazu zusammen (der "The Information"-Beitrag ist nur mit Anmeldung abrufbar).
Deepseek als AI Party Crasher?
Seitdem ist die US-KI-Welt ziemlich in Aufregung. Der Move des chinesischen Unternehmens scheint so etwas wie Schockwellen durch das US-KI-Universum geschickt zu haben. Als ich heute früh die Medienschau überflogen habe, explodierten die Nachrichten über Deepseek und High-Flyer geradezu. In der US AI-Party hat so was wie ein "Crasher", der die Stimmung versaut, eingeschlagen.
Das US-Stargate-Projekt
US-Präsident Trump hat zwar das mit 500 Milliarden US-Dollar ausgestattete KI-Projekt Stargate aus der Taufe gehoben, um den USA die technologische Führung auf dem Gebiet der künstlichen Intelligenz zu sichern (siehe z.B. diesen heise-Bericht). Federführend sind SoftBank, OpenAI und Oracle unter Beteiligung von Nvidia sowie dem Investitionsfonds MGX der Herrscherfamilie der Vereinigten Arabischen Emirate.
Die Tage ging dann eine Meldung durch die Medien, dass Elon Musk bezweifelt, dass Stargate die Gelder zur Finanzierung der riesigen Rechenzentren zur Verfügung habe. Speziell bei der japanischen Softbank äußerte Musk Zweifel, dass diese die gigantischen Summen finanzieren könne. Am heutigen 27. Januar 2025 lese ich u.a. hier, dass japanische Technologie-Aktien von Softbank, Advantest und anderen Unternehmen um bis zu 10 % gefallen seien.
Schockwellen im AI-Universum
Die Freigabe eines LLMs unter MIT-Lizenz sorgt für heftige Schockwellen in der US-Tech-Industrie, die ihre Vormachtstellung bedroht sieht. Business Insider befasst sich hier mit den Leistungen der Deepseek-Sprachmodelle und schreibt, dass sie besser als die US-Pendants abschneiden. Metas KI-Chefwissenschaftler sieht weniger die Bedrohung als den Wert der Offenlegung von KI-Modellen, von der jeder profitieren könne.
Das Handelsblatt thematisiert in diesem Artikel (nur mit Anmeldung lesbar), dass nun der Wert der Milliarden-Investitionen von US-Unternehmen in AI-Modelle hinterfragt wird. Die US-Tech-Firmen investieren Milliarden und eine chinesische Firma kommt mit wenigen Millionen aus, und legt noch bessere Produkte vor.
In diesem Beitrag hinterfragt jemand die Nvidia-Ansätze. Deren Aktien kannten bisher nur Höhenflüge, weil "man ja extrem leistungsfähige KI-Prozessoren braucht" und die Entwicklung von AI-Modellen jede Menge Rechenpower sowie solche Chips und Milliarden Investitionen benötigt. Und dann kommt jemand, der eigentlich einen Hedge-Fond betreibt und entwickelt quasi nebenbei ein Sprachmodell, was nur nur auf mickriger Hardware und zu verschwindenden Kosten hochgezogen werden konnte. Und diese Sprachmodelle (V3, R1) sind leistungsmäßig mindestens auf dem US-KI-Niveau, teilweise sogar besser. Das wirft Fragen auf.
Nutzung von Deepseek R1 günstiger
Auch das Nutzungsmodell von Deepseek R1 könnte die US KI-Blase zum Platzen bringen, wie die Analyse hier nahe legt. Das Sprachmodell ist nicht nur Open-Source und unter MIT-Lizenz frei für kommerzielle und akademische Nutzung verfügbar. Auch die kostenpflichtige Nutzung der API ist deutlich günstiger als bei OpenAI:
- Deepseek R1 will für die API-Nutzung nur 0,55 USD pro Million Eingabetokens und 2,19 USD pro Million Ausgabetokens
- OpenAI o1 berechnet für die API-Nutzung 15 USD pro Million Eingabetokens und 60 USD pro Million Ausgabetokens.
Die Nutzung der API ist wesentlich preiswerter als bei OpenAI, was auch Microsofts Ansatz, diese Sprachmodelle überall in seine Produkte einzupflügen, arg untergraben dürfte.
Die Deepseek-App ist in den USA in den App-Stores inzwischen auf Platz 1 geschossen, wie ich hier gelesen habe. Natürlich muss man sich als Nutzer die Frage stellen, wohin die Daten gehen, wenn man eine API eines Sprachmodells nutzt.
Auch gibt es Stimmen, die auf die Zensur der Sprachmodelle hinweisen, wenn es um politische Aussagen zur Volksrepublik China geht, wie man beim Wallstreet Journal nachlesen kann.
Die politische Zensur in China, die sich auch auf die dort entwickelten Sprachmodelle auswirken, sowie US-Exportkontrolle für fortschrittliche AI-Chips nach China, scheinen momentan noch einen Engpass darzustellen, was die Möglichkeiten der Deepseek Sprachmodelle in ihrer Leistung begrenzt.
Aber es sieht so aus, als ob sich gerade mächtig was in Bewegung befindet und viele der wolkigen Versprechen der US-Tech-Giganten (und deren Investitionen) auf wackeligen Füßen stehen. Ich hatte ja in den nachfolgend verlinkten Beiträgen (speziell in den ersten zwei Artikeln) diverse Zweifel, basierend auf diversen Analysen, in den Raum gestellt. Und wenn man sich das Thema "Energieverbrauch und Kosten", was sich mit den US-Ansätzen andeutet, anschaut, dürften einige Ansätze nicht mehr haltbar sein, wenn Deepseek mit seinen Sprachmodellen hält, was sich momentan abzeichnet. Es bleibt auf jeden Fall spannend – und es scheint beeindruckend, was die Entwickler in China binnen kurzer Zeit auf die Beine gestellt haben.
Ergänzung: Als ich den Beitrag Montag, den 27.1.2025 geschrieben habe, hatte ich keine Ahnung, welche Wellen das Thema schlägt. So gut wie jede Nachrichtenseite hat etwas zu DeepSeek. Nvidias Aktienkurs hat um 600 Milliarden US-Dollar nachgegeben – eine irre Zahl, zeigt wie irre die Aktienbewertungen sind. . Dann schreibt die Financial Times Tech stocks fall sharply over DeepSeek concerns, with MRVL down 19.1%, ORCL down 13.8%, AVGO down 17.4%, TSM down 13.3%, AMD down 6.4%, and ASML down 5.8%.
In diesem Artikel hat jemand, der sich mit den Themen befasst, eine FAQ veröffentlicht. Techcrunch wirft im Beitrag DeepSeek debuts a family of multimodal, MIT-licensed open-source models including Janus-Pro-7B, which it claims beats OpenAI's DALL-E 3 in GenEval and DPG-Bench einen Blick auf weitere DeepSeek-Produkte, die auch im Bereich Bilder funktionieren. Auch hier gleiches MIT-Lizenz-Modell und ein besseres Ergebnis als die US-Pendants. Wired beschäftigt sich im Beitrag DeepSeek's privacy policy shows broad data collection practices and says user data, along with all the conversations and prompts, is stored on servers in China mit dem Thema Datenschutz, da sieht es schlechter aus. Mir scheint, als ob da einiges in Bewegung gerät.
Ähnliche Artikel:
Was, wenn die generative KI sich als Blindgänger entpuppt?
Microsoft und seine KI: Änderungen im Kleingedruckten und Schwachstelle im AI Healthcare Chatbot Service
AI + Microsoft: Explodierende Energieverbräuche und Kosten
Rechenzentrumskostenausgleich: Google, Amazon, Microsoft und Meta kämpfen gegen Vorschlag von Ohio
Recall ist wieder da, für Windows Insider auf Copilot+PCs
Anzeige
Der Durchschnitts IQ im Westen ist im freien Fall. Kein Wunder kommen Innovationen seit 10 Jahren eher aus China. Bessere Smartphones, bessere Verbrenner wie E-Autos, besseres Lego, 5G usw. Dafür gibts auf Unis im Westen zumindest Gender-Toiletten – auch was.
Die Wertschätzung einer guten Schulbildung ist in den asiatischen Ländern (nicht nur dort, auch z.B. in Lateinamerika) deutlich höher als im Moment in Europa.
Ich habe nie verstanden, woher "der Westen" seine Selbstsicherheit nimmt, daß die Chinesen zwar langsam zu uns aufschließen, uns aber nie überholen werden.
Was ist eine Gender-Toilette? Geschlechtsneutrale Toiletten gibt es schon immer. Nur die ArbStättVO schreibt meines Wissens getrennte Toilettenräume vor. Es ist allerdings erstaunlich wieviel Energie wir auf diesen Gender-Sch…ß verschwenden.
Ich sag ja immer, wenn das unsere einzigen Probleme sind, dann gehts uns noch gut.
Vielen Dank für diesen inspirierenden Beitrag. Ich hatte noch nie einen Zusammenhang zwischen chinesischen Open Source Sprachmodellen, der Vormacht der USA AI Industrie und Gender-Toiletten gesehen. Ja, auf den ersten Blick wirkt dein Beitrag so, also ob du eigentlich irgendwo ganz anderes posten wolltest und aus Versehen hier in den Blog gerutscht bist.
Ich bin aber gespannt auf deine weiteren Gedankengänge, die den Zusammenhang sicherlich deutlich machen werden.
@FriedeFreudeEierkuchen
Anhand Ihres gewählten Nicknames, könnte man meinen, dass bei Ihnen noch Friede, Freude, Eierkuchen herrscht…
Es benötigt auch ein bisschen mehr Anstrengung um die Zusammenhänge aus dem Post von michael zu erkennen – probieren Sie es ruhig nochmal, tut nicht weh :)
@michael @Haralt- Och bitte. Selbst schon die Anfangseinlassung mit sinkendem IQ und Gender Toilette war jetzt nicht als ein wenig kümmerlicher Kreisschluss. Ein wenig mehr Würde tut doch auch dem Selbstbild keinen Abbruch.
So Stammtischbiereinlassungen sind ja vielleicht nicht sehr toll und schlau, vielleicht hinnehmbar. Aber vielleicht dort besser aufgehoben.
Danke Karli! 👍 Etwas Ähnliches wollte ich zu genau den beiden auch gerade schreiben.
+1
Unterdrückung der eigenen Bevölkerung, Weichmacher und andere Schadstoffe in vielen Produkten, begrenzte Haltbarkeit, ja die haben viel zu bieten. Man muss die jetzt auch nicht größer machen als sie sind.
Umgekehrt sollte man "die" auch nicht unterschätzen, nur weil sie jahrzehntelang durch ein idiotisches politisches System an der Entwicklung gehindert waren.
Chinesen sind geborene Geschäftsleute. Ein typischer Chinese fragt nicht, wie ein typischer Deutscher, "was kann ich, und wie kann ich damit die Welt verbessern", sondern "wo gibt es eine Geschäftsmöglichkeit, und wie kann ich damit reich werden". Nicht ohne Grund dominieren vielerorts in Asien (ethnische) Chinesen die Wirtschaft. Und weil es ziemlich viele von denen gibt, gibt es eben auch ziemlich viele Intelligente, Fleissige, Motivierte.
In einem wesentlichen Punkt kann China aber nicht mit den USA mithalten: Ein ganz erheblicher Teil des Erfolgs der USA beruht darauf, von überall in der Welt, nicht zuletzt aus China, ambitionierte Einwanderer anzuziehen. Nach China hingegen will aufgrund des politischen Systems niemand. Und nach Europa? Na, lassen wir das, jetzt wird's politisch…
(Und ehe jemand fragt: Ja, ich habe Familienangehörige in China.)
Unterschätzen sollte man China nicht… trotzdem würde ich Kindern sicher kein Lego-Ersatz von dort geben, als ein Beispiel.
Aber: Wer möchte den freiwillig noch in die USA ziehen? Ich denke, die haben ihren Charme nun wirklich verloren. Da würde ich klar Europa vorziehen, Dinge müssen sich hier ändern, aber wir leben hier trotzdem auf dem bestmöglichen Kontinent… mit leider ein paar traurigen Ausnahmen dank Leuten von Gestern.
>> Da würde ich klar Europa vorziehen
Ich persönlich auch — sage ich als jemand, der schon längere Zeit in den USA gelebt und gearbeitet hat.
Trotzdem ist das eine sehr europazentrische Sicht.
Asiatische Studenten, die ins Ausland wollen, wollen alle in die USA. Nach Deutschland kommen nur die, die sich ein Studium dort nicht leisten können, sondern sich lieber der Grosszügigkeit der deutschen Steuerzahler anvertrauen.
Wer ehrgeizig ist und etwas werden will, geht nicht nach Europa. Deutschland wird in der breiten Bevölkerung Chinas geschätzt für — nein, nicht etwa seine Autos, Maschinen, Chemieprodukte oder Wissenschaft, sondern für Reformhäuser und Bio-Lebensmittel. Das sagt eigentlich alles.
Wieso sollte ein Top-Softwareentwickler, -Physiker oder -Biochemiker, der davon träumt, reich und berühmt zu werden, hierherkommen wollen? Bei unseren lächerlichen Gehältern? Das ist für einen chinesischen (oder auch indischen) Absolventen einer guten Uni schlicht nicht interessant.
@All: Ab hier habe ich einige Kommentare gelöscht, die sich mit "irgendwas von gestern" gekabbelt haben – führt arg weg vom Thema des Artikels und muss hier im Blog nicht als Kommentar stehen – danke für euer Verständnis.
Naja wenn man es geschichtlich betrachtet waren uns die Chinesen eigentlich schon immer voraus – bis der Kommunismus Einzug gehalten hat. Grundsätzlich stimme ich auch der Aussage mit dem IQ zu – es war die Wissenschaft und die Schulen die Deutschland groß gemacht haben. Es war mal "in" zur Jahrhunderwende (18 + 19) Schulen, Unis usw. gebaut zu haben – dann war Deutschland zu Anfang des 19.Jhd absolute Weltspitze in allen Entwicklungsbereichen – und dann kam der ****** Kaiser und meinte Kolonialismus wäre wichtig – den Rest kennt man ja.
Tja ich verspüre gewisse Schadenfreude, während die USA wie ein Gorilla wild umher pöbeln und auf Masse und (Markt-)Macht setzen und dabei Ihre Kunden mit teuren Nutzungsverträgen knechten, sind die Chinesen schlauer und flinker und bringen mit dem Move alles in Bewegung. Den fetten Gorilla mal eben dumm stehen lassen während die Horde weiterzieht. Wobei das könnte auch ein orangefarbener Orang-Utan sein – wobei da täte ich den Orang Utans gerade Unrecht mit diesem Vergleich.
Entspricht komplett der chinesischen Mentalität und hat auch was von kleiner Steinflitche eines David gegen den großen, massigen aber dumpen Goliath.
Wie sich China gegenüber Taiwan gebärt, zeigt aber ein ganz anders Bild
…ist hier aber kein Gegenstand.
*** GB: Ab hier alle Folgekommentare gelöscht, da nur noch gegenseitiges beharke, der Thread hier sollte damit auslaufen – danke.
Der Versuch der USA durch Wirtschaftskrieg die Chinesen klein zu halten funktioniert eben nicht, weil die USA kein adäquates intellektuelles Niveau bieten können, vom großen Vorsitzenden ganz zu schweigen. Europa könnte punkten, wenn die EU nicht immer die Gelder nur verbrennen würde sondern mal zielgerichtet einsetzen würde. Das Scheitern des Datenaustausches mit den USA könnte endlich mal die Europäer wachrütteln. Die dazu notwendige Expertise ist in den Unternhemen allerdings weitgehend verschwunden. Das zeigt sich auch an den Zahlen von Studienanfängern in den Ingenieursdiziplinen. Wer will schon als Ingenieur nur irgendwelchen Mist in der Cloud und aus den USA betreuen, anstatt selbst Technik entwickeln, auf die man stolz sein kann? Wenn ich heute die Lösung fürs Telefonieren mit Systemen wie Alcatel 4400 vergleiche, dann ist das zum Weinen. Hauptsache Cloud, Dienstgüte (falls hier im Blog noch jemand weiß, was das ist) völlig egal. Ich freue mich für die chinesischen Ingenieurskollegen und gratuliere zum Erfolg.
Fehler der letzten 30 Jahre. Eine ganze Ingenieursgeneration ist inzwischen verloren gegangen, wer jetzt neu in eine Firma kommt, findet keinen erfahren Ingenieur, der ihn an die Hand nimmt, sondern nur BWLer, die mit abstrakten Kennzahlen beschreiben können, wie schlecht es läuft, aber keinen Ansatz haben, es besser zu machen. Bestes aktuelles Beispiel ist die Bahn.
Ich weiß nicht, ob wir das wollen, was da in Asien abgeht. Ob wir uns selbst und unseren Kindern das zumuten wollen. Am Wochenende lief eine Doku über Studienbedingungen, Mobbing und Selbstmordrate junger Leute in Südkorea im TV. Diese angehenden Ingenieure und Schüler die auf die Unis wollen, verbringen mehr als 18 Stunden pro Tag mit Lernen, theoretisches Wissen aus Büchern und Internet, den ganzen Tag, nach der regulären Schule nochmal Nachmittag/Abends in eine Privatschule, teils schlafen die keine 4 Stunden pro Tag. Und um sich zu bevorteilen wird gemobbt, dass andere aus dem Rennen fallen, und demnach hat das Land eine recht hohe Selbstmordrate unter jungen Leuten, teils sind die Opfer dieses Systems gerade mal 12-13 Jahre alt.
Wollen wir das? Ist das ein Vorbild für uns?
Hat das jemand im Blog vorgeschlagen? Dann hab ich was verpasst.
Nein, das hat niemand vorgeschlagen, aber es entsteht oft der Eindruck, "die Chinesen" wären alle Überflieger, und wir müssten Angst vor ihnen haben. Das sind sie nicht. Das sind Menschen wie wir, die auch nur nach Glück und Zufriedenheit streben. Das sage ich seit Jahren.
Wird auf die enorme Leistungs der Chinesen verwiesen, wird damit eigentlich nur die virtuelle Antreiberpeitsche geschwungen und gleichzeitig der Trommeltakt erhöht.
Was der Vorposter ausdrücken wollte ist, dass jeder Mensch, auch die Chinesen, unter zu viel (Erwartungs-/Leistungs-)Druck, sei es Arbeitszeit pro Woche oder ständiges Lernen, um die/der "Beste der Besten" zu werden, tiefe Spuren in jeder Gesellschaft hinterlässt. Das ist überall gleich – auch bei den Chinesen. Kein Grund, Angst zu haben. Wir sind halt alle nur Menschen.
Im gesamten Prozess der Texteingabe und daruf folgenden Netzwerkkette, die Du benutzt hast, um diesen Kommentar hier zu schreiben, sind wesentliche Teile aus China. Merkst Du selbst?
Wo ist der Bezug zu meinem und dem vorgehenden Beitrag?
Der Bezug ist: Wir können nichts mehr. Ohne Teile aus China geht gar nichts. Kein Handy, kein Mobilfunknetz, keine Router, keine Switches, kein PCs, keine Kassensysteme, nichts mehr funktioniert, überall fehlen entscheidende Zulieferteile. Und wir können das nicht mittelfristig selbst entwickeln und bauen. Wir sind voll abhängig. Und gleichzeitig mit Schuld an den Verhältnissen dort. Das ist durchaus ein Grund, Angst zu haben.
Volle Zustimmung!
Ja, man muß nur einmal moderne Smart-Ferneher anschauen und vergleiche die mit einem alten Fernseher ohne Smartfunktion.
Bei den modernen Smart-Teilen sind die Umschaltzeiten unterirdisch langsam, die ganze Bedienung ist nur furchtbar, die mitgelieferten Fernbedienungen nahe der Unbrauchbarkeit.
Jeder 30 Jahre alte Fernseher ist modernen Smart-TVs bedienungstechnisch haushoch überlegen.
Und was läuft auf den Smart-TVs i.d.R.?
Dieser Mist aus Amiland namens Google-TV oder Andoid-TV.
Aber die Koreaner können es auch so schlecht.
Die Europäer haben die Entwicklung verschlafen.
Und die Amis überschätzen sich total.
Wie heißt es doch: Hochmut kommt vor dem Fall.
Und das blüht den Amis in Zukunft.
Die Europäer hat es schon getroffen, siehe Autofirmen, deren Absatz in den großen Märkten massiv eingebrochen ist, weil sie den Chinesen in Bezug auf E-Autos wenig entgegenzusetzen haben.
Die waren in der Vergangenheit einfach zu arrogant!
@Martin
Wer Zusammenhänge nicht versteht versucht halt andere Meinungen immer ins Lächerliche zu ziehen, oder mit lächerlichen Pauschalisierungen in ein Licht zu rücken…
Scheinbar arbeiten Sie nicht, dann wüssten Sie was es mit der (sozialistischen) Abgabenlast auf sich hat :)
@Günter Born
Warum lassen Sie solche Kommentare hier zu, während andere kritische Kommentare, die nicht Ihrer Sicht entsprechen löschen?
Sobald es hier in den Kommentaren gegen Musk/Trump geht, gehts durch – passt wunderbar zu Ihrem früheren Musk-Bashing, nur müssen Sie es jetzt nicht mehr selbst betreiben und überlassen es Ihren Kommentatoren.
Muss ich mir in Ruhe ansehen – ihr macht mich fertig mit dem Thema "Moderation" – Zeit, die ich eigentlich lieber in Spaziergänge oder das Schreiben von Blog-Beiträgen investieren würde.
Die Arroganz des Abendlandes gegenüber Anderen wird hier ganz gut gezeigt und ich finde es gut, das die Chinesen die Paypal Tech-Millis und US Hitec mal vorführen (https://winfuture.de/news,148398.html). Wenn der Text auf Winfuture der Wahrheit entspricht, erklärt das für mich einiges.
In keinem Land der Welt ist der Anteil der Dollar-Milliardäre im Parlament auch nur annähernd so hoch wie in China.
Techblogs oder Newsseiten sollten sich einfach bei politischen Themen raushalten.
Es ist schon erstaunlich wie ein gewissen Klientel jetzt aufjault, jahrelang war es ruhig, jetzt wo das Pendel heftig in die andere Richtung schwingt, ist die Aufruhr groß, vorher war Schweigen im Walde angesagt…
Entlarvend
Ich habe mich mit AI/KI bisher viel zu wenig beschäftigt, um das auch nur annähernd zu überschauen. Mir fehlt einfach die Zeit um mich damit zu beschäftigen. Ich pflege seit einigen Jahren meine Mutter, die ist 95 Jahre alt und ich muss mich um zwei Haushalte kümmern. Da hat man einfach keine Zeit für solche Themen.
Was mir allerdings sorgen macht, ist die AI/KI im Darknet. Es wäre naiv zu glauben, dass dort nicht ebenfalls intensiv an diesen Dingen gearbeitet wird. Die Geister die ich rief. Ich ahne mal, dass da nichts Gutes auf uns zukommt. Das Thema kommt mir bei Berichten über die Fortschritte von AI/KI deutlich zu kurz.
KI-generierte Schutzmechanismen kämpfen gegen KI-generierte Schadsoftware. Einer der beiden Kontrahenten muss sich an Gesetze und Regeln halten. Der andere hält sich an keine Regeln und schon gar nicht an Gesetze. Wer diesen Kampf verlieren wird, ist nicht schwer vorherzusagen.
Auf Android Handy gibt es z.B. google gemini kostenlos. KI kann eine nützliche Hilfe sein, braucht man ein 'sprechendes Lexikon' ohne selbst viel Zeit aufzuwenden. Für fachliche Fragen sollte man sich auf die KI nicht ohne selbst zu prüfen sich blind verlassen. Für Alltagsfragen, aber auch medizinische Themen oder juristische Belange liefert 'die KI' gute Infos.
Das Dual-Use der Technik ist dann aber auch die Idee xx % von Arbeitern durch KI zu ersetzen und auf unterstem Existenz-Niveau zu halten, statt mit ihnen die technischen Errungenschaften auch finanziell zu teilen…
***************
ür Alltagsfragen, aber auch medizinische Themen oder juristische Belange liefert ‚die KI' gute Infos.
***************
Aha! etwas so wie der Anwalt der vor Gericht Präzedensfälle anbrachte die er mit KI recherchiert hat, die KI diese glatt erfunden hat?
Oder der Tip Salami auf Pizza mit Sekundenkleber?
Wenn KI aus Papier bestünde könnte man es wenigstens als Klopapier nutzen! So verbraten wir unnötig Energie die den Gesamtbedarf manchen Landes übersteigen, aber ich soll als Deutscher die Umwelt im Alleingang retten… KI wird der Untergang des Abendlandes!
Wir Europäer sind sicher nicht dumm, werden aber von der EU und anderen Landes-Intitutionen (Bundesregierung) durch den Regulierungswahn (z.B. Lieferkettengesetz, DSGVO, ect.) einfach "erstickt". Ich würde hier auch kein Technologieunternehmen gründen.
Da passt die Anekdote: "die deutsche Revolution scheitert an dem Schild 'Betreten des Rasens verboten!' " .
Es wird hier z.T. wirklich viel zu viel reguliert, wenn man sich anschaut wie viel Aufwand und Papierkram eine Firmengründung hat, dann überlegt es sich nicht nur zweimal .
Man darf aber auch nicht übersehen dass viele, die heute alles deregulieren wollen, wieder wie früher, in aller Ruhe Leute abzocken wollen, ohne irgendwas nachweisen zu müssen.
Die allermeisten Regeln sind REaktionen.
im Moment wird viel gekocht: Gemini 2.0 Flash Thinking, Open AI o3 (zudem es eine Menge Gerüchte gibt, inwieweit man sich einer tatsächlichen Allgemeinen Intelligenz damit nähert) und jetzt halt noch ein bisschen Chinesisch. Die US Boys werden nicht vor der Intelligenz der Chinesen zittern, aber sicher davor, dass die das eventuell kostenlos anbieten. ChatGPT Pro kostet immerhin 200 US$ pro Monat, da würde ich mir dann bei OpenAI jetzt sehr viele Sorgen machen. Andererseits stellt sich die Frage, was der langfristige Preis bei den Chinesen ist.
Fakt ist: alles entwickelt sich jetzt rasend schnell und in wenigen Jahren wird die Welt schneller verändert sein als dass die Dampfmaschine erreicht hat. Ob zum Guten oder zum Schlechten ist eine andere Frage. Angeblich suchen viele kluge Jugendliche ja mittlerweile bewusst KI-sichere Ausbildungen. Handwerksberufe wären da ideal…
Naja, sind Handwerksberufe wirklich KI-sicher?
Die Gen-Z braucht doch KI, um ihr Daddelfon zu fragen, wie man denn einen Nagel in die Wand haut!
man muss nicht alle jungen Leute in ein Boot werfen, es gibt eine Menge talentierter junger Menschen, die ihre Jobs gerne machen. Zudem fragt man nicht eine KI, wie man das macht, sondern man sucht das passende Video auf YouTube, was übrigens tatsächlich einen großen Mehrwert bietet für Normalbürger.
Jo das Youtube Tutorial wie wische ich mir korrekt den Arsch… bietet echt nen Mehrwert für den Normalbürger!
Ebenso wenig wie ein Youtube Video wie man ne V8 zerlegt einem in die Lage versetzt nen guter KFZ Schrauber zu werden oder ein Counterstrike Spieler deswegen zum Scharfschützen im reallife mutiert.
Das man für trivialste Dinge nen Youtube Video braucht zeigt doch wie armselig die Gesellschaft mittlerweilen ist, keine solide Grundbildung mehr.
keine Ahnung, was so ein Kommentar soll. Es gibt auf YouTube eine Menge sehr guter Anleitungen etwa für Garten und Haus, sowohl von Handwerkern als auch von sehr engagierten Privatanwendern, die einem helfen Dinge verschiedenster Art umzusetzen, Probleme selber zu lösen und und und. Wer das nicht erkennen kann, der hat echt ein Problem oder ist nicht in der Lage ein solches Angebot zum eigenen Nutzen zu bedienen… dann hilft natürlich gar nichts.
Wenn solche Kommentare der Standard in diesem Land wären, dann wäre natürlich wirklich alles verloren…
Mag sicher auch eine Menge wertvoller Videos geben. Aber ich bin es so leid durch ein halbstündiges Video zu spulen um dann zu sehen das der eine benötigte Befehl der gleiche wie in fünf anderen Videos ist die auch schon nicht geholfen haben. Früher gab es Tutorials in Textform die geholfen haben, heute gibt es Videos bei denen ich oftmals das Gefühl habe es geht eigentlich nur um Selbstbeweihräucherung. Von den oftmals richtig falschen Informationen möchte ich gar nicht groß anfangen.
Ist ein schwieriges Thema – ich bin wegen der Videos bei dir, weil mir die Zeit/der Nerv fehlt, lange Videos anzusehen, um die 10 Sekunden Information, die ich brauche, zu finden. Text ist da einfacher. Aber es gibt eine Generation, die Videos eher konsumiert – und ein gut gemachtes Video kann helfen.
Ich habe bis 2014 als Videotrainer einige Clips gedreht – war aber nicht mein Medium. Das ist eine Heidenarbeit mit viel Planung – und wir hatten seinerzeit sehr strikte Vorgaben über Länge und Inhalt der Videos (max. 12 Minuten, ideal 2 – 3 Minuten). Das wird von vielen YouTube-Videos eher nicht eingehalten – da steht Edutainment im Vordergrund.
Naja.
Kürzlich gab es ein Umfrage in GB, in der die Gen-Z zu diversen Dingen befragt wurde.
Über 20% der Befragten gab an, das die zum Wechseln einer Glühbirne einen Handwerker rufen würden!
Das zeigt doch gut, wie die Gesellschaft langsam verblödet.
der kluge Mensch sieht hier sofort die Geschäftsidee :)
Tschuldigung, schon wieder YouTube, einfach eine Video-Anleitung zum Selber wechseln erstellen. Wenn man Glück hat, kann man sein Video monetarisieren… vermutlich ist das Thema aber schon abgedeckt.
Ich sehe das deutlich anders als du.
"zudem es eine Menge Gerüchte gibt, inwieweit man sich einer tatsächlichen Allgemeinen Intelligenz damit nähert"
Solche Gerüchte sind nichts, mit dem man sich ernsthaft beschäftigen sollte. Das dürfte reines Aktienmarkt-Spekulations-Geplänkel sein. Viele Forscher sehen den derzeitigen Ansatz der LLMs eher als eine Sackgasse. Es gibt zunehmend Hinweise, dass trotz massivem Ressourceneinsatz die Sprachmodelle nicht nennenswert besser, teilweise sogar schlechter werden. Es war aber schon von vornherein sehr fraglich, wie man aus einem unqualifizierten, ungeordneten Haufen Informationen aus den weiten des Internets eine Art Intelligenz erzeugen will. Wenn du Daten von fraglicher oder auch nur völlig unbekannter Qualität in ein System kippst, kann das Ergebnis nur sehr schwer zu einem vernünftigen Ergebnis kommen. LLMs fehlt nach wie vor ein echtes Verständnis des Inhalts. Von einer Intelligenz ist das noch sehr, sehr weit entfernt. Auch die neuen Modelle können immer noch nicht einmal die korrekte die Länge eines Textes ermitteln. Und die aktuellen Systeme sind wahrscheinlich nie in der Lage, wirklich neue Schlussfolgerungen zu machen. Dazu wird es neue Ansätze brauchen.
"Fakt ist: alles entwickelt sich jetzt rasend schnell"
Nein, es hat sich eine kurze Zeit rasend schnell entwickelt. Jetzt ist gerade eher ein Plateau erreicht. es hat sich gezeigt, dass der Ansatz "viel hilft viel" nicht mehr große Entwicklungssprünge bringt, aber wirtschaftlich starke Belastungen verursacht. Wirkliche Weiterentwicklung wird erst durch ganz neue Ansätze kommen. Derzeit sehen wir nur einen Börsen-befeuerten Hype. Da die Praxis in den meisten Anwendungsfällen den großen Versprechungen weit hinterher hinkt, wird es wieder zu einer "KI-Flaute" kommen. Das kennen echte KI-Froscher schon seit Jahren: der Schweinezyklus von Hype und Ernüchterung.
Kann auch sein und streiten darüber wäre jetzt Zeitverschwendung, denn letztlich wird die Zeit die Frage beantworten, wie sich die Zukunft entwickelt. Wie weit z. B. o3 schon ist, wird man schon sehr bald sehen.
Es gibt wohl Aussagen von OpenAI Mitarbeiter, die zwischen Begeisterung und Erschrecken schwanken. Da ich dort nicht arbeite, kann ich das nicht beurteilen. Sofern man hören könnte hat man hier aber wohl den klassischen Ansatz beim neuesten Modell mit dem Prinzip mit möglichst vielen Daten zu trainieren verlassen und ist zum klassischen Erziehungsprinzip des Belohnens zurückgekehrt, was wohl zu einem Durchbruch geführt haben soll.
Nach Angaben von Open AI Mitarbeiter kann das neue Modell komplexe menschliche Aufgaben auf PhD-Level durchführen und kann bei manchen Benchmark normale Menschen bereits übertreffen. Inwieweit o3-mini, was jetzt wohl verfügbar ist, dies aufzeigen oder erahnen lassen kann, kann ich nicht sagen.
Es gibt natürlich auch massenweise Experten mit anderer Meinung, die nehme ich auch zur Kenntnis, aber mehr auch nicht, insbesondere nicht, wenn diese von Finanzmagazinen kommen und in diesem Falle auch nicht von ÖR-Medien, denn deren Wissensstand in diesem Bereich beeindruckt mich erfahrungsgemäß nicht.
Der praktische Nutzen, von dem, was es bereits gibt, ist für mich allerdings ohnehin schon jetzt hoch, sei es bei der Bildbearbeitung / Generierung oder auch im Videobereich. Was Tools wie Sora leisten, ist schon erstaunlich. Spart natürlich erheblich Zeit… Tools wie Sora wären jetzt außerhalb meines Budgets, um dieses intensiv nutzen zu können, aber dennoch beeindruckend. Gemini oder ChatGPT eignen sich auch hervorragend als Ideen-Geber oder zur Strukturierung. Sie sind nicht gedacht das eigene Denken aufzugeben. Aber eben zur Vereinfachung von Routine-Aufgaben, als Ideen-Geber oder zur Strukturierung von Texten, Daten, Umwandlung von Daten… das spart alles Zeit und manches kann die Software einfach besser, warum also nicht nutzen.
Text-to-Speech oder umgekehrt, Übersetzungen, Voice-Cloning und vieles mehr gibt es auch noch, und was hier ab und an mal als Müll bezeichnet wird, ist auch etwas, mit dem recht viele Leute mittlerweile sehr viel Geld verdienen. Leider hinke ich da noch hinterher…
@All: Ich kann verstehen, dass das Thema triggert. In obigem Artikel ging es originär um den Sachverhalt, dass ein Anbieter aus China Sprachmodelle vorgelegt hat, die a) Open-Source sind, b) wesentlich preiswerte als die US-Konkurrenz erstellt worden sein sollen und c) in der Leistung die US-Sprachmodelle übertrumpft. Das Ganze schickt Schockwellen durch die US-AI-Szene – was davon übrig bleibt, wird man sehen, wenn sich der Staub gelegt hat.
Was nun die in Kommentaren adressierten Youtube-Inhalte, Gen-Z, AI-sichere Handwerksberufe etc. betrifft, erschließt sich im Kontext des obigen Artikels nicht. Bringt uns irgendwie auch nicht weiter, außer, dass wir über die aktuelle Situation lamentieren.
Interessant fände ich Kommentare, die den obigen Sachverhalt einordnen oder auf Aspekte eingehen, die ich nicht in obigem Artikel auf dem Radar habe (Datenschutz wäre eines der Themen gewesen). Neue AI-Entwicklungen aus Europa vielleicht auch.
Neue AI-Entwicklungen aus Europa sehe ich da nicht.
Evtl. gibt es so etwas bei Universitäten oder Forschungseinrichtungen, aber ein kommerzieller Anbieter der sich damit beschäftigt, ist mir in Europa nicht bekannt.
Und Datenschutz ist bei AI immer ein Thema.
Und da sehe ich ein großes Problem, denn AI wird auch verstärkt von Kriminellen genutzt.
Da die China.Modelle OpenSource sind, sehe ich auch eine Chance, das das mal eine europäische Firma aufgreift und da einen Gegenpol zu den US-Firmen aufbaut und dabei den Quellcode so erweitert, das da auch solche Sachen wie die DSGVO gleich im Quellcode der LLM drin sind, so das die gar nicht anders kann, als sich DSGVO-konform zu verhalten.
Die Stable Diffusion Modelle kommen eigentlich aus Deutschland. Das StabilityAI (nun British) allerdings finanzielle Grenzen erreichte, hat sicher damit zu tun, dass solche Startups in der USA finanziell besser unterstützt werden.
Black Forrest labs, ehemalige Mitarbeiter vom Stable Diffusion Startup, haben eines der besten grafischen Modelle gemacht, das im Herbst gab – die FLUX Modelle. Black Forrest -> Schwarzwald
Allerdings wurde das Unternehmen in der USA gegründet um es diesmal besser zu machen.
DeepL ist schon seit Jahren herausragend im Übersetzungsbereich, ist auch aus Deutschland. (Tut mir als Österreicher etwas weh, dass es in Österreich solche Durchbrüche nicht gibt, aber ich bin froh, dass es in Deutschland doch nennenswerte Beispiele gibt.
In Frankreich gibt es MistralAI die sich auch nicht verstecken müssen…
In Europa redet man sich gerne klein und besonders in Deutschland und Österrecih macht man gerne das klein, was man leistet und geschaffen hat. Das ist echt schade, denn es wird hier auch unglaubliches geleistet. Aber es leider oft dann auch kaputt gemacht und alle Mühe ist dann umsonst (aber nicht kostenlos)
Jupp, insbesondere Deutschland ist großartig darin, nicht einmal zu schauen, was haben wir hier eigentlich. Wir haben u.a. in Deutschland, aber auch in der EU, sehr viele sogenannte "Hidden Champions".
PlanetAI (Deutschland) ist zum Beispiel auch so ein Produkt, dass hierzu das Potenzial hat und dieses auch wohl schaffen wird.
Wir haben vornehmlich in Deutschland ein Mentalitätsproblem und durch die sogenannten sozialen Medien, wird das teilweise halt auch noch verstärkt. Überspitzt ist beim "deutschen Michel" das Glas i.d.R. halb leer und nicht halb voll, und ein Tag, wo man nicht wenigstens einmal allen erzählt hat, wie schlimm alles ist, ist kein guter Tag. ;-) – Das es anders geht, sehen wir, wenn wir uns einfach umschauen und die erfolgreichen Unternehmungen sehen, sowie die Leute, die sich nachdem sie sich wieder lang gelegt haben wieder aufrichten.
Die Erfolge, hier jetzt die KI-Modelle, aber auch Misserfolge aus China erinnern mich an die "hidden Champions" des deutschen Mittelstands der seine Tradition u.a. in der teilweise auch in der Geologie begründeten Kleinstaaterei hat, wo man auch mit dem was man hat möglichst effektiv umgehen muss. Man tüftelt herum, optimiert, bis man ein Produkt hat, dass möglichst wenig Ressourcenverbrauch möglichst gut ist.
Man kann sehr sicher sein, dass die 5,3 Mio nicht die tatsächlichen Kosten sind, da steckt noch das Mehrfache an verborgenen Subventionen drin.
Vermutlich, oder es wurde auf etwas aufgebaut, dass schon woanders vorhanden war (z.B. OpenSource) und nicht komplett neu trainiert.
Die USA wissen warum sie Technology Transfer nach China unterbinden… gib denen die neueste Lithografietechnik und intel AMD & Co. können einpacken.
Und so ist das in der gesamten Technikbranche… früher war es nur billiger, heute billiger und besser, tja da muss dem Westen die Muffe gehen.
Kann es sein das deepseek Chinesische Propaganda verbreitet möchte?
Und genau deswegen günstiger als andere Vergleichbare Programme sind?
Zumindest einige Antworten lassen darauf schließen.
Ja?
Ich habe ihn mal gefragt, was er so über die aktuelle Entwicklung der Welt hält, ein Teil der Antwort war:
5. Politische und soziale Entwicklungen
Positiv:
Demokratisierung: In vielen Teilen der Welt haben demokratische Reformen zu mehr Freiheit und Partizipation geführt.
Menschenrechte: Fortschritte bei der Gleichstellung der Geschlechter, der Rechte von Minderheiten und der Bekämpfung von Diskriminierung sind erkennbar.
Negativ:
Autoritarismus: In einigen Ländern nehmen autoritäre Tendenzen zu, und demokratische Institutionen werden geschwächt.
Konflikte und Kriege: Regionale Konflikte, Terrorismus und Bürgerkriege führen weiterhin zu Leid und Vertreibung.
xxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Klingt für mich nicht nach einer Antwort, die so ganz den Geschmack von Chinas Führung trifft, oder eine geschickte Tarnung? :)
Dann frage ChatGPT & Co. mal nach weniger politisch korrekten Dingen, da sind diverse Zensurebenen drin.
Bezogen auf DeepSeek: korrekt Taiwan-Fragen mag er nicht. Dafür ist er ganz lustig: Gestern hatte er beim Herumspielen seine "Denkprozesse" offengelegt, unter anderem stand da:
"Da er Deutsch spricht, sollte ich die Antwort freundlich und ermutigend halten, vielleicht mit einem Emoji, um die positive Stimmung zu verstärken. Eventuell noch eine nette Geste wie einen schönen Abend wünschen, um die Interaktion abzurunden."
Klingt doch nett :) was, wenn ich nicht Deutsch mit ihm rede?
Sicherlich haben die Macher es nicht leicht mit bestimmten Themen, aber wenn die einem nicht wichtig sind, dann ist er schon brauchbar, allerdings ab und an träge. Mit wachsender Nutzung braucht man dann vielleicht doch mehr (teure) Rechenpower
ich habe mal ein bisschen mit Deepseek herumgespielt. Bilder kann er wohl (leider) nicht, aber die produzierten Ergebnisse sind nicht schlecht und ähneln bei gleichen Fragen stark, dem was ChatGPT ausspuckt. Mit Gemini kann man es nicht so gut vergleichen, da Gemini ohnehin einen etwas anderen Ansatz bei der Ausgabe hat, wobei ich Gemini aber für ein sehr hilfreiches Tool halte.
Deepseek ist auch erstaunlich schnell… persönliche Informationen wollte er auch nicht, Limits gibt es wohl auch keine, also eine interessante Alternative. Keine Wunder, dass man jetzt bei einigen Firmen schwitzt und Notfall-Teams zusammenstellt.
Ich hab es selbst nicht ausprobiert. Aber DeepSeek hat (ich glaube ein 7B Modell kann mich auch irren und hab es nicht hier bei der Hand) rausgebracht, dass sehr wohl auch Bilder erstellen kann, aber eben ein Transformer basierter LLM Ansatz ist. Die Qualität bleibt hinter Bildgeneratoren doch sehr zurück – zumindest laut den Beispielen die ich gesehen habe. Allerdings ist das ja auch nicht die eigentliche Aufgabe. Einem solchen Model kann man eben sagen, es soll ein Bild analysieren mit anderen Daten vermengen und dann daraus wieder ein Bild machen…
Ja, viele verwechseln die LLMs mit Suchmaschinen, leider.
"Die Nutzung der API ist wesentlich preiswerter als bei OpenAI, was auch Microsofts Ansatz, diese Sprachmodelle überall in seine Produkte einzupflügen, arg untergraben dürfte."
Kein Problem. Das wird einfach in den USA nicht zugelassen werden. Ich kann mir vorstellen, dass es bald eine fadenscheinige Begründung geben wird um die App aus den App-Store zu entfernen. Schließlich landen bestimmt die Daten in China.
In den TV-Nachrichten gab es einen Vergleich zu ChatGPT. DeepSeek war besser und für das was bei ChatGPT Geld kostet ist es bei DeepSeek kostenlos und wegem letzterem dürfte der Ärger anfangen.
Zum eigentlichen Thema, ich kann mir nicht vorstellen, dass dieses Modell nicht auch auf NVIDIA Technologie aufsetzt. Prinzipiell wäre es schon möglich, aber da pytorch und darauf basierende Tools hauptsächlich NVIDIA unterstützen, ist es höchst wahrscheinlich, dass dieses Unternehmen bestehende Software zum Training verwendet haben und nicht alles nochmals selbst gestrickt haben. Nun stimmt es schon, dass die USA hier die Ausfuhr von starken KI Prozessoren eingeschränkt hat. Zum einen hat man aber gelesen, dass es doch Wege daran vorbei gab. (Über diverse Drittfirmen) – ob dies aber in dem notwendigen Umfang dann möglich wäre bezweifle ich fast. Zum anderen konnte man Fotos aus China von sehr kreativen "Umrüstungen" von NVIDIA "Grafikkarten" sehen. Ob dies nur Einzelfälle waren, weiß ich auch nicht genau, aber da wurden Speichererweiterungen auf Grafikkarten dazugefrickelt, damit mehr VRAM zur Verfügung steht -> bessere Leistung. Es ist ja auch bekannt, dass auch schlechtere NVIDIA Chips eigentlich mehr Leistungspotential haben, aber das künstlich verschlechtert wird. Eventuell hat jemand eine Möglichkeit gefunden das aufzubohren (also nicht mit einem echten Bohrer ;-) )
Es gibt dann auch ehemalige Kryptofarmen, die lange Zeit keinen Sinn mehr gemacht haben, eventuell hat man diese auch genutzt.
Jedenfalls ist alles etwas undurchsichtig, wo die Leistung herkommt. Dass man jedoch viel Potential zur Optimierung hat, bemerkt man bei den Open Modellen im Grafik und Videobereich. Die Hersteller trainieren Modelle, die nur auf 40-80GBVRAM laufen. Findige User transformieren diese Modelle dann so, dass diese auf Consumer-Hardware von 8GB tlw sogar 6GB laufen. Nicht mit der selben Qualität, aber erstaunlich gut und nahe am Original-Modell.
Ich glaube die KI Firmen in der USA sind gerade schlecht in diesen Optimierungen, weil ihnen das Geld überall hineingesteckt wird…
"Das Sprachmodell sei mit nur rund 5,3 Millionen US-Dollar entwickelt worden und musste mit wesentlich weniger leistungsfähigen AI-Chips beim Training auskommen."
Gibt es für die Aussage irgendwelche nachweisbaren Belege? Bspw. wurde das von fachkundigen Spezialisten auf Plausibilität geprüft?
Mal unabhängig von Deepseek bin ich beim LLM-Ansatz noch nicht überzeugt davon, ob sich daraus wirklich künstliche INTELLIGENZ entwickelt. KI hat derzeit sicherlich bei der Mustererkennung Vorteile, aber LLM simulieren nur Intelligenz, sind es genau besehen jedoch nicht. Der "stochastische Papagei" plappert nämlich bloß das nach, was aufgrund der Trainingsdaten am wahrscheinlichsten ist, ohne allerdings die Substanz der Aussage zu verstehen. Kann aus bereits bekanntem Material auf diese Weise Neues entstehen, zumal die Trainingsdaten teilweise von zweifelhafter Natur sind? Nehmen wir einmal an, Shakespeare hätte es nie gegeben, wäre er durch den LLM-Ansatz erfunden worden? Kann KI das Niveau tatsächlich heben? Ich bin jedenfalls skeptisch.
Ich sehe das auch skeptisch. Allerdings muss man sagen, LLMs in riesen Dimensionen haben mich überrascht (und nicht nur mich)
Ich hätte nicht gedacht, dass mit einem solchen Ansatz das möglich ist, was sie derzeit leisten. Das so viel "Verständnis" rein aus dem sprachlichen "Lesen" und "Lernen" von vielen Texten entstehen kann. Darum denken viele – mit noch mehr Daten und noch größeren Netzen wird das noch mehr Verstehen bis zur Intelligenz kommen.
Ich stell mir das laienhaft so vor, die LLM ist ein bisschen wie ein Mensch, der nur eine Hälfte des Gehirns hat, das sprachlich begabte. Logische Schlussfolgerungen kann so eine Person nur "auswendig lernen" d.h. nicht wirklich verstehen, oder nur schwer auf andere Themen transferieren. Da fehlt die andere Hälfte des Gehirns. Aber wenn man die beiden verbindet, dann – ich weiß nicht ob wir das haben wollen…
Der LLM Ansatz leistet sich leider aber auch konzeptbedingt immer falsche Ergebnisse. Daher ist er keine echte "KI" und kann auch nie eine werden, egal wie sehr man versucht eine passende Logik-Hälfte zu erschaffen und drüberzustülpen.
Vollkommen richtig. LLMs halluzinieren konzeptbedingt. Wieder laienhaft gesagt ein bisschen so wie ein Mensch das auch in Träumen macht – oder es bei manchen Krankheiten passiert. Den Effekt kann man durch spezifisches Training minimieren, das sieht man bei den Bildgeneratoren, die durch LORA Trainings solche Effekte abschwächen können – allerdings nicht verlieren oder übertrainiert sind. Drum wäre drüberstülpen auch falsch – mit verbindet meinte ich im Sinne eines Netzes wirklich vernetzt verbunden. Wenn wir so wollen Teile der Neuronen, wobei es nicht wirklich die Neuronen sein müssen, es können auch Schichten sein die Überprüfungen machen einerseits mit dem logischen Gehirn – andererseits auch mit einer Wissensdatenbank. Dafür ist aber alles viel zu langsam was wir bisher haben. Und wie geschrieben – die Frage ist auch wie erstrebenswert das ist – es muss ja nicht gleich die Apokalypse wie Skynet sein, aber es reicht schon wenn diese Technologie einigen Unternehmern gehört und viele Menschen dadurch arbeitslos und von deren Güte abhängig sind.
Am Rande dazu: Die Bildgeneratoren wurden schon bei der Erstklassifizierung des zugrundeliegenden Lernmaterials durch menschliche Einflüsse politisch korrekt beeinflusst, alleine was die Bezeichnungen bzw. Verschlagwortung von Bildern usw. angeht. Ein weiterer Einfluss erfolgt dann derzeit später vor der Ausgabe der von den Bildgeneratoren ermittelten eigentlichen Ergebnisse. Das ist der aktuelle Stand. Das heisst, selbst wenn man es jetzt mit Neuronen o.ä. vernetzen würde, ist die Basis die dann verwendet wird, immer noch falsch. Daher kann es nie eine neutral hilfreiche KI werden.
"Die Bildgeneratoren wurden schon bei der Erstklassifizierung des zugrundeliegenden Lernmaterials durch menschliche Einflüsse politisch korrekt beeinflusst, alleine was die Bezeichnungen bzw. Verschlagwortung von Bildern usw. angeht."
Gibt es dafür konkrete Beispiele / Beweise, um welche "Bezeichnungen" es hier genau geht?
Ich weiß nicht genau was Anonym damit gemeint hat, aber grundlegend ist das natürlich ein riesen Problem. Je nach Trainingsdaten gibt es beim Lernen Verzerrungen. Hier gab es diverse Untersuchungen hinsichtlich der Hautfarbe und z.B. eines Jobs (wenig afrikanisch stämmige Arzte in den Trainigsdaten etc.) Durch diese Verzerrungen versuchen Modellbuilder dem gegenzusteuern, das ergibt dann manchmal genau das Gegenteil. Das trifft jetzt nicht nur auf die Hautfarbe zu sondern eigentlich auf sehr viele Klassifizierungen zu.
Schön zu sehen ist das auch bei den Finetunes von Modellen wie SD1.5 u. SDXL. Prinzipell ist es ja auch gleichzeitig die Aufgabe von Finetunes, von dem Standard abzuweichen und bessere oder zusätzliche Inhalte zu liefern. Manche Finetunes konzentrieren sich dann auf Anime, andere auf Realdarstellungen. Während das Grundmodell eher ausgewogener trainiert wurde, sind Finetunes dann beabsichtigt oder unbeabsichtigt in manche Richtung verschoben. D.h. bei einem Anime Modell, ist es schwer eine Realdarstellung zu bekommen. Bei anderen Modellen, bekommst du tendenziell eher asiatische Menschen zu sehen, wenn dies in Asien mit deren Schauspieler Künstler etc. gemacht wurde, während andere Modelle kaum mehr afrikanisch stämmige Personen zeigen und amerikanisch/europäische Tendenzen haben. Das selbe gilt für das Alter. Es gibt Finetunes im Stile von Social Media, da braucht man schon starke Prompts um ältere Personen darzustellen etc. Generell kann man sagen, dass die offiziellen Modelle hier inzwischen ziemlich ausgewogen wirken, die Tendenz in die eine sowie die andere Richtung neutral wirkt (abgesehen vom Kinn bei den Flux Modellen ;-) ) Aber da niemand wirklich all die Quelldaten durchsehen und kategorisieren kann werden sich bei Bildgeneratoren und vor allem auch bei LLMs immer solch ein Bias einschleichen.
…traurig aber war das so zu lesen, bestätigt leider meine Eindrücke. Das es nicht nur in D so armselig aussieht, sonder in der ganzen EU, hätte ich allerdings nicht vermutet.
Mein Ansinnen war fundierte eine Aufschlauung in Sachen KI, auch um die Methode in bestehende Systeme zu implementieren – aktuell frustieren mich die Aussichten in D gerade nur noch…
ABER Gesetzt und Verordnungen – das können wir! Am besten immer der Erste sein, der alles konform und wasserdicht präsentiert. Andere Marktteilnehmer sind da schon, von der Kernkompetenz her, über alle Berge und lachen sich schlapp über die Germans und Europeans.
Gute Zusammenstellung und nachzulesen auf den IHK Seiten – damit lässt sich wieder ordentlich Geld verdienen…Wer frust vermeiden will, sollte das allerdings lieber nicht lesen.
Für Unternehmer muß das schon, neben den ganzen anderen Stolpersteinen, reichlich frustrierend sein. Von wegen Bürokratieabbau…niemals sägen sich die Jungs und Mädels den Ast ab, auf den sie sitzen.
In Sachen OSS, OpenDesk stehen wir auch wiedereinmal auf der Leitung – wie schon Anfang der zweitausender Jahre, als es auch einen zarten Ansatz gab z. B. Linux/OpenOffice in den Landtagen zu nutzen. MS reagierte mit ja sooo günstigen Lizenzmodellen – das war`s, Ende der Vorstellung.
Schöne Restwoche allerseits