Sammlung von KI-Splittern und -Torheiten (Feb. 2026)

CopilotDie Tage sind mir einige Infosplitter rund um KI untergekommen, die ich in einem Sammelbeitrag veröffentliche. KI-Anbieter Anthopic beklagt sich, dass chinesische Konkurrenten seine Modellinhalte durch Destillationsangriffe "absaugen", um eigene Modelle zu verbessern. Ein KI-Sicherheitsbeauftragte bei Meta hat sich mit OpenClaw ihr Postfach löschen lassen. Google sperrt Nutzer bei Gravity wegen OpenClaw-Nutzung aus, und so weiter. Der tägliche Irrsinn.

Die Secure-Boot-Zertifikate laufen ab. Was sollen Admins tun? Kostenloses eBook » (Sponsored by IT Pro)

Anthropic: China klaut untere LLM-Inhalte

Ich fange mal mit einem besonderen Fall an. AI-Anbieter Anthropic hat bekannt gegeben, dass man die Chinesen dabei "erwischt habe", wie DeepSeek, Moonshot AI und MiniMax betrügerische "Destillationsangriffe im industriellen Maßstab" auf das Antrophic LLMs fahren.

Antrophic beklagt chinesischen Datenklau

Diese Labore hätten über 24.000 betrügerische Konten erstellt und über 16 Millionen Datenaustausch-Vorgänge mit Claude generiert, um die Fähigkeiten des Modells zu extrahieren und damit ihre eigenen Modelle zu trainieren und zu verbessern. In einem Tweet las ich folgende Angaben:

  • DeepSeek: 150k exchanges, used claude to generate censorship-safe answers about dissidents and party leaders
  • Moonshot: 3.4M exchanges targeting agentic reasoning
  • MiniMax: 13M exchanges, caught mid-heist before model shipped
  • When Anthropic released a new model, MiniMax pivoted within 24 hours to extract from it

Destillation kann legitim sein, schreibt Antrophic: KI-Labore nutzen sie, um kleinere, kostengünstigere Modelle für ihre Kunden zu entwickeln. Ausländische Labore, die amerikanische Modelle illegal destillieren, können jedoch Sicherheitsvorkehrungen umgehen und die Modellfunktionen in ihre eigenen Militär-, Geheimdienst- und Überwachungssysteme einfließen lassen.

Hm, mal scharf nachdenken: Anthropic waren doch die, die sich einen feuchten Dreck um Copyright und Bot-Sperren in Webseiten gekümmert haben, und dann fleißig Inhalte zum Trainieren der eigenen Modelle missbraucht haben. Also für eigene Zwecke legal (fair use), nur wenn andere das gleiche mit deren LLM machen, ärgert man sich. Jemand hat das Ganze in obigem Tweet in drei Bildern zusammengefasst. Anthropic fischt die realen Daten ab, und dann bedient sich Deepseek an den Ergebnissen – ist doch nur fair.

DSGVO bei AI

Lukasz Olejnik weist in obigem Tweet auf einen besonderen Aspekt hin. Wenn es nicht nur eine leere Behauptung von Anthropic ist, bedeutet dies, dass die Leute Meta-Daten erheben und über diese die chinesischen Firmen bei der Destillation erwischen konnten. Das bedeutet für EU-Nutzer ab, dass Antrophic persönliche Daten abzieht und sich nicht an die DSVO hält. Der Einsatz von Anthropic dürfte daher in der EU nicht DSGVO-konform sein. Das Ganze gilt übrigens für alle anderen LLMs, die nicht lokale von Firmen gehostet werden.

OpenClaw löscht Postfach von Meta AI-Spezialistin

Die nachfolgende Meldung habe ich die Tage mit besonderem Vergnügen gelesen. Summer Yue ist Direktorin für AI-Sicherheit bei Meta Superintelligence. Die Dame hat OpenClaw bei sich getestet und dem AI-Agenten Zugriff auf ihr GMail-Postfach gegeben.

OpenClaw dreht wild, lösche Mails

Sie hat die WhatsApp-Chats mit OpenClaw geteilt (die Screenshots sind hier und hier auf X abrufbar). So in ganz kurz: OpenClaw hat begonnen, ihr GMail-Postfach aufzuräumen und alles, was vor dem 15. Februar 2026 war, zu löschen. Der KI-Agent hat sich von den Aufforderungen der Dame, diesen Vorgang zu stoppen, nicht aufhalten lassen. Gab zwar eine Entschuldigung des KI-Agenten, aber Summer Yue musste quasi den Rechner abschalten, um den Vorgang abzubrechen.

OpenClaw verrät Daten von Cyber-Security-Firma

Es gibt Tage, da ist der erste Gedanke: "Herr, wirf Hirn vom Himmel. Nachfolgender Tweet thematisiert einen weiteren Vorfall mit dem OpenClaw-Agenten. Ein Unternehmen im Bereich Cyber-Sicherheit wurde von einem OpenClaw-Agenten "besucht". Bei denen war nichts per Firewall oder sonst irgendwie abgesichert.

OpenClaw verrät Daten

Der Agent erhielt so Zugriff auf deren interne Cyber Threat Intelligence (CTI) Daten und publizierte diese dann auf clawdint.com. Die Details lassen sich hier nachlesen.

AI-Bildgenerator leakt 2 Millionen Nutzerdaten

Forscher sind auf einen ungesicherten Google Cloud-Speicherbucket gestoßen, der von einer Android-App genutzt wurde. Die App war ein AI-Bildgenerator, der Videos, Audiodateien und Bilder für seine Nutzer erzeugte und in der Cloud ablegte. Der Google Cloud-Speicherbucket enthielt neben KI-generierten Videos, Audiodateien und Bildern auch eine beträchtliche Menge an von Nutzern hochgeladenen Inhalten. Die App, die Mitte Juni 2023 auf den Markt kam, wurde von Codeway Dijital Hizmetler Anonim Sirketi entwickelt. Am Ende des Tages waren 2 Millionen Nutzerdatensätze öffentlich zugreifbar, was nicht hätte sein dürfen. Details finden sich im Artikel AI art generator app leaks 2 million private user photos and videos.

KI zwingt AWS in die Knie

Vor kurzem gab es einen Ausfall von Amazon Web Services. Nun ist die Ursache bekannt geworden. Bei einem Vorfall im Dezember erlaubten Ingenieure von Amazon Web Services ihrem internen "agentenbasierten" Codierungstool Kiro, Änderungen vorzunehmen. Der KI-Agent beschloss, erst einmal alles zu löschen und die betreffenden Umgebung "neu aufzubauen". Hatte dann einen Ausfall von 13 Stunden zur Folge, wie vier mit der Angelegenheit vertrauten Quellen einem Nachrichtenmagazin steckten. Die Details lassen sich in diesem Artikel nachlesen.

KI steuert Cyberangriff auf Fortigate-Instanzen

Amazon Threat Intelligence berichtet, dass ein russischsprachiger Akteur mehrere kommerzielle GenAI-Dienste genutzt hat, um über 600 FortiGate-Geräte in mehr als 55 Ländern zu scannen und zu kompromittieren. DeepSeek generierte Angriffspläne, Claude erstellte Schwachstellenbewertungen und Outflank Security Tooling (OST)-Angriffe durch. Der "ARXON"-MCP-Server fungierte als Brücke. Der Bericht lässt sich hier abrufen – ein weiterer Artikel findet sich hier.

Google sperrt OpenClaw-Nutzer in Antigravity AI

Seit einigen Tagen beklagen sich Nutzer von Googles Entwicklungsumgebung Antigravity AI, dass ihre Konten gesperrt wurden. Die zahlen teilweise über 200 US-Dollar pro Monat Allen diesen Nutzern ist gemeinsam, dass diese OpenClaw verwendet haben. Hintergrund ist, dass deren Integrationen die Google-Server mit kostenpflichtigen Gemini-OAuth-Tokens überlasten und damit andere Entwickler am Arbeiten hindern. Die Nutzer verstoßen damit gegen die Nutzungsbedingungen für Drittanbieter-Proxys und wurden gesperrt. In diesem Tweet wird es kurz zusammen gefasst. Auf Google gibt es diesen Post vom 22. Februar 2026, wo ein gesperrter Teilnehmer sich beklagt. The Register hat die ganze Geschichte in diesem Artikel aufgegriffen. Passt schon.

Weitere KI-News

Hier noch einige Infosplitter aus der KI-Welt, die mir die Tage unter die Augen gekommen sind. Nachfolgender Tweet thematisiert die Schieflage der gesamten KI-Blase, wo zynische CEOs in KI-Firmen Investoren um Milliarden abzocken.

KI-Schieflage

Ich habe die graphische Darstellung jetzt nicht überprüft, aber das rote Kästchen entspricht der Zahl der Nutzer, die KI zur Codierung einsetzen (2-5 Millionen Nutzer, ca. 0,04%). Die gelben Kästchen stehen für 15-24 Millionen Nutzer, die monatlich 20 US-Dollar für einen KI-Zugang bezahlen (0,3%). Die grünen Kästchen symbolisieren ca. 1,3 Milliarden KI-Nutzer (16% der IT-Nutzer), die kostenlose KI-Lösungen einsetzen. Gut 6,8 Milliarden Leute haben noch nie eine KI-Lösung eingesetzt. Und das soll das Geschäftsmodell für die KI-Investitionen sein?

EU-Parlament blockt AI-Tools auf PCs

Politico berichtete vor einigen Tagen im Artikel EU Parliament blocks AI tools over cyber, privacy fears, dass im EU-Parlament KI-Funktionen auf den Arbeitsgeräten der Abgeordneten und ihrer Mitarbeiter aus Gründen der Cybersicherheit und des Datenschutzes deaktiviert werden.

Microsoft warnt vor KI-Empfehlungen

Von Microsoft gibt es wohl auch eine Warnung, dass KI-Empfehlungen "manipuliert"  werden, um bösartige Ergebnisse zu liefern. "Wenn jemand Anweisungen oder falsche Fakten in den Speicher Ihrer KI einspeisen kann, erlangt er dauerhaften Einfluss auf Ihre zukünftigen Interaktionen." In diesem Artikel findet sich eine Warnung von Microsoft, OpenClaw aus Sicherheitsgründen nicht auf PCs und Unternehmensumgebungen laufen zu lassen.

In diesem Kontext ist mir noch ein Infosplitter bezüglich Microsoft und OpenAI untergekommen. Microsoft-CEO Satya Nadella sagt, Bill Gates habe ihm gesagt, dass seine große Wette auf OpenAI ein Flop werden würde: „Ja, du wirst diese Milliarde Dollar verbrennen."

Wissenschaftler warnt vor Russisch Roulette

In diesem Artikel befasst sich Cybernews mit einer Warnung von Stuart Russell, Professor an der University of California, Berkeley. Stuart sagt, dass die KI-Firmen und deren CEOs momentan russisches Roulette mit der Gesellschaft spielen. Eigentlich müssten in einzelnen Bereichen längt Regulierungen bei den Unternehmen eingezogen worden seien. Aber die CEOs tun nichts aus Angst, Investoren zu verärgern und der Konkurrenz Vorteile zu verschaffen. Russell forderte die Staats- und Regierungschefs der Welt auf, gemeinsam gegen KI-Entwickler vorzugehen, um die Menschheit zu retten.

EU-Länderregierungen wollen EU-KI einsetzen

Vorige Woche ist mir nachfolgender Tweet untergekommen, der reklamiert, dass die Regierungen von Deutschland, Frankreich, der Niederlande und Luxemburg für europäische KI-Lösungen entschieden hätte.

EU-Länder wählen EU-KI

Und dann gibt es noch den Artikel Imagining an AI-driven "2028 Global Intelligence Crisis": as white-collar layoffs grow, the human-centric consumer economy withers and the social fabric frays mit einem Gedankenspiel. Was passiert, wenn wir die KI-Träume einiger Tech-Milliardäre Wirklichkeit werden lassen? Wir geraten in eine KI-getriebene "globale Informationskrise 2028":  Mit zunehmenden Entlassungen von Angestellten schwindet die Konsumwirtschaft und das soziale Gefüge zerfällt. Hat es als Thema sogar bis in Focus Online geschafft, die Botschaft: "die Börse reagiert sehr empfindlich", da sind massive Aktienverluste aufgetreten.

Dieser Beitrag wurde unter AI abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

2 Antworten zu Sammlung von KI-Splittern und -Torheiten (Feb. 2026)

  1. Hansi sagt:

    Der ganze KI-Schwachsinn muss einfach viel teurer werden. Keine kostenlosen Abfragen mehr, nur noch gegen Cash oder Dauer-Abo, wer kein Abo hat, bekommt einfach keine KI, die ganze KI-Software auf seinen Geräten wird einfach stillgelegt oder gleich gelöscht. Hach, wäre das schön. Wie gerne würde ich in so einer Welt leben.
    Ich möchte keinen KI-Schwachsinn, weder auf meinem PC noch auf meinem Handy. Sollte ich doch mal eine KI-Auskunft brauchen, kann ich das ja immer noch in meinem ansonsten KI-freien Browser machen.

    Aber mal ernsthaft, wie bekomme ich ein aktuelles Android weitgehend KI-frei? Ich habe mich noch nicht getraut, die Lösung mit Universal Debloater und ADB auszuprobieren, aber vielleicht mache ich das mal demnächst, zuerst auf einem älteren Gerät, wäre dann aber nur Android 13, da ist der ganze KI-Schwachsinn noch nicht so richtig drin.

    • Rabiator sagt:

      Das wird sich vermutlich von selbst erledigen, zumindest teilweise. Es gibt genügend Berichte, nach denen die aktuellen LLMs unrentabel sind, weil die Betriebskosten die Einnahmen weit übersteigen. Irgendwann wird das den Firmen so auf die Füße fallen, daß ein Großteil der Anbieter kostenlose KI abschafft.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.