LangGrinch: Kritische Schwachstelle CVE-2025-68664 in AI-Umgebung

Sicherheit (Pexels, allgemeine Nutzung)Sicherheitsforscher haben die Tage LangGrinch öffentlich gemacht. Es ist eine kritische Schwachstelle (CVE-2025-68664) im Code der LangChain-Umgebung entdeckt worden. Diese Schwachstelle im Framework zur AI-Entwicklung gefährdet die "Geheimnisse" von KI-Agenten bei deren Entwicklung und im Produktiveinsatz.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

LangChain bietet die Engineering-Plattform und Open-Source-Frameworks, mit denen Entwickler angeblich zuverlässige KI-Agenten erstellen, testen und bereitstellen können. LangChain wird laut deren Referenzliste von Klarna, LinkedIn und weiteren Firmen eingesetzt. Zum 26. Dezember 2025 bin ich in nachfolgendem Tweet darauf gestoßen, dass es im Core von LangChain eine als "LangGrinch" bezeichnete Schwachstelle gibt.

Schwachstelle in Langchain

Silicon Angle hat im Beitrag Critical 'LangGrinch' vulnerability in langchain-core puts AI agent secrets at risk auf die Erkenntnisse der Sicherheitsforscher von Cyata Security Ltd. hingewiesen. Diese geben an, dass die, einen CVSS-Score von 9,3 aufweisende, kritische Sicherheitslücke CVE-2025-68664 im LangChain-core die Geheimnisse von KI-Agenten gefährdet. Das werfe ernsthafte Sicherheitsbedenken in KI-Produktionsumgebungen auf.

Die Schwachstelle CVE-2025-68664

Laut Beschreibung von CVE-2025-68664 steckt die Schwachstelle im LangChain-Core, und zwar im Framework zum Erstellen von Agenten und LLM-gestützten Anwendungen. Vor den Versionen 0.3.81 und 1.2.5 besteht in den Funktionen dumps() und dumpd() von LangChain eine Schwachstelle hinsichtlich der Serialisierung.

Die Funktionen führen bei der Serialisierung von Freiform-Wörterbüchern kein Escape von Wörterbüchern mit „lc"-Schlüsseln durch. Der Schlüssel „lc" wird intern von LangChain verwendet, um serialisierte Objekte zu markieren. Wenn benutzergesteuerte Daten diese Schlüsselstruktur enthalten, werden sie bei der Deserialisierung als legitimes LangChain-Objekt behandelt und nicht als einfache Benutzerdaten. Dieses Problem wurde in den Versionen 0.3.81 und 1.2.5 behoben.

LangChain heftig im Einsatz

Der LangChain-core bildet das Herzstück des agentenbasierten KI-Ökosystems und dient als zentrale Abhängigkeit für unzählige Frameworks und Anwendungen. Laut Cydata weisen öffentliche Paket-Download-Tracker für langchain-core insgesamt etwa 847 Millionen Downloads aus, davon mehrere Millionen in den letzten 30 Tagen. Das umfassendere LangChain-Paket wird monatlich etwa 98 Millionen Mal heruntergeladen. Dies verdeutlicht, wie tief die anfällige Komponente in modernen KI-Workflows verankert ist.

Geheimnisse von KI-Agenten abfragbar

Wird die Schwachstelle ausgenutzt, kann ein Angreifer eine vollständige Exfiltration von Umgebungsvariablen über ausgehende HTTP-Anfragen durchführen. Die Offenlegung kann Anmeldedaten von Cloud-Anbietern, Datenbank- und RAG-Verbindungszeichenfolgen, Geheimnisse von Vektordatenbanken und Schlüssel für Anwendungsprogrammierschnittstellen großer Sprachmodelle umfassen, heißt es.

Die Forscher von Cyata haben gleich 12 verschiedene erreichbare Exploit-Flows identifiziert. Das zeigt, das routinemäßige Agent-Operationen wie das Speichern, Streamen und Rekonstruieren strukturierter Daten unbeabsichtigt einen Angriffspfad öffnen kann.

Dieser Beitrag wurde unter AI, Sicherheit, Software abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.