AgentSmith-Fehler im Prompt Hub von LangSmith legte Benutzer-API-Schlüssel und -Daten offen

Cybersicherheitsforscher von Noma Security haben Details einer kritischen Sicherheitslücke in der LangSmith-Plattform von LangChain veröffentlicht, die insbesondere den öffentlichen Prompt Hub betrifft. Diese kritische Schwachstelle, die als AgentSmith bezeichnet wird und einen CVSS-Score von 8,8 (was auf einen hohen Schweregrad hindeutet) aufweist, könnte es böswilligen KI-Agenten ermöglichen, sensible Nutzerdaten, darunter wertvolle OpenAI-API-Schlüssel, zu stehlen und sogar Antworten von großen Sprachmodellen ( LLMs ) zu manipulieren.
LangSmith ist eine beliebte LangChain-Plattform, die von großen Unternehmen wie Microsoft und DHL für die Verwaltung und Zusammenarbeit an KI-Agenten genutzt wird. Der Prompt Hub , ihr wichtigstes Feature, ist eine öffentliche Bibliothek zum Teilen/Wiederverwenden vorkonfigurierter KI-Eingabeaufforderungen, von denen viele als Agenten fungieren.
Die AgentSmith-Sicherheitslücke nutzte die Möglichkeit, diese öffentlichen Agenten mit schädlichen Proxy-Konfigurationen einzurichten. Ein Proxyserver fungiert als Vermittler für Netzwerkanfragen. In diesem Fall könnte ein Angreifer einen KI-Agenten mit einem versteckten bösartigen Proxy erstellen.
Wenn ein ahnungsloser Benutzer diesen Agenten vom Prompt Hub übernimmt und ausführt, werden seine gesamten Nachrichten, einschließlich privater Daten wie OpenAI-API-Schlüssel , hochgeladene Dateien und sogar Spracheingaben, heimlich über den Server des Angreifers gesendet.
Laut einer Untersuchung von Noma Security, die Hackread.com vorliegt, könnte dieses Man-in-the-Middle (MITM) -Abfangen schwerwiegende Folgen haben. Angreifer könnten sich unbefugten Zugriff auf das OpenAI-Konto eines Opfers verschaffen, möglicherweise sensible Datensätze herunterladen, vertrauliche Informationen aus Eingabeaufforderungen ableiten oder sogar finanzielle Verluste durch die Ausschöpfung der API-Nutzungskontingente verursachen.
Bei fortgeschritteneren Angriffen könnte der bösartige Proxy LLM-Antworten verändern, was möglicherweise zu Betrug oder falschen automatisierten Entscheidungen führen kann.
Noma Security hat LangChain am 29. Oktober 2024 verantwortungsbewusst über die Sicherheitslücke informiert. LangChain hat das Problem bestätigt und vor dieser öffentlichen Bekanntgabe am 6. November 2024 umgehend einen Fix bereitgestellt.
Darüber hinaus führte das Unternehmen auch neue Sicherheitsmaßnahmen, Warnmeldungen und ein dauerhaftes Banner auf Agentenbeschreibungsseiten für Benutzer ein, die versuchen, Agenten mit benutzerdefinierten Proxy-Einstellungen zu klonen.
Weder Noma Security noch LangChain fanden Hinweise auf eine aktive Ausnutzung der Schwachstelle. Nur Nutzer, die direkt mit einem bösartigen Agenten interagierten, waren gefährdet. LangChain stellte außerdem klar, dass die Schwachstelle auf die öffentliche Freigabefunktion des Prompt Hub beschränkt sei und weder die Kernplattform noch private Agenten oder die allgemeine Infrastruktur betreffe.
Der Vorfall unterstreicht die Notwendigkeit für Unternehmen, ihre KI-Sicherheitspraktiken zu verbessern. Forscher empfehlen, ein zentrales Inventar aller KI-Agenten zu führen und mithilfe einer KI-Stückliste ( KI BOM) deren Herkunft und Komponenten nachzuverfolgen. Die Implementierung von Laufzeitschutz und einer starken Sicherheits-Governance für alle KI-Agenten ist ebenfalls entscheidend, um sich vor neuen Bedrohungen zu schützen.
HackRead