核心人工智能代理技术存在严重缺陷……Langchain 发布“LangGrinch”警报

本文为机器翻译
展示原文

人工智能代理运行的关键库“langchain-core”中发现了一个严重的安全漏洞。该漏洞被命名为“LangGrinch”,攻击者可以利用它从人工智能系统中窃取敏感信息。这一漏洞对整个行业敲响了警钟,因为它可能从长远来看破坏众多人工智能应用的安全基础。

人工智能安全初创公司 Cyata Security 披露了此漏洞,编号为 CVE-2025-68664,并根据综合漏洞评分标准 (CVSS) 将其严重性评级为 9.3。问题的核心在于 LangChain Core 中包含的内部辅助函数在序列化和反序列化过程中可能会将用户输入错误地识别为可信对象。攻击者可以利用“提示注入”技术,将内部标记键插入到代理生成的结构化输出中,从而操纵输出,使其随后被当作可信对象进行处理。

Langchain Core是众多人工智能代理框架的核心组件,在过去30天内下载量达数千万次,累计下载量超过8.47亿次。考虑到与整个Langchain生态系统相关的应用,专家预测此次漏洞的影响将是深远的。

Cyata 的安全研究员 Yarden Porat 解释说:“这个漏洞的特殊之处在于,它并非简单的反序列化问题,而是发生在序列化路径本身。存储、流式传输以及后续恢复由 AI 提示生成的结构化数据的过程,暴露了一个新的攻击面。” 事实上,Cyata 透露,他们已经识别出 12 种不同的攻击途径,这些途径可以从单个提示引发各种不同的场景。

一旦攻击触发,所有环境变量都可能通过远程 HTTP 请求泄露,包括云凭证、数据库访问 URL、VectorDB 信息和 LLM API 密钥等敏感信息。此漏洞尤其严重,因为它是一个完全存在于 Langchain Core 内部的结构性缺陷,与任何第三方工具或外部集成无关。Cyata 对此表示担忧,称其为“对生态系统底层架构的持续威胁”。

针对当前问题的安全补丁已在 Langchain Core 版本 1.2.5 和 0.3.81 中发布。Saiata 在公开此问题之前已通知 Langchain 管理层,据报道,团队已立即采取行动,并采取措施从长远角度加强安全性。

Cyata联合创始人兼首席执行官Shahar Tal表示:“随着人工智能系统在工业环境中部署,关键的安全问题不再是代码执行本身,而是系统最终拥有的权限。”他强调:“在基于代理ID的架构中,减少访问权限和最小化影响范围是至关重要的设计要素。”

预计此次事件将为重新审视人工智能行业安全设计的基本原理提供契机,该行业越来越注重基于代理的自动化,而不是人工干预。

获取实时新闻……请前往 TokenPost Telegram 频道

版权所有 © TokenPost。未经授权,禁止复制和传播。

#AI安全#Cyata安全#LangchainCore

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
58
收藏
18
评论