人工智能代理運行的關鍵庫“langchain-core”中發現了一個嚴重的安全漏洞。該漏洞被命名為“LangGrinch”,攻擊者可以利用它從人工智能系統中竊取敏感信息。這一漏洞對整個行業敲響了警鐘,因為它可能從長遠來看破壞眾多人工智能應用的安全基礎。
人工智能安全初創公司 Cyata Security 披露了此漏洞,編號為 CVE-2025-68664,並根據綜合漏洞評分標準 (CVSS) 將其嚴重性評級為 9.3。問題的核心在於 LangChain Core 中包含的內部輔助函數在序列化和反序列化過程中可能會將用戶輸入錯誤地識別為可信對象。攻擊者可以利用“提示注入”技術,將內部標記鍵插入到代理生成的結構化輸出中,從而操縱輸出,使其隨後被當作可信對象進行處理。
Langchain Core是眾多人工智能代理框架的核心組件,在過去30天內下載量達數千萬次,累計下載量超過8.47億次。考慮到與整個Langchain生態系統相關的應用,專家預測此次漏洞的影響將是深遠的。
Cyata 的安全研究員 Yarden Porat 解釋說:“這個漏洞的特殊之處在於,它並非簡單的反序列化問題,而是發生在序列化路徑本身。存儲、流式傳輸以及後續恢復由 AI 提示生成的結構化數據的過程,暴露了一個新的攻擊面。” 事實上,Cyata 透露,他們已經識別出 12 種不同的攻擊途徑,這些途徑可以從單個提示引發各種不同的場景。
一旦攻擊觸發,所有環境變量都可能通過遠程 HTTP 請求洩露,包括雲憑證、數據庫訪問 URL、VectorDB 信息和 LLM API 密鑰等敏感信息。此漏洞尤其嚴重,因為它是一個完全存在於 Langchain Core 內部的結構性缺陷,與任何第三方工具或外部集成無關。Cyata 對此表示擔憂,稱其為“對生態系統底層架構的持續威脅”。
針對當前問題的安全補丁已在 Langchain Core 版本 1.2.5 和 0.3.81 中發佈。Saiata 在公開此問題之前已通知 Langchain 管理層,據報道,團隊已立即採取行動,並採取措施從長遠角度加強安全性。
Cyata聯合創始人兼首席執行官Shahar Tal表示:“隨著人工智能系統在工業環境中部署,關鍵的安全問題不再是代碼執行本身,而是系統最終擁有的權限。”他強調:“在基於代理ID的架構中,減少訪問權限和最小化影響範圍是至關重要的設計要素。”
預計此次事件將為重新審視人工智能行業安全設計的基本原理提供契機,該行業越來越注重基於代理的自動化,而不是人工干預。
獲取實時新聞……請前往 TokenPost Telegram 頻道
版權所有 © TokenPost。未經授權,禁止複製和傳播。




