Lỗi nghiêm trọng trong công nghệ cốt lõi của tác nhân AI… Langchain đưa ra cảnh báo 'LangGrinch'

Bài viết này được dịch máy
Xem bản gốc

Một lỗ hổng bảo mật nghiêm trọng đã được phát hiện trong "langchain-core", một thư viện quan trọng để vận hành các tác nhân AI. Lỗ hổng này, được đặt tên là "LangGrinch", cho phép kẻ tấn công đánh cắp thông tin nhạy cảm từ các hệ thống AI. Lỗ hổng này là một lời cảnh tỉnh cho ngành công nghiệp, vì nó có khả năng làm suy yếu nền tảng bảo mật của nhiều ứng dụng AI trong dài hạn.

Công ty khởi nghiệp về bảo mật AI Cyata Security đã tiết lộ lỗ hổng này với mã số CVE-2025-68664 và xếp hạng mức độ nghiêm trọng là 9.3 theo Tiêu chuẩn chấm điểm lỗ hổng toàn diện (CVSS). Vấn đề cốt lõi là các hàm hỗ trợ nội bộ được tích hợp trong LangChain Core có thể nhận diện sai dữ liệu đầu vào của người dùng là một đối tượng đáng tin cậy trong quá trình tuần tự hóa và giải tuần tự hóa. Bằng cách sử dụng kỹ thuật "tiêm nhắc lệnh", kẻ tấn công có thể chèn một khóa đánh dấu nội bộ vào đầu ra có cấu trúc do tác nhân tạo ra, thao túng nó để sau đó nó được xử lý như một đối tượng đáng tin cậy.

Langchain Core đóng vai trò là thành phần cốt lõi của nhiều khung phần mềm tác nhân AI và đã được tải xuống hàng chục triệu lần trong 30 ngày qua, tổng cộng hơn 847 triệu lượt tải xuống. Xét đến các ứng dụng được kết nối với toàn bộ hệ sinh thái Langchain, các chuyên gia dự đoán rằng tác động của lỗ hổng này sẽ rất sâu rộng.

“Điều bất thường về lỗ hổng này là nó không chỉ đơn thuần là vấn đề giải mã dữ liệu, mà xảy ra ngay trong quá trình mã hóa dữ liệu,” Yarden Porat, một nhà nghiên cứu bảo mật tại Cyata, giải thích. “Quá trình lưu trữ, truyền tải và sau đó khôi phục dữ liệu có cấu trúc được tạo ra bởi các lời nhắc của AI đã tạo ra một bề mặt tấn công mới.” Trên thực tế, Cyata tiết lộ rằng họ đã xác định được 12 vectơ tấn công khác nhau có thể dẫn đến nhiều kịch bản khác nhau từ một lời nhắc duy nhất.

Một khi cuộc tấn công được kích hoạt, tất cả các biến môi trường có thể bị rò rỉ thông qua các yêu cầu HTTP từ xa, bao gồm cả thông tin nhạy cảm như thông tin đăng nhập đám mây, URL truy cập cơ sở dữ liệu, thông tin VectorDB và khóa API LLM. Lỗ hổng này đặc biệt nghiêm trọng vì nó là một lỗi cấu trúc chỉ xảy ra bên trong Langchain Core, mà không cần bất kỳ công cụ bên thứ ba hoặc tích hợp bên ngoài nào. Cyata đã bày tỏ sự lo ngại, gọi đây là "mối đe dọa dai dẳng đối với lớp nền tảng của hệ sinh thái".

Các bản vá bảo mật khắc phục sự cố hiện tại đã được phát hành trong các phiên bản Langchain Core 1.2.5 và 0.3.81. Saiata đã thông báo cho ban quản lý Langchain về vấn đề này trước khi công bố rộng rãi, và nhóm được cho là đã hành động ngay lập tức cũng như thực hiện các biện pháp để tăng cường bảo mật về lâu dài.

“Khi các hệ thống AI được triển khai trong môi trường công nghiệp, vấn đề bảo mật then chốt hiện nay không phải là việc thực thi mã lệnh mà là quyền hạn tối cao mà hệ thống sẽ có,” Shahar Tal, đồng sáng lập kiêm CEO của Cyata, cho biết. “Trong kiến trúc dựa trên định danh tác nhân, việc giảm quyền truy cập và tối thiểu hóa phạm vi ảnh hưởng là những yếu tố thiết kế thiết yếu,” ông nhấn mạnh.

Sự cố này được kỳ vọng sẽ là cơ hội để xem xét lại các nguyên tắc cơ bản về thiết kế bảo mật trong ngành công nghiệp trí tuệ nhân tạo, vốn ngày càng tập trung vào tự động hóa dựa trên tác nhân hơn là sự can thiệp của con người.

Nhận tin tức cập nhật liên tục... Tham gia nhóm Telegram của TokenPost

Bản quyền © TokenPost. Nghiêm cấm sao chép và phân phối lại trái phép.

Yêu cầu quảng cáo | Gửi bài viết | Thông cáo báo chí
#AISecurity #CyataSecurity #LangchainCore

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
58
Thêm vào Yêu thích
18
Bình luận