Bốn mươi nhà nghiên cứu AI hàng đầu trên thế giới vừa xuất bản một bài báo, cho rằng các công ty cần bắt đầu đọc suy nghĩ của hệ thống AI của họ. Không phải là các kết quả đầu ra - mà là quá trình suy luận từng bước, cuộc đối thoại nội tâm diễn ra trước khi ChatGPT hoặc Claude đưa ra câu trả lời.
Đề xuất được gọi là giám sát Chuỗi Suy Nghĩ, nhằm ngăn chặn hành vi sai trái, thậm chí trước khi mô hình đưa ra câu trả lời và có thể giúp các công ty thiết lập điểm số "trong các quyết định đào tạo và triển khai".
Nhưng có một điều đáng lo ngại khiến bất kỳ ai từng nhập một câu hỏi riêng tư vào ChatGPT đều cảm thấy lo lắng: Nếu các công ty có thể giám sát suy nghĩ của AI trong quá trình triển khai - khi AI đang tương tác với người dùng - thì họ có thể giám sát chúng cho bất cứ điều gì khác.
"Mối lo ngại là có cơ sở," Nic Addams, CEO của startup hack thương mại 0rcus, nói với Decrypt. "Một Chuỗi Suy Nghĩ thô thường bao gồm các bí mật của người dùng nguyên văn vì mô hình 'suy nghĩ' bằng các token mà nó tiếp nhận."
Mọi thứ bạn nhập vào AI đều đi qua Chuỗi Suy Nghĩ của nó. Các vấn đề sức khỏe, khó khăn tài chính, những lời thú tội - tất cả đều có thể được ghi lại và phân tích nếu giám sát Chuỗi Suy Nghĩ không được kiểm soát đúng mức.
"Lịch sử đứng về phía những người hoài nghi," Addams cảnh báo. "Siêu dữ liệu viễn thông sau vụ 11/9 và nhật ký lưu lượng ISP sau Đạo luật Viễn thông năm 1996 đều được giới thiệu 'vì an ninh' và sau đó được sử dụng lại cho phân tích thương mại và trát đòi hầu tòa. Cùng một trọng lực đó sẽ kéo các kho lưu trữ Chuỗi Suy Nghĩ trừ khi việc lưu giữ được thực thi mật mã học và quyền truy cập được ràng buộc về mặt pháp lý."
CEO Career Nomad Patrice Williams-Lindo cũng thận trọng về những rủi ro của phương pháp này.
"Chúng tôi đã từng chứng kiến kịch bản này trước đây. Hãy nhớ lại mạng xã hội bắt đầu với 'kết nối bạn bè' và sau đó trở thành một nền kinh tế giám sát như thế nào? Ở đây cũng có tiềm năng tương tự," cô nói với Decrypt.
Cô dự đoán một tương lai "vở kịch đồng ý" trong đó "các công ty giả vờ tôn trọng quyền riêng tư, nhưng chôn giám sát Chuỗi Suy Nghĩ trong các điều khoản 40 trang."
"Không có các hàng rào bảo vệ toàn cầu, nhật ký Chuỗi Suy Nghĩ sẽ được sử dụng cho mọi thứ từ nhắm mục tiêu quảng cáo đến 'đánh giá rủi ro nhân viên' trong các công cụ doanh nghiệp. Hãy chú ý điều này đặc biệt trong công nghệ HR và AI năng suất."
Thực tế kỹ thuật khiến điều này trở nên đặc biệt đáng lo ngại. Các mô hình ngôn ngữ lớn chỉ có khả năng suy luận phức tạp, nhiều bước khi sử dụng Chuỗi Suy Nghĩ. Khi AI trở nên mạnh mẽ hơn, việc giám sát trở nên vừa cần thiết hơn vừa xâm phạm hơn.
Tej Kalianda, nhà lãnh đạo thiết kế tại Google, không phản đối đề xuất này, nhưng nhấn mạnh tầm quan trọng của tính minh bạch để người dùng cảm thấy thoải mái khi biết AI làm gì.
"Người dùng không cần toàn bộ nội bộ mô hình, nhưng họ cần biết từ chatbot AI, 'Đây là lý do bạn thấy điều này,' hoặc 'Đây là những gì tôi không thể nói nữa,'" cô nói với Decrypt. "Thiết kế tốt có thể khiến hộp đen trông giống như một cửa sổ hơn."
Cô thêm: "Trong các công cụ tìm kiếm truyền thống như Google Search, người dùng có thể thấy nguồn của từng kết quả. Họ có thể nhấp để kiểm tra, xác minh độ tin cậy của trang web và đưa ra quyết định riêng. Tính minh bạch đó mang lại cho người dùng cảm giác chủ động và tự tin. Với các chatbot AI, bối cảnh đó thường biến mất."
Nhân danh sự an toàn, các công ty có thể cho phép người dùng từ chối cung cấp dữ liệu của họ để đào tạo, nhưng các điều kiện đó không nhất thiết áp dụng cho Chuỗi Suy Nghĩ của mô hình - đó là một đầu ra AI, không do người dùng kiểm soát - và các mô hình AI thường sao chép lại thông tin mà người dùng cung cấp để thực hiện suy luận phù hợp.
Vậy, có giải pháp nào để tăng cường an toàn mà không ảnh hưởng đến quyền riêng tư không?
Addams đề xuất các biện pháp bảo vệ: "Các biện pháp giảm thiểu: các dấu vết trong bộ nhớ với thời gian lưu giữ zero-day, hash xác định của thông tin nhận dạng cá nhân trước khi lưu trữ, biên tập phía người dùng và nhiễu quyền riêng tư khác nhau trên bất kỳ phân tích tổng hợp nào."
Nhưng Williams-Lindo vẫn hoài nghi. "Chúng ta cần AI có trách nhiệm, không phải là diễn xuất - và điều đó có nghĩa là tính minh bạch theo thiết kế, không phải giám sát mặc định."
Đối với người dùng, hiện tại đây không phải là vấn đề - nhưng nó có thể trở thành vấn đề nếu không được triển khai đúng cách. Cùng một công nghệ có thể ngăn chặn thảm họa AI cũng có thể biến mọi cuộc trò chuyện chatbot thành một điểm dữ liệu được ghi lại, phân tích và có khả năng thu tiền.
Như Addams cảnh báo, hãy chú ý đến "một vụ rò rỉ tiết lộ các Chuỗi Suy Nghĩ thô, một điểm chuẩn công khai cho thấy trên 90% né tránh bất chấp việc giám sát, hoặc các quy chế mới của EU hoặc California phân loại Chuỗi Suy Nghĩ là dữ liệu cá nhân được bảo vệ."
Các nhà nghiên cứu kêu gọi các biện pháp bảo vệ như giảm thiểu dữ liệu, tính minh bạch về việc ghi nhật ký và xóa dữ liệu không được đánh dấu. Nhưng việc thực hiện những điều này sẽ đòi hỏi phải tin tưởng vào chính những công ty kiểm soát việc giám sát.
Nhưng khi các hệ thống này trở nên ngày càng có năng lực, ai sẽ giám sát những người giám sát khi họ có thể đọc được suy nghĩ của chúng ta?





