Nghiên cứu của MIT cho thấy AI vẫn chưa hiểu từ “Không”

avatar
Decrypt
05-22
Bài viết này được dịch máy
Xem bản gốc

AI có thể chẩn đoán bệnh, viết thơ và thậm chí lái xe - nhưng vẫn gặp khó khăn với một từ đơn giản: "không". Điểm mù này có thể có hậu quả nghiêm trọng trong các ứng dụng thực tế, như AI được xây dựng xung quanh lĩnh vực chăm sóc sức khỏe.

Theo một nghiên cứu mới do nghiên cứu sinh tiến sĩ Kumail Alhamoud của MIT dẫn đầu, phối hợp với OpenAI và Đại học Oxford, việc không hiểu "không" và "không phải" có thể có hậu quả sâu sắc, đặc biệt là trong môi trường y tế.

Phủ định (ví dụ như "không gãy xương" hoặc "không to ra") là một chức năng ngôn ngữ quan trọng, đặc biệt là trong các môi trường có mức độ rủi ro cao như chăm sóc sức khỏe, nơi mà việc hiểu sai có thể dẫn đến tổn hại nghiêm trọng. Nghiên cứu cho thấy các mô hình AI hiện tại - như ChatGPT, Gemini và Llama - thường không xử lý các câu phủ định một cách chính xác, thay vào đó có xu hướng mặc định với các liên kết tích cực.

Vấn đề cốt lõi không chỉ là thiếu dữ liệu; mà là cách AI được đào tạo. Hầu hết các mô hình ngôn ngữ lớn được xây dựng để nhận dạng các mẫu, không phải để suy luận logic. Điều này có nghĩa là chúng có thể hiểu "không tốt" vẫn là tích cực phần nào vì chúng gắn liền "tốt" với tính tích cực. Các chuyên gia cho rằng trừ khi các mô hình được dạy suy luận thông qua logic, thay vì chỉ bắt chước ngôn ngữ, chúng sẽ tiếp tục mắc những sai lầm nhỏ nhưng nguy hiểm.

"AI rất giỏi tạo ra các phản hồi tương tự những gì nó đã thấy trong quá trình đào tạo. Nhưng nó rất kém ở việc tạo ra thứ gì đó hoàn toàn mới hoặc nằm ngoài dữ liệu đào tạo," Franklin Delehelle, kỹ sư nghiên cứu trưởng tại công ty cơ sở hạ tầng zero-knowledge Lagrange Labs, nói với Decrypt. "Vì vậy, nếu dữ liệu đào tạo thiếu các ví dụ mạnh về việc nói 'không' hoặc thể hiện cảm xúc tiêu cực, mô hình có thể gặp khó khăn trong việc tạo ra loại phản hồi đó."


Trong nghiên cứu, các nhà nghiên cứu nhận thấy các mô hình ngôn ngữ-hình ảnh, được thiết kế để diễn giải hình ảnh và văn bản, cho thấy sự thiên vị còn mạnh hơn nữa đối với các câu khẳng định, thường xuyên không phân biệt được giữa các chú thích tích cực và tiêu cực.

"Thông qua dữ liệu phủ định tổng hợp, chúng tôi cung cấp một hướng đi hứa hẹn hướng tới các mô hình đáng tin cậy hơn," các nhà nghiên cứu cho biết. "Mặc dù phương pháp dữ liệu tổng hợp của chúng tôi cải thiện sự hiểu biết về phủ định, nhưng vẫn còn những thách thức, đặc biệt là với những sự khác biệt phủ định tinh vi."

Mặc dù đang có tiến bộ liên tục trong suy luận, nhiều hệ thống AI vẫn gặp khó khăn với suy luận giống con người, đặc biệt là khi xử lý các vấn đề mở hoặc các tình huống yêu cầu sự hiểu biết sâu hơn hoặc "tri thức thông thường."

"Tất cả các LLM - những gì chúng ta thường gọi là AI ngày nay - đều bị ảnh hưởng một phần bởi lời nhắc ban đầu của chúng. Khi bạn tương tác với ChatGPT hoặc các hệ thống tương tự, hệ thống không chỉ sử dụng đầu vào của bạn. Còn có một lời nhắc nội bộ hoặc 'trong nhà' đã được đặt trước bởi công ty - một thứ mà bạn, người dùng, không có quyền kiểm soát." Delehelle nói với Decrypt.

Delehelle nhấn mạnh một trong những hạn chế cốt lõi của AI: sự phụ thuộc vào các mẫu được tìm thấy trong dữ liệu đào tạo của nó, một ràng buộc có thể định hình - và đôi khi là méo mó - cách nó phản hồi.

Kian Katanforoosh, giáo sư phụ về Học sâu tại Đại học Stanford và người sáng lập công ty tình báo kỹ năng Workera, cho biết thách thức với phủ định xuất phát từ một khuyết điểm cơ bản trong cách các mô hình ngôn ngữ hoạt động.

"Phủ định rất phức tạp. Các từ như 'không' và 'không phải' đảo ngược ý nghĩa của một câu, nhưng hầu hết các mô hình ngôn ngữ không suy luận thông qua logic - chúng dự đoán những gì có vẻ có khả năng xảy ra dựa trên các mẫu," Katanforoosh nói với Decrypt. "Điều đó khiến chúng dễ bỏ qua điểm chính khi có phủ định."

Katanforoosh cũng chỉ ra, hưởng ứng Delehelle, rằng cách các mô hình AI được đào tạo là vấn đề cốt lõi.

"Các mô hình này được đào tạo để liên kết, không phải để suy luận. Vì vậy, khi bạn nói 'không tốt', chúng vẫn mạnh mẽ liên kết từ 'tốt' với cảm xúc tích cực," ông giải thích. "Không giống như con người, chúng không phải lúc nào cũng ghi đè những liên kết đó."

Katanforoosh cảnh báo rằng khả năng không thể diễn giải phủ định một cách chính xác không chỉ là một khuyết điểm kỹ thuật - nó có thể có hậu quả nghiêm trọng trong thực tế.

"Hiểu phủ định là nền tảng của sự hiểu biết," ông nói. "Nếu một mô hình không thể nắm bắt nó một cách đáng tin cậy, bạn sẽ có nguy cơ mắc phải những lỗi tinh tế nhưng quan trọng - đặc biệt là trong các use case như pháp lý, y tế hoặc ứng dụng nhân sự."

Và mặc dù việc mở rộng dữ liệu đào tạo có vẻ như là một giải pháp dễ dàng, nhưng ông cho rằng giải pháp nằm ở nơi khác.

"Giải quyết vấn đề này không phải là về nhiều dữ liệu hơn, mà là suy luận tốt hơn. Chúng ta cần các mô hình có thể xử lý logic, không chỉ là ngôn ngữ," ông nói. "Đó là nơi ranh giới hiện nay: kết nối học tập thống kê với tư duy có cấu trúc."

Biên tập bởi James Rubin

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận