Dường như sự bướng bỉnh và lương tâm cắn rứt của LLM khá phổ biến. LLM cực kỳ cố chấp với kết luận của mình, nhưng sẽ ngay lập tức bác bỏ hoàn toàn khi người dùng trực tiếp chỉ ra rằng chúng sai. Điều thú vị là, nếu bạn nói rằng câu trả lời được đưa ra bởi một LLM khác (thực tế, đó chỉ là một cuộc trò chuyện mới sử dụng câu trả lời trước đó làm cái cớ), nó sẽ phân tích câu trả lời một cách lý trí hơn.
Bài viết này được dịch máy
Xem bản gốc

AIDB
@ai_database
12-19
How Overconfidence in Initial Choices and Underconfidence Under Criticism Modulate Change of Mind in Large Language Models
https://doi.org/10.48550/arXiv.2507.03120…
Dharshan Kumaran, Stephen M Fleming, Larisa Markeeva, Joe Heyward, Andrea Banino, Mrinal Mathur, Razvan Pascanu, Simon Osindero,
Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận
Chia sẻ
Nội dung liên quan






