LLM的嘴硬心虛看來是普遍現象了。 LLM對自己得出的答案極其頑固,但一旦用戶直接指出它是錯的又會立馬全盤否定。 但好玩的是,如果你說這個答案是別的llm給出的(實際上只是新開個了對話,拿它之前的答案假裝的),那它反而會更理智的分析答案。

AIDB
@ai_database
12-19
How Overconfidence in Initial Choices and Underconfidence Under Criticism Modulate Change of Mind in Large Language Models https://doi.org/10.48550/arXiv.2507.03120… Dharshan Kumaran, Stephen M Fleming, Larisa Markeeva, Joe Heyward, Andrea Banino, Mrinal Mathur, Razvan Pascanu, Simon Osindero,
來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論