LLM的嘴硬心虚看来是普遍现象了。 LLM对自己得出的答案极其顽固,但一旦用户直接指出它是错的又会立马全盘否定。 但好玩的是,如果你说这个答案是别的llm给出的(实际上只是新开个了对话,拿它之前的答案假装的),那它反而会更理智的分析答案。

AIDB
@ai_database
12-19
How Overconfidence in Initial Choices and Underconfidence Under Criticism Modulate Change of Mind in Large Language Models https://doi.org/10.48550/arXiv.2507.03120… Dharshan Kumaran, Stephen M Fleming, Larisa Markeeva, Joe Heyward, Andrea Banino, Mrinal Mathur, Razvan Pascanu, Simon Osindero,
来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论