LLM의 고집과 죄책감은 널리 퍼져 있는 것 같습니다. LLM은 자신의 결론을 매우 끈질기게 고집하지만, 사용자가 직접적으로 틀렸다고 지적하면 즉시 완전히 부정해 버립니다. 흥미로운 점은, 만약 그 답변이 다른 LLM이 제공한 것이라고 말하면 (실제로는 이전 답변을 핑계로 새로운 대화를 시작하는 것일 뿐입니다), LLM이 답변을 좀 더 합리적으로 분석한다는 것입니다.
이 기사는 기계로 번역되었습니다
원문 표시

AIDB
@ai_database
12-19
How Overconfidence in Initial Choices and Underconfidence Under Criticism Modulate Change of Mind in Large Language Models
https://doi.org/10.48550/arXiv.2507.03120…
Dharshan Kumaran, Stephen M Fleming, Larisa Markeeva, Joe Heyward, Andrea Banino, Mrinal Mathur, Razvan Pascanu, Simon Osindero,
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유




