이 기사는 기계로 번역되었습니다
원문 표시

그들에게 무엇을 물어볼 건지 미리 알려주고, 다시 물어보고, 방금 물어본 내용을 다시 물어보세요.

BURKOV
@burkov
02-18
LLMs process text from left to right — each token can only look back at what came before it, never forward. This means that when you write a long prompt with context at the beginning and a question at the end, the model answers the question having "seen" the context, but the
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트