Bài viết này được dịch máy
Xem bản gốc

Một sự thật mà nhiều người không biết: Giao tiếp với AI bằng tiếng Hàn tốn kém hơn từ 50% đến 70%. Trong tiếng Anh, xấp xỉ một từ tương ứng với một token. "Hello" là 1 token, và "artificial intelligence" là 2 token. Tuy nhiên, tiếng Hàn thì khác một chút. "안녕하세요" (Hello) được chia thành 2 hoặc 3 token. Do cấu trúc tổ hợp, Hangul được thiết kế để sử dụng nhiều token hơn tiếng Anh. Viết cùng một nội dung bằng tiếng Hàn tiêu tốn khoảng 1,52 lần token so với viết bằng tiếng Anh. Vì chi phí API tỷ lệ thuận với token, nên việc giao tiếp bằng tiếng Hàn tốn kém hơn tới 50% đến 70% cho cùng một nội dung. Hơn nữa, nếu bạn nhận được phản hồi của AI bằng tiếng Hàn, thì chi phí token đầu ra cũng tốn kém hơn từ 50% đến 70%. Về vấn đề này, một số người đã đề cập đến các kết quả nghiên cứu khác (arxiv.org/pdf/2507.00246), Đây là một nghiên cứu chỉ kiểm tra toán học, và thậm chí còn loại trừ hoàn toàn các mô hình chúng ta thường sử dụng, chẳng hạn như GPT và Claude. Các mô hình này nhận RLHF dựa trên tiếng Anh, vì vậy kết quả có thể khác nhau. Các mô hình được sử dụng trong nghiên cứu này là DeepSeek R1, Qwen 2.5 và Qwen 3, vì vậy tất cả đều là các mô hình LLM có nguồn gốc từ Trung Quốc… Ngoài ra, tiền đề rằng "giảm token = hiệu quả" có phần có vấn đề. Ngay cả khi suy nghĩ bằng tiếng Hàn làm giảm số lượng token, chi phí của một token tiếng Hàn vẫn cao hơn một token tiếng Anh (số byte, chi phí xử lý). Vì vậy, tóm lại, nếu bạn thường xuyên sử dụng AI và liên tục đạt đến giới hạn tốc độ, tôi khuyên bạn nên giao tiếp bằng tiếng Anh, coi đó như một hình thức luyện tập tiếng Anh tạm thời nhé haha.

Telegram
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận