Bài viết này được dịch máy
Xem bản gốc

Một trong những phát hiện yêu thích của tôi: Các embedding vị trí chỉ là công cụ hỗ trợ ban đầu. Chúng giúp hội tụ nhưng lại cản trở khả năng khái quát hóa trong ngữ cảnh dài. Chúng tôi nhận thấy rằng nếu bạn chỉ cần xóa chúng sau khi huấn luyện trước và hiệu chỉnh lại với chưa đến 1% ngân sách ban đầu, bạn sẽ mở khóa được các cửa sổ ngữ cảnh khổng lồ.

Sakana AI
@SakanaAILabs
01-12
Introducing DroPE: Extending the Context of Pretrained LLMs by Dropping Their Positional Embeddings https://pub.sakana.ai/DroPE/ We are releasing a new method called DroPE to extend the context length of pretrained LLMs without the massive compute costs usually associated with
Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận