avatar
samsja
01-28
Bài viết này được dịch máy
Xem bản gốc

Hôm nay chúng tôi phát hành Trinity Large, một mô hình LLM có chỉ số MoE 400B với 13 tỷ tham số hoạt động, được huấn luyện trên 17 nghìn tỷ token. Mô hình cơ bản có hiệu năng tương đương với GLM-4.5 Base, đồng thời nhanh hơn đáng kể trong việc suy luận vì nó thưa hơn và là mô hình lai. Công trình kiến ​​trúc mà chúng tôi lựa chọn là một trong những công trình tôi yêu thích nhất:

Prime Intellect
@PrimeIntellect
01-28
We're excited to introduce @arcee_ai's Trinity Large model. An open 400B parameter Mixture of Experts model, delivering frontier-level performance with only 13B active parameters. Trained in collaboration between Arcee, Datology and Prime Intellect. x.com/arcee_ai/statu…
Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận