avatar
samsja
01-28
本文為機器翻譯
展示原文

今天我們發布了 Trinity Large,這是一個具有 4000 億 MoE 的 LLM 模型,擁有 130 億個活躍參數,並使用 17T 個 token 進行訓練。 基礎模型與GLM-4.5 Base 的表現相當,但由於其更稀疏且採用混合模型,因此推理速度明顯更快。 我們選擇的這種建築風格是我最喜歡的風格之一:

Prime Intellect
@PrimeIntellect
01-28
We're excited to introduce @arcee_ai's Trinity Large model. An open 400B parameter Mixture of Experts model, delivering frontier-level performance with only 13B active parameters. Trained in collaboration between Arcee, Datology and Prime Intellect. x.com/arcee_ai/statu…
來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論