avatar
samsja
01-28
本文为机器翻译
展示原文

今天我们发布了 Trinity Large,这是一个具有 4000 亿 MoE 的 LLM 模型,拥有 130 亿个活跃参数,并使用 17T 个 token 进行训练。 基础模型与GLM-4.5 Base 的表现相当,但由于其更稀疏且采用混合模型,因此推理速度明显更快。 我们选择的这种建筑风格是我最喜欢的风格之一:

Prime Intellect
@PrimeIntellect
01-28
We're excited to introduce @arcee_ai's Trinity Large model. An open 400B parameter Mixture of Experts model, delivering frontier-level performance with only 13B active parameters. Trained in collaboration between Arcee, Datology and Prime Intellect. x.com/arcee_ai/statu…
来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论