오늘 저희는 17조 개의 토큰을 기반으로 학습된 4천억 MoE 규모의 LLM인 Trinity Large를 출시합니다. Trinity Large는 130억 개의 활성 파라미터를 가지고 있습니다. 기본 모델은 골렘(GLM)-4.5 Base와 동등한 성능을 보이면서도, 희소성과 하이브리드 구조 덕분에 추론 속도가 훨씬 빠릅니다. 우리가 선택한 건축물은 제가 가장 좋아하는 것 중 하나입니다.
이 기사는 기계로 번역되었습니다
원문 표시

Prime Intellect
@PrimeIntellect
01-28
We're excited to introduce @arcee_ai's Trinity Large model.
An open 400B parameter Mixture of Experts model, delivering frontier-level performance with only 13B active parameters.
Trained in collaboration between Arcee, Datology and Prime Intellect. x.com/arcee_ai/statu…
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유



