我們迄今為止最大的 LFM2 模型取得了初步成果 🎉 它展現了良好的擴展性,並且推理速度極快,優於 gpt-oss-20b 和 Qwen3-30B-A3B。 我們將在幾個月後發佈 LFM2.5 版本,其中包含更多預訓練和強化學習內容。
本文為機器翻譯
展示原文

Liquid AI
@liquidai
02-24
Today, we release our largest LFM2 model: LFM2-24B-A2B 🐘
> 24B total parameters
> 2.3B active per token
> Built on our hybrid, hardware-aware LFM2 architecture
It combines LFM2’s fast, memory-efficient design with a Mixture of Experts setup, so only 2.3B parameters activate

來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論
分享





