Gradient發佈Echo-2 RL框架,提升AI科研效率

Odaily星球日報訊 分佈式 AI 實驗室 Gradient 今日發佈 Echo-2 分佈式強化學習框架,旨在打破 AI 研究訓練效率壁壘。通過在架構層實現 Learner 與 Actor 的徹底解耦,Echo-2 將 30B 模型的後訓練成本從 4,500 美元驟降至 425 美元。在同等預算下,帶來超過 10 倍的科研吞吐。

該框架利用存算分離技術進行異步訓練 (Async RL),將海量的採樣算力卸載至不穩定顯卡實例與基於 Parallax 的異構顯卡。配合有界陳舊性、實例容錯調度、與自研 Lattica 通訊協議等技術突破,在保證模型精度的同時大幅提升訓練效率。伴隨框架發佈,Gradient 也即將推出 RLaaS 平臺 Logits,推動 AI 研究從“資本堆砌”向“效率迭代”範式轉移。Logits 現已面向全球學生與研究人員開放預約 (logits.dev)。

據悉,Gradient 是一家致力於構建分佈式基礎設施的 AI 實驗室,專注於前沿大模型的分佈式訓練、服務與部署。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論