3 月 17 日,穩定幣發行商 Tether 宣佈,其 AI 平臺 QVAC Fabric 推出全球首個面向 Microsoft BitNet(1-bit LLM)的跨平臺 LoRA 微調框架,使十億參數級語言模型能夠在普通硬件上完成訓練與推理,包括筆記本電腦、消費級 GPU 及智能手機。
官方表示,該框架顯著降低了 AI 模型訓練所需的顯存和算力門檻,支持 Intel、AMD、Apple Silicon 及多種移動 GPU(如 Adreno、Mali、Apple Bionic)。
在測試中,約 1.25 億參數 BitNet 模型 可在 Samsung S25 上約 10 分鐘完成微調;10 億參數模型 在 Samsung S25 上約 1 小時 18 分鐘完成,在 iPhone 16 上約 1 小時 45 分鐘完成,團隊甚至成功在 iPhone 16 上微調 130 億參數模型。
性能方面,BitNet 模型在移動 GPU 上的推理速度可比 CPU 提升 2 至 11 倍。同時,測試顯示 BitNet-1B 在推理與微調任務中的顯存佔用相比 16-bit 模型最高可減少 77.8%。
Paolo Ardoino 表示,此項技術旨在降低對大型雲計算與專用 AI 硬件的依賴,讓 AI 模型訓練能夠在本地設備完成,併為去中心化 AI 與聯邦學習等新模式提供基礎。





