Tether 推出全球首個手機端「十億級 AI 訓練框架」,iPhone、Samsung 都能跑 LoRA

人工智慧(AI)領域,訓練強大模型向來被視為「燒錢」的代名詞,高度依賴昂貴的 NVIDIA 系統或雲端算力。然而,穩定幣巨頭 Tether 正試圖用技術改寫這個規則。Tether 旗下的技術部門「Tether Data」於 3 月 17 日宣布,正式為其 QVAC(QuantumVerse Automatic Computer)平台推出全球首個跨平台 BitNet LoRA 微調框架。

這項技術的核心價值在於:它能讓具備「十億參數規模(Billion-parameter)」的 AI 模型,在每個人口袋裡的手機上直接進行個性化學習。

1-bit 架構魔力:讓手機性能「以小博大」

這項突破性進展建基於微軟(Microsoft)推出的 BitNet 1-bit LLM 架構。透過 QVAC Fabric 的優化,BitNet 模型的內存占用與計算壓力被降至極低水準。根據公告,該框架不僅支持常見的 NVIDIA GPU,更實現了對 Intel、AMD、Apple M 系列晶片以及行動裝置端 Adreno (Android)、Mali、Apple Bionic GPU 的全面兼容。

這意味著,原本只能在數據中心跑的 AI,現在可以在你的手機上進行「Low-Rank Adaptation(LoRA)」微調。Tether 指出,這種技術能讓邊緣設備處理比傳統 Q4 量化模型「大 2 倍」的模型,展現出極致的記憶體優勢。

實測數據曝光:Samsung S25 與 iPhone 16 的驚人速度

Tether 工程團隊在公告中分享了令人振奮的實測數據,展示了該框架在現代手機上的實戰能力:

  • 1.25 億參數模型:Samsung S25 上微調一個包含 300 份生物醫學文件的資料集,僅需約 10 分鐘
  • 10 億(1B)參數模型:完成同樣的微調任務,在 Samsung S25 上耗時 1 小時 18 分鐘,而在 iPhone 16 上則為 1 小時 45 分鐘。
  • 極限挑戰:開發團隊成功在 iPhone 16 上運行高達 130 億(13B)參數 模型進行微調,推向了行動裝置的物理極限。

告別 API 密鑰,打造 100% 隱私的個人 AI

Tether 執行長 Paolo Ardoino 一直強調:「如果你需要 API 密鑰才能使用 AI,那它就不真正屬於你。」QVAC 的核心理念即是「本地優先(Local-first)」。

透過 BitNet LoRA 框架,使用者可以讓 AI 直接學習本地的郵件、筆記與訊息,而無需將任何數據上傳至雲端伺服器。這不僅消除了企業對機敏數據被濫用的疑慮,更打破了 AI 開發僅侷限於少數巨頭壟斷的現狀。目前,QVAC Fabric LLM 已作為開源軟體(Apache 2.0 授權)發布,並在 Hugging Face 提供預選適配器,讓全球開發者能即刻啟動這場邊緣運算的革命。

加入動區 Telegram 頻道

📍相關報導📍

樂天高調發布「日本最大 AI 模型」,社群發現內核是 DeepSeek V3

馬斯克:告 OpenAI 勝訴的話全捐慈善!法院裁定最高求償 1090 億美元

1.43 億玩家掃街景玩寶可夢GO,卻幫 Niantic 建出 AI 最大真實世界視覺資料集

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
52
收藏
12
評論