Tether 推出全球首个手机端「十亿级 AI 训练框架」,iPhone、Samsung 都能跑 LoRA

人工智慧(AI)领域,训练强大模型向来被视为「烧钱」的代名词,高度依赖昂贵的 NVIDIA 系统或云端算力。然而,稳定币巨头 Tether 正试图用技术改写这个规则。Tether 旗下的技术部门「Tether Data」于 3 月 17 日宣布,正式为其 QVAC(QuantumVerse Automatic Computer)平台推出全球首个跨平台 BitNet LoRA 微调框架。

这项技术的核心价值在于:它能让具备「十亿参数规模(Billion-parameter)」的 AI 模型,在每个人口袋里的手机上直接进行个性化学习。

1-bit 架构魔力:让手机性能「以小博大」

这项突破性进展建基于微软(Microsoft)推出的 BitNet 1-bit LLM 架构。透过 QVAC Fabric 的优化,BitNet 模型的内存占用与计算压力被降至极低水准。根据公告,该框架不仅支持常见的 NVIDIA GPU,更实现了对 Intel、AMD、Apple M 系列晶片以及行动装置端 Adreno (Android)、Mali、Apple Bionic GPU 的全面兼容。

这意味著,原本只能在数据中心跑的 AI,现在可以在你的手机上进行「Low-Rank Adaptation(LoRA)」微调。Tether 指出,这种技术能让边缘设备处理比传统 Q4 量化模型「大 2 倍」的模型,展现出极致的记忆体优势。

实测数据曝光:Samsung S25 与 iPhone 16 的惊人速度

Tether 工程团队在公告中分享了令人振奋的实测数据,展示了该框架在现代手机上的实战能力:

  • 1.25 亿参数模型:Samsung S25 上微调一个包含 300 份生物医学文件的资料集,仅需约 10 分钟
  • 10 亿(1B)参数模型:完成同样的微调任务,在 Samsung S25 上耗时 1 小时 18 分钟,而在 iPhone 16 上则为 1 小时 45 分钟。
  • 极限挑战:开发团队成功在 iPhone 16 上运行高达 130 亿(13B)参数 模型进行微调,推向了行动装置的物理极限。

告别 API 密钥,打造 100% 隐私的个人 AI

Tether 执行长 Paolo Ardoino 一直强调:「如果你需要 API 密钥才能使用 AI,那它就不真正属于你。」QVAC 的核心理念即是「本地优先(Local-first)」。

透过 BitNet LoRA 框架,使用者可以让 AI 直接学习本地的邮件、笔记与讯息,而无需将任何数据上传至云端伺服器。这不仅消除了企业对机敏数据被滥用的疑虑,更打破了 AI 开发仅局限于少数巨头垄断的现状。目前,QVAC Fabric LLM 已作为开源软体(Apache 2.0 授权)发布,并在 Hugging Face 提供预选适配器,让全球开发者能即刻启动这场边缘运算的革命。

加入动区 Telegram 频道

📍相关报导📍

乐天高调发布「日本最大 AI 模型」,社群发现内核是 DeepSeek V3

马斯克:告 OpenAI 胜诉的话全捐慈善!法院裁定最高求偿 1090 亿美元

1.43 亿玩家扫街景玩宝可梦GO,却帮 Niantic 建出 AI 最大真实世界视觉资料集

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
52
收藏
12
评论