本文目录
Toggle在人工智慧(AI)领域,训练强大模型向来被视为「烧钱」的代名词,高度依赖昂贵的 NVIDIA 系统或云端算力。然而,稳定币巨头 Tether 正试图用技术改写这个规则。Tether 旗下的技术部门「Tether Data」于 3 月 17 日宣布,正式为其 QVAC(QuantumVerse Automatic Computer)平台推出全球首个跨平台 BitNet LoRA 微调框架。
这项技术的核心价值在于:它能让具备「十亿参数规模(Billion-parameter)」的 AI 模型,在每个人口袋里的手机上直接进行个性化学习。
1-bit 架构魔力:让手机性能「以小博大」
这项突破性进展建基于微软(Microsoft)推出的 BitNet 1-bit LLM 架构。透过 QVAC Fabric 的优化,BitNet 模型的内存占用与计算压力被降至极低水准。根据公告,该框架不仅支持常见的 NVIDIA GPU,更实现了对 Intel、AMD、Apple M 系列晶片以及行动装置端 Adreno (Android)、Mali、Apple Bionic GPU 的全面兼容。
这意味著,原本只能在数据中心跑的 AI,现在可以在你的手机上进行「Low-Rank Adaptation(LoRA)」微调。Tether 指出,这种技术能让边缘设备处理比传统 Q4 量化模型「大 2 倍」的模型,展现出极致的记忆体优势。
实测数据曝光:Samsung S25 与 iPhone 16 的惊人速度
Tether 工程团队在公告中分享了令人振奋的实测数据,展示了该框架在现代手机上的实战能力:
- 1.25 亿参数模型:在 Samsung S25 上微调一个包含 300 份生物医学文件的资料集,仅需约 10 分钟。
- 10 亿(1B)参数模型:完成同样的微调任务,在 Samsung S25 上耗时 1 小时 18 分钟,而在 iPhone 16 上则为 1 小时 45 分钟。
- 极限挑战:开发团队成功在 iPhone 16 上运行高达 130 亿(13B)参数 模型进行微调,推向了行动装置的物理极限。
告别 API 密钥,打造 100% 隐私的个人 AI
Tether 执行长 Paolo Ardoino 一直强调:「如果你需要 API 密钥才能使用 AI,那它就不真正属于你。」QVAC 的核心理念即是「本地优先(Local-first)」。
透过 BitNet LoRA 框架,使用者可以让 AI 直接学习本地的邮件、笔记与讯息,而无需将任何数据上传至云端伺服器。这不仅消除了企业对机敏数据被滥用的疑虑,更打破了 AI 开发仅局限于少数巨头垄断的现状。目前,QVAC Fabric LLM 已作为开源软体(Apache 2.0 授权)发布,并在 Hugging Face 提供预选适配器,让全球开发者能即刻启动这场边缘运算的革命。

相关报导
乐天高调发布「日本最大 AI 模型」,社群发现内核是 DeepSeek V3





