苹果发布 8 种小型 AI 语言模型与微软的 Phi-3 竞争

avatar
Decrypt
04-27
本文为机器翻译
展示原文

看到数量上的优势,苹果在竞争激烈的人工智慧市场中采取了策略举措,推出了八种小型​​人工智慧模式。这些紧凑的工具统称为 OpenELM,旨在在设备上和离线状态下运行,非常适合智慧型手机。

这些模型发布在开源 AI 社群Hugging Face,提供 2.7 亿、4.5 亿、11 亿和 30 亿参数版本。使用者也可以下载 Apple 的 OpenELM 的预训练版本或指令调整版本。

预先训练的模型提供了一个基础,使用者可以在此基础上进行微调和开发。经过指令调整的模型已经被编程为回应指令,使它们更适合与最终用户的对话和互动。

虽然苹果尚未建议这些模型的具体用例,但它们可以用于运行可以解析电子邮件和文字的助手,或根据资料提供智慧建议。这与Google采取的方法类似,谷歌在其 Pixel 智慧型手机系列上部署了Gemini AI 模型。

这些模型是在公开可用的资料集上进行训练的,Apple 正在共享 CoreNet(用于训练 OpenELM 的库)的程式码及其模型的「配方」。换句话说,用户可以检查苹果是如何建造它们的。

Apple 发布后不久, 微软发布了 Phi-3 ,这是一个能够本地运行的小语言模型系列。 Phi-3 Mini 是一个在3.3 兆个代币上训练的38 亿个参数模型,仍然能够处理128K 个上下文代币,使其与GPT-4 相当,并在代币容量方面击败了Llama-3和Mistral Large。

由于开源和轻量级,Phi-3 Mini 可能会在某些任务中取代苹果 Siri 或谷歌Gemini等传统助手,微软已经在iPhone 上测试了Phi-3,并报告了令人满意的结果和快速代币生成。

虽然苹果尚未将这些新的人工智慧语言模型功能整合到其消费设备中,但据传即将推出的 iOS 18 更新将包含新的人工智慧功能,这些功能使用装置上的处理来确保用户隐私。

Apple 硬体为本地 AI 使用提供了优势,特别是它能够将设备 RAM 与 GPU 视讯 RAM 或 VRAM 合并。这意味著具有 32 GB RAM(PC 中的常见配置)的 Mac 可以像 GPU VRAM 一样利用该 RAM 来运行 AI 模型,使其成为本地 AI 处理的更有效率选择。

Windows 装置在这方面面临一个缺点,因为装置 RAM 和 GPU VRAM 是分开的。使用者通常需要购买强大的 32GB GPU 来增强 RAM 来运行 AI 模型。

然而,苹果在人工智慧开发领域落后于Windows/Linux。大多数人工智慧应用程式都围绕著英伟达设计和制造的硬件,苹果为了支援自己的晶片而逐步淘汰了英伟达。这意味著苹果原生的人工智慧开发相对较少,因此,在苹果产品上使用人工智慧需要翻译层或其他复杂的程式。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论