蘋果發布 8 種小型 AI 語言模型與微軟的 Phi-3 競爭

本文為機器翻譯
展示原文

看到數量上的優勢,蘋果在競爭激烈的人工智慧市場中採取了策略舉措,推出了八種小型​​人工智慧模式。這些緊湊的工具統稱為 OpenELM,旨在在設備上和離線狀態下運行,非常適合智慧型手機。

這些模型發佈在開源 AI 社群Hugging Face,提供 2.7 億、4.5 億、11 億和 30 億參數版本。使用者也可以下載 Apple 的 OpenELM 的預訓練版本或指令調整版本。

預先訓練的模型提供了一個基礎,使用者可以在此基礎上進行微調和開發。經過指令調整的模型已經被編程為回應指令,使它們更適合與最終用戶的對話和互動。

雖然蘋果尚未建議這些模型的具體用例,但它們可以用於運行可以解析電子郵件和文字的助手,或根據資料提供智慧建議。這與Google採取的方法類似,谷歌在其 Pixel 智慧型手機系列上部署了Gemini AI 模型。

這些模型是在公開可用的資料集上進行訓練的,Apple 正在共享 CoreNet(用於訓練 OpenELM 的庫)的程式碼及其模型的「配方」。換句話說,用戶可以檢查蘋果是如何建造它們的。

Apple 發布後不久, 微軟發布了 Phi-3 ,這是一個能夠本地運行的小語言模型系列。 Phi-3 Mini 是一個在3.3 兆個代幣上訓練的38 億個參數模型,仍然能夠處理128K 個上下文代幣,使其與GPT-4 相當,並在代幣容量方面擊敗了Llama-3和Mistral Large。

由於開源和輕量級,Phi-3 Mini 可能會在某些任務中取代蘋果 Siri 或谷歌Gemini等傳統助手,微軟已經在iPhone 上測試了Phi-3,並報告了令人滿意的結果和快速代幣生成。

雖然蘋果尚未將這些新的人工智慧語言模型功能整合到其消費設備中,但據傳即將推出的 iOS 18 更新將包含新的人工智慧功能,這些功能使用裝置上的處理來確保用戶隱私。

Apple 硬體為本地 AI 使用提供了優勢,特別是它能夠將設備 RAM 與 GPU 視訊 RAM 或 VRAM 合併。這意味著具有 32 GB RAM(PC 中的常見配置)的 Mac 可以像 GPU VRAM 一樣利用該 RAM 來運行 AI 模型,使其成為本地 AI 處理的更有效率選擇。

Windows 裝置在這方面面臨一個缺點,因為裝置 RAM 和 GPU VRAM 是分開的。使用者通常需要購買強大的 32GB GPU 來增強 RAM 來運行 AI 模型。

然而,蘋果在人工智慧開發領域落後於Windows/Linux。大多數人工智慧應用程式都圍繞著英偉達設計和製造的硬件,蘋果為了支援自己的晶片而逐步淘汰了英偉達。這意味著蘋果原生的人工智慧開發相對較少,因此,在蘋果產品上使用人工智慧需要翻譯層或其他複雜的程式。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論