Meta全系應用接入Muse Spark大模型,一句話喚醒多個Agent並行打工
AIMPACT 消息,5 月 13 日(UTC+8),據 動察 Beating 監測,Meta 宣佈,其由 Meta Superintelligence Labs 開發的最新大模型 Muse Spark 已開始全量推送至旗下核心產品,涵蓋 WhatsApp、Instagram、Facebook、Messenger 以及 Ray-Ban Meta 和 Oakley Meta 智能眼鏡。數十億用戶將直接體驗到具備視覺感知和多智能體並行能力的新一代 Meta AI。 本次更新最大的底層變化是引入了子智能體(Subagents)的並行處理機制。過去的 AI 往往只能單線回答問題,現在用戶提出複雜需求後,Meta AI 可以在後臺同時拉起多個智能體分頭行動。例如當用戶要求規劃家庭旅行時,系統會讓一個智能體去排行程,另一個對比目的地優劣,第三個專門搜索適合兒童的活動,最後將三者的結果同步彙總,極大地縮短了複雜任務的等待時間。 在交互層面,Muse Spark 為 Meta 補齊了實時多模態感知能力。依託智能眼鏡或手機鏡頭,用戶可以一邊注視現實世界一邊用自然語音向 AI 提問,並在對話中隨時打斷或切換語言。模型能夠直接讀取環境信息,比如掃描機場貨架找出蛋白質含量最高的零食,或者幫助用戶解讀醫療圖表。此外,該模型還支持視覺代碼生成,用戶只需提供一句話提示,即可直接生成定製化網頁或迷你遊戲。 為了徹底盤活自家的超級應用矩陣,Meta 還將 AI 深度嵌入了社交和電商場景。用戶在群聊中可喚出側邊欄,讓 AI 結合聊天上下文提供私密解答;購物模式則能跨 Facebook Marketplace 和全網商品進行比價與地圖聚合。相比其他大模型廠商依靠獨立 App 單打獨鬥,Meta 正利用其龐大的軟硬件流量池,將大模型轉化為無處不在的基礎設施。 (來源:ME)
來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論
分享





