Meta全系应用接入Muse Spark大模型,一句话唤醒多个Agent并行打工

AIMPACT 消息,5 月 13 日(UTC+8),据 动察 Beating 监测,Meta 宣布,其由 Meta Superintelligence Labs 开发的最新大模型 Muse Spark 已开始全量推送至旗下核心产品,涵盖 WhatsApp、Instagram、Facebook、Messenger 以及 Ray-Ban Meta 和 Oakley Meta 智能眼镜。数十亿用户将直接体验到具备视觉感知和多智能体并行能力的新一代 Meta AI。 本次更新最大的底层变化是引入了子智能体(Subagents)的并行处理机制。过去的 AI 往往只能单线回答问题,现在用户提出复杂需求后,Meta AI 可以在后台同时拉起多个智能体分头行动。例如当用户要求规划家庭旅行时,系统会让一个智能体去排行程,另一个对比目的地优劣,第三个专门搜索适合儿童的活动,最后将三者的结果同步汇总,极大地缩短了复杂任务的等待时间。 在交互层面,Muse Spark 为 Meta 补齐了实时多模态感知能力。依托智能眼镜或手机镜头,用户可以一边注视现实世界一边用自然语音向 AI 提问,并在对话中随时打断或切换语言。模型能够直接读取环境信息,比如扫描机场货架找出蛋白质含量最高的零食,或者帮助用户解读医疗图表。此外,该模型还支持视觉代码生成,用户只需提供一句话提示,即可直接生成定制化网页或迷你游戏。 为了彻底盘活自家的超级应用矩阵,Meta 还将 AI 深度嵌入了社交和电商场景。用户在群聊中可唤出侧边栏,让 AI 结合聊天上下文提供私密解答;购物模式则能跨 Facebook Marketplace 和全网商品进行比价与地图聚合。相比其他大模型厂商依靠独立 App 单打独斗,Meta 正利用其庞大的软硬件流量池,将大模型转化为无处不在的基础设施。 (来源:ME)

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论