開源版SearchGPT來了,兩張3090就可復現,超越Perplexity付費版

avatar
36氪
11-12

OpenAI推出SearchGPT沒幾天,開源版本也來了。

港中文MMLab、上海AI Lab、騰訊團隊簡易實現了Vision Search Assistant,模型設計簡單,只要兩張RTX3090就可復現。

Vision Search Assistant(VSA)以視覺語言模型(VLM)為基礎,巧妙地將Web搜索能力融入其中,讓VLM內部的知識得到實時更新,使其更加靈活和智能。

目前,VSA已經針對通用圖像進行了實驗,可視化和量化結果良好。但不同類別的圖像各具特色,還可以針對不同種類的圖像(比如表格、醫學等)構建出更為特定的VSA應用。

更令人振奮的是,VSA的潛力並不僅限於圖像處理。還有更廣闊的可探索空間,比如視頻、3D模型和聲音等領域,期待能將多模態研究推向新的高度。

讓VLM處理未見過的圖像和新概念

大型語言模型(LLM)的出現讓人類可以利用模型的強大零樣本問答能力來獲取陌生知識。

在此基礎上,檢索增強生成(RAG)等技術進一步提高了LLM在知識密集型、開放域問答任務中的表現。然而,VLM在面對未見過的圖像和新概念時,它們往往不能利用好來自互聯網的最新多模態知識。

現有的 Web Agent主要依賴於對用戶問題的檢索,並總結檢索返回的HTML文本內容,因此它們在處理涉及圖像或其他視覺內容的任務時存在明顯的侷限性,即視覺信息被忽視或處理不充分。

為了解決這一問題,團隊提出了Vision Search Assistant。Vision Search Assistant以VLM模型為基礎,能夠回答有關未見過的圖像或新概念的問題,其行為類似人類在互聯網上進行搜索並解決問題的過程,包括:

  • 理解查詢
  • 決定應該關注圖像中的哪些對象並推斷對象之間的相關性
  • 逐對象生成查詢文本
  • 根據查詢文本和推斷出的相關性分析搜索引擎返回的內容
  • 判斷獲得的視覺和文本信息是否足以生成答案,或者它應該迭代和改進上述過程
  • 結合檢索結果,回答用戶的問題

視覺內容描述

視覺內容描述模塊被用來提取圖像中對象級的描述和對象之間的相關性,其流程如下圖所示。

首先利用開放域的檢測模型來獲取值得關注的圖像區域。緊接著對每一個檢測到的區域,使用VLM獲取對象級的文本描述。

最後,為了更全面地表達視覺內容,利用VLM進一步關聯不同的視覺區域以獲得不同對象的更精確描述。

具體地,令用戶輸入圖片為 ,用戶的問題為 。可通過一個開放域的檢測模型 獲取 個感興趣的區域:

然後利用預訓練的VLM模型 分別描述這 個區域的視覺內容:

為了讓不同區域的信息關聯起來,提高描述的精度,可將區域 與其它區域 的描述拼接,讓VLM對區域 的描述進行矯正:

至此,從用戶輸入獲得了與之高度相關的 個視覺區域的精確描述 。

Web知識搜索:“搜索鏈”

Web知識搜索的核心是名為“搜索鏈”的迭代算法,旨在獲取相關視覺描述的綜合性的Web知識,其流程如下圖所示。

在Vision Search Assistant中利用LLM來生成與答案相關的子問題,這一LLM被稱為“Planing Agent”。搜索引擎返回的頁面會被同樣的LLM分析、選擇和總結,被稱為“Searching Agent”。通過這種方式,可以獲得與視覺內容相關的Web知識。

具體地,由於搜索是對每個區域的視覺內容描述分別進行的,因此以區域 為例,並省略這個上標,即 。該模塊中使用同一個LLM模型 構建決策智能體(Planning Agent)和搜索智能體(Searching Agent)。決策智能體控制整個搜索鏈的流程,搜索智能體與搜索引擎交互,篩選、總結網頁信息。

以第一輪迭代為例,決策智能體將問題 拆分成 個搜索子問題 並交由搜索智能體處理。搜索智能體會將每一個 交付搜索引擎,得到頁面集合 。搜索引擎會閱讀頁面摘要並選擇與問題最相關的頁面集合(下標集為 ),具體方法如下:

對於這些被選中的頁面,搜索智能體會詳細閱讀其內容,並進行總結:

最終,所有 個子問題的總結輸送給決策智能體,決策智能體總結得到第一輪迭代後的Web知識:

重複進行上述迭代過程 次,或是決策智能體認為當前的Web知識已足矣回應原問題時,搜索鏈停止,得到最終的Web知識 。

協同生成

最終基於原始圖像 、視覺描述 、Web知識 ,利用VLM回答用戶的問題 ,其流程如下圖所示。具體而言,最終的回答 為:

實驗結果

開放集問答可視化對比

下圖中比較了新事件(前兩行)和新圖像(後兩行)的開放集問答結果。

將Vision Search Assistant和Qwen2-VL-72B以及InternVL2-76B進行了比較,不難發現,Vision Search Assistant 擅長生成更新、更準確、更詳細的結果。

例如,在第一個樣例中,Vision Search Assistant對2024年Tesla公司的情況進行了總結,而Qwen2-VL侷限於2023年的信息,InternVL2明確表示無法提供該公司的實時情況。

開放集問答評估

在開放集問答評估中,總共通過10位人類專家進行了比較評估,評估內容涉及7月15日至9月25日期間從新聞中收集的100個圖文對,涵蓋新穎圖像和事件的所有領域。

人類專家從真實性、相關性和支持性三個關鍵維度進行了評估。

如下圖所示,與Perplexity.ai Pro和GPT-4-Web相比,Vision Search Assistant在所有三個維度上都表現出色。

事實性:Vision Search Assistant得分為68%,優於Perplexity.ai Pro(14%)和 GPT-4-Web(18%)。這一顯著領先表明,Vision Search Assistant 始終提供更準確、更基於事實的答案。

相關性:Vision Search Assistant 的相關性得分為80%,在提供高度相關的答案方面表現出顯著優勢。相比之下,Perplexity.ai Pro和GPT-4-Web分別達到11%和9%,顯示出在保持網絡搜索時效性方面存在顯著差距。

支持性:Vision Search Assistant在為其響應提供充分證據和理由方面也優於其他模型,支持性得分為63%。Perplexity.ai Pro和GPT-4-Web分別以19%和24%的得分落後。這些結果凸顯了Vision Search Assistant 在開放集任務中的卓越表現,特別是在提供全面、相關且得到良好支持的答案方面,使其成為處理新圖像和事件的有效方法。

封閉集問答評估

在LLaVA W基準進行閉集評估,其中包含60個問題,涉及VLM在野外的對話、細節和推理能力。

使用GPT-4o(0806)模型進行評估,使用LLaVA-1.6-7B作為基線模型,該模型在兩種模式下進行了評估:標準模式和使用簡單Google圖片搜索組件的“樸素搜索”模式。

此外還評估了LLaVA-1.6-7B的增強版本,該版本配備搜索鏈模塊。

如下表所示,Vision Search Assistant在所有類別中均表現出最強的性能。具體而言,它在對話類別中獲得了73.3%的得分,與LLaVA模型相比略有提升,提升幅度為+0.4%。在細節類別中,Vision Search Assistant以79.3%的得分脫穎而出,比表現最好的LLaVA變體高出 +2.8%。

在推理方面,VSA方法比表現最佳的LLaVA模型高出+10.8%。這表明Vision Search Assistant對視覺和文本搜索的高級集成極大地增強了其推理能力。

Vision Search Assistant的整體性能為84.9%,比基線模型提高+6.4%。這表明Vision Search Assistant在對話和推理任務中都表現出色,使其在野外問答能力方面具有明顯優勢。

論文:https://arxiv.org/abs/2410.21220主頁:https://cnzzx.github.io/VSA/代碼:https://github.com/cnzzx/VSA

本文來自微信公眾號“量子位”,作者:VSA團隊,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論