谷歌Vision Banana:計算機視覺的「GPT-3時刻」?生圖模型打敗專用視覺理解模型

ME News 消息,4 月 23 日(UTC+8),據 動察 Beating 監測,谷歌團隊(作者包括何愷明、謝賽寧等)發表論文,提出 Vision Banana,在自家圖像生成模型 Nano Banana Pro(即 Gemini 3 Pro Image)上做輕量指令微調,將其轉化為通用視覺理解模型。核心做法是把所有視覺任務的輸出統一參數化為 RGB 圖像,讓分割、深度估計、表面法線估計等感知任務都通過圖像生成來完成,無需為每類任務設計專用架構或訓練損失。 評測覆蓋了圖像分割和 3D 幾何推斷兩大類任務。分割方面,語義分割(給圖中每個像素標註類別,如「路面」「行人」「車輛」)在 Cityscapes 上超過專用分割模型 SAM 3 4.7 個百分點;指代表達分割(根據自然語言描述找到並分割對應物體,如「左邊那隻戴帽子的狗」)同樣超過 SAM 3 Agent。但在實例分割(區分同一類別的不同個體,如分別標出圖中的五隻狗)上仍落後於 SAM 3。3D 方面,度量深度估計(從單張照片推算每個像素到相機的實際物理距離)在四個標準數據集上平均準確率 0.929,高於專用模型 Depth Anything V3 的 0.918,且完全用合成數據訓練,不使用真實深度數據,推理時也不需要相機參數。表面法線估計(推斷物體表面朝向)在三個室內基準上取得最優。 微調只是將少量視覺任務數據混入原始圖像生成訓練數據,模型的圖像生成能力基本不受影響:在生成質量評測中與原始 Nano Banana Pro 打平。論文認為圖像生成預訓練在視覺領域的角色類似於文本生成預訓練在語言領域的角色:模型在學會生成圖像的過程中,已經習得了理解圖像所需的內部表徵,指令微調只是將其釋放出來。 (來源:ME)

相关赛道:
來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論