智能規模效應:解讀ChatGPT Atlas背後的數據邊界之戰

OpenAIChatGPT Atlas當然是一個瀏覽器產品,但也更是一個信號。

大家應該還記得劈柴是靠什麼當上過去的Google現在的Alphabet的CEO的--很核心的一個點就是Chrome的成功。

回到那個時間點其實可以講Chrome其實是谷歌和微軟那波競爭裡面的巨大功臣,它讓谷歌有了自己的端和入口。

在AI大模型的背景下,故事明顯在被重演,只不過角色發生了互換,OpenAI變成了昔日的Google,而今天的Google則變成了昔日的微軟。

這顯然是過去所謂的入口之爭的延續,但還有一部分在悄然發生變化,透視整個變化乃至未來的趨勢需要先從一個我稱之為“智能規模效應”的底層邏輯開始。(也許可以翻譯成:Intelligence Scale Effect,但真的是我杜撰的詞)

這個效應的根基可以用一個簡單的公式來概括:

智能的效能 = 大模型的智能水平 × 現實理解縱深

這個公式可以揭示了未來智能應用競爭的核心。

為了在競爭中獲勝,僅僅擁有一個“更聰明”的大模型(即更高的“智能水平”)是遠遠不夠的。真正的勝負手在於第二個乘數:模型對現實世界“理解的縱深”。

並且越到後面後者越關鍵,甚至會影響前者的進化速度。

為了最大化最終的“效能”,我們將會看到,每一個投身於AI浪潮的公司,都將開始一場瘋狂的、無休止的競賽——一場旨在無限擴展自身數據邊界的競賽。

模型公司想明白了,都會嚮應用發展,嚮應用發展就幾乎都會走到這裡。

在這裡應用和模型是分不開的。

解構“智能規模效應”

讓我們首先拆解這個公式的兩個關鍵組成部分。

1. 大模型的智能水平

這是AI的“基礎智商”。

它由模型的架構、訓練數據量、參數規模和計算資源共同決定。

以OpenAI的GPT系列、Anthropic的Claude系列為代表的頂尖大模型,通過在數萬億Token的公共數據上進行預訓練,獲得了強大的通用能力,如語言理解、邏輯推理、知識儲備和代碼生成。

這是AI的“勢能”。

它代表了模型理論上能達到的最高高度。

在過去的幾年裡,我們見證了這場“智能水平”的軍備競賽——參數從十億級飆升至萬億級,模型能力不斷突破想象。

可往後想,核心是什麼?

是誰能拿到更多的真實場景的全量數據。

大家應該還記得此前大家怎麼認定智能水平上不去了吧?數據不夠了。

所以大模型的下半場註定要回到數據。

不是和過去性質重複的數據,而是加入過去沒納入的維度的數據。

(自動駕駛場景下理解智能規模效應更容易)

2. 現實理解縱深

這是AI的“情境智商”。

如果說“智能水平”是AI的CPU,那麼“現實理解縱深”就是它的RAM(內存)和I/O(輸入/輸出)系統。它代表了模型在執行具體任務時,能夠接觸和理解的特定、實時、私有或專有數據的深度和廣度。

一個“智能水平”再高的模型,如果對正在處理的工作、你的私人日程、你公司的內部知識庫一無所知,它就如同一個被鎖在密室裡的天才,空有智慧卻無法施展。

它的“現實理解縱深”為零,導致最終的“智能效能”也趨近於零。

“智能規模效應”的核心洞察在於:

在“智能水平”達到某個閾值後,決定應用成敗的關鍵因素,將迅速從模型本身的智商轉向它所能撬動的“現實數據”的規模。

數據的“圈地運動”

這會導致什麼呢?

會導致新的圈地運動。數據圈地運動。

ChatGPTAltlas可以看成是開始正式號角,直接懟到谷歌的腹地。

但其實這是並不真是從這兒開始,而是由來已久:

表現一:從雲端走向桌面與OS——搶佔個人上下文

案例:OpenAI的ChatGPTAltlas和Anthropic的桌面端

這其實沒啥好說的,就是端-雲一體的路線。

目標也簡單,就是解決體驗瓶頸,拿到更多數據,否則沒法搞定網頁版AI與用戶工作流割裂的核心痛點——網頁AI無法“看到”本地文檔或應用,導致用戶必須頻繁複制粘貼,效能低下。

走向也是定的,所以哪天OpenAI推出OS也一點不稀奇。(Google弄安卓的翻版,並且效果更明顯)

方式也統一。

都是通過具備系統級權限的原生應用,在用戶授權後,AI能直接“看到”屏幕內容、讀取本地文件,從而理解完整的上下文。這與“失明”的Web版AI形成鮮明對比,後者侷限於瀏覽器標籤頁內。

可以看一個典型的場景:設計師在Figma中可直接喚出桌面AI,指著某個元素提問:“幫我把這個按鈕改成新擬物風並給出CSS代碼。”AI因“看到”了全局設計,能給出精準建議,將原先5-10分鐘的跨應用操作縮短至30秒內。

當然,這種深度集成也帶來了嚴峻的隱私和安全挑戰,需要用戶給予極高信任。這點後面說。

這就是AI比你自己更瞭解你自己的開始。你記不住1年前的事的,理論上它可以。

表現二:從靜態走向實時——擁抱動態世界

案例:Perplexity AI(AI搜索引擎)

成立於2022年、在2023-2024年間迅速崛起的Perplexity AI就是幹這個的,它解決了兩大痛點:傳統LLM的知識“陳舊”,以及傳統搜索引擎“只給鏈接不給答案”。

在當時他們是比較早的整“實時檢索+LLM總結”(RAG)架構的。

當用戶提問時,它先實時抓取最新網頁信息(擴展現實理解縱深),再將其餵給大模型(如GPT-4)生成即時答案。這與Google(提供鏈接列表)和基礎版ChatGPT(知識陳舊)形成鮮明對比。

現在這個變基本功能了。這事未來不一定有譜,沒準就掛了。

不過也算成就了個產品,Perplexity在2024年初月活躍用戶(MAU)突破1000萬。用戶在查詢“昨晚的財報數據”時,其時效性和召回率遠超靜態LLM,極大節省了篩選時間。

其限制在於答案質量依賴信源,且雙重成本高昂。

表現三:從公共走向私有——深入企業知識庫

案例:Microsoft 365 Copilot

微軟面向其龐大的M365企業客戶群全面推出了Copilot。它旨在解決企業內部最大的痛點:數據孤島。員工的知識沉澱在Outlook、Teams、SharePoint等應用中,傳統工具無法融會貫通。

Copilot的集成核心是Microsoft Graph。

以前我們老貼下面這圖:

這個Graph索引了企業所有的私有數據(構成了“現實理解縱深”),並將其與Copilot的“高智能水平”相結合。當員工提問(如“總結A項目上週進展並起草週報”)時,Copilot能實時檢索郵件、聊天和文檔,生成精準報告。這是任何“公共”AI助手或傳統內部搜索都無法比擬的。

這也是拉通端-雲。

據說用戶在總結會議等任務上速度提升近4倍,平均每週節省1.2小時。

表現四:從數字走向物理——萬物互聯的終局(展望)

這場邊界擴展的終點,必然是從數字世界走向物理世界。

可穿戴設備(如智能眼鏡、AI Pin)和物聯網(IoT) 設備,是擴展“智能規模效應”的終極形態。

奧特曼老勾搭做硬件的,就是這事。

試想,一個AI助手如果能通過你眼鏡上的攝像頭“看到”你正在看的景象,通過麥克風“聽到”你正在進行的對話,它的效能將是何等強大?它可以實時為你翻譯菜單,提醒你識別剛見面的客戶,甚至在你修理器械時提供逐步指導。

這顯然引發其它問題,但我真的在活動上聽到過,大家探討整個麥克風把自己每天活動都錄下來然後做分析的事。

至少當事人本身不排斥,只是說周圍的人可能排斥。

為何這場競爭比以往更激烈?

“智能規模效應”所引發的競賽,其激烈程度和“贏家通吃”的效應,很可能將遠遠超過PC互聯網和移動互聯網時代。

在互聯網時代,競爭的核心是“注意力”。

平臺通過內容和服務(如搜索、社交、視頻)來爭奪用戶的屏幕停留時間。雖然也存在網絡效應,但用戶的“遷移成本”相對可控——我今天可以用Google,明天也可以切換到Bing;我可以在微信上發文,也可以在微博上發言。

這時候性質完全不同的東西:搜索、IM等它是並行的各玩各的網絡效應。

但在智能時代,競爭的核心已經轉變為“上下文(Context)”,即我們公式中的“現實理解縱深”。

這是一個本質的區別。

加上大模型的智能的通用性,會讓這個本質區別的影響放大到無以復加的程度。

一旦某個AI應用成功地深度嵌入你的個人或企業工作流——它理解了你所有的本地文件(如XX桌面端)、掌握了你公司所有的私有知識庫(如Copilot)、或是接入了你的實時物理世界(如未來的智能眼鏡)——它所積累的“現實理解縱深”將構成一道無與倫比的護城河。

搜索和IM的競爭的弱競爭,上面這種競爭是搜索和搜索的競爭,是強競爭。

所以越往後AI的應用越是:軟硬產品千重浪,遍地英雄起硝煙。

過去真有高度粘性的是網絡效應。

操作系統、微信是很難換的,別的麼,換換其實沒啥問題。

京東買還是天貓買東西,有啥粘性。

但接下來高粘性的無形蛛絲可能再來一個:

你無法輕易地將積累在一個AI助手裡的、對你個人習慣和私有數據的深度理解,“導出”並“導入”到另一個AI助手中。更換AI助手的成本,可能等同於對一個新員工進行“從零開始”的漫長培訓。

企業的核心是知識,上面這模式整到後面,換產品相當於把員工都換一批,知識清零重來。

又因為通用智能的無邊界的特質,數字空間大廠間這場競賽的終局將更趨向於“零和博弈”。用戶(無論是個人還是企業)最終很可能會選擇一個“主AI”,並將其數據邊界最大化。這導致了競爭的空前加劇:

誰最先佔領了用戶的核心數據源,誰就幾乎鎖定了勝局。

(說起來近7-8年前我寫過這話題,實在是早了點)

效能與信任的“大博弈”

這裡面,還有個變量,就是用戶的權重到底有多高。

說來滑稽,在微信告訴擴展的時候用戶雖然全體最關鍵,但個體其實最不關鍵。

就拿紅包和運營各種拉,和割韭菜差別差不多。

“智能規模效應”驅動的這場數據邊界擴展,則在這裡帶來了一個新挑戰:隱私與信任。

當AI為了“更懂你”而瘋狂地擴展其數據邊界時,它不可避免地會觸及用戶的隱私紅線。

● 你是否願意讓AI讀取你所有的本地文件,只為在寫報告時給你提供更好的建議?

● 你是否願意讓AI分析你所有的聊天記錄,只為更精準地預測你的需求?

● 企業是否願意將最核心的商業機密交給一個AI系統,只為換取更高的運營效率?

這就是未來的核心矛盾。用戶對“效能”的渴望是無限的,但對“隱私”的擔憂也是真實的。

隱私究竟能不能對沖效能!

因此,這場競賽的下半場,將不僅僅是關於誰能抓取更多的數據,更是關於誰能以一種更可信、更安全的方式來處理這些數據。

小結

要選,我會把“智能規模效應”(智能效能 = 大模型智能水平 × 現實理解縱深)選做AI時代應用的第一性原理。

它明確指出,AI的未來不在於構建一個無所不知的“數字上帝”,而在於構建無數個“深度嵌入”現實的專業助手。

OpenAI的ChatGPTAltlas還只是這場宏大競賽的序幕。

真正的戰場,就在於對“現實理解縱深”的無盡追求。

我個人希望最終的勝利者,將是那些不僅能最大化這個公式的乘積,更能在此過程中,贏得用戶最終信任的人。

本文來自微信公眾號“琢磨事”,作者:李智勇,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論