錯過了英偉達,不要再錯過 Crypto AI

我們正站在一場創新爆發的邊緣。

作者:Teng Yan

編譯:深潮TechFlow

早安!它終於來了。

我們整篇論文的內容相當豐富,為了讓大家更容易理解(同時避免超過郵件服務商的大小限制),我決定將它分成幾個部分,在接下來的一個月中逐步分享。現在,讓我們開始吧!

我一直無法忘記的一個巨大錯失。

這件事至今讓我耿耿於懷,因為它是一個任何關注市場的人都能看出的明顯機會,但我卻錯過了,沒有投入一分錢。

不,這不是下一個 Solana 殺手,也不是一隻戴搞笑帽子的狗的 memecoin。

它是……NVIDIA。

NVDA 年初至今的股價表現。來源:Google

僅在一年內,NVIDIA 的市值從 1 萬億美元飆升至 3 萬億美元,股價翻了三倍,甚至在同一時期的表現超過了比特幣。

當然,其中有一部分是 AI 熱潮的推動。但更重要的是,這種增長有著堅實的現實基礎。NVIDIA 在 2024 財年的收入達到 600 億美元,比 2023 年增長了 126%。這種驚人的增長背後,是全球大科技公司爭相購買 GPU,以搶佔通用人工智能(AGI)軍備競賽的先機。

為什麼我會錯過?

過去兩年,我的注意力完全集中在加密貨幣領域,沒有關注 AI 領域的動態。這是一個巨大的失誤,至今讓我懊悔。

但這次,我不會再犯同樣的錯誤。

今天的 Crypto AI,給我一種似曾相識的感覺。

我們正站在一場創新爆發的邊緣。它與 19 世紀中期的加州淘金熱有著驚人的相似之處——行業和城市一夜之間崛起,基礎設施迅速發展,而敢於冒險的人則賺得盆滿缽滿。

就像早期的 NVIDIA 一樣,Crypto AI 在未來回顧時會顯得如此顯而易見。

Crypto AI:潛力無限的投資機會

在我論文的第一部分中,我解釋了為什麼 Crypto AI 是當今最令人興奮的潛在機會,無論是對投資者還是開發者而言。以下是關鍵要點:

  • 很多人仍然將其看作“空中樓閣”。

  • Crypto AI 目前處於早期階段,距離炒作高峰可能還有 1-2 年。

  • 這個領域至少有 2300 億美元的增長潛力。

Crypto AI 的核心是將人工智能與加密基礎設施結合。這使得它更有可能沿著 AI 的指數增長軌跡發展,而不是跟隨更廣泛的加密市場。因此,要保持領先,你需要關注 Arxiv 上的最新 AI 研究,並與那些相信自己正在構建下一個大事件的創始人交流。

Crypto AI 的四大核心領域

在我論文的第二部分中,我將重點分析 Crypto AI 中最有前景的四個子領域:

  1. 去中心化計算:模型訓練、推理與 GPU 交易市場

  2. 數據網絡

  3. 可驗證 AI

  4. 在鏈上運行的 AI 智能體

這篇文章是幾周深入研究以及與 Crypto AI 領域創始人和團隊交流的成果。它並不是每個領域的詳細分析,而是一個高層次的路線圖,旨在激發你的好奇心、幫助你優化研究方向,並指導你的投資決策。

Crypto AI 的生態藍圖

我將去中心化 AI 的生態系統想象為一個分層結構:從一端的去中心化計算和開放數據網絡開始,這些為去中心化 AI 模型的訓練提供基礎。

所有推理(inference)的輸入和輸出都通過密碼學、加密經濟激勵以及評估網絡進行驗證。這些經過驗證的結果流向鏈上自主運行的 AI 智能體,以及用戶可以信賴的消費級和企業級 AI 應用。

協調網絡將整個生態系統連接起來,實現無縫的溝通與協作。

在這個願景中,任何從事 AI 開發的團隊都可以根據自身需求,接入生態中的一個或多個層級。無論是利用去中心化計算進行模型訓練,還是通過評估網絡確保高質量輸出,這個生態系統提供了多樣化的選擇。

得益於區塊鏈的可組合性,我相信我們正在邁向一個模塊化的未來。每一層都將被高度專業化,協議將針對特定功能進行優化,而非採用一體化的解決方案。

近年來,去中心化 AI 技術棧的每一層都湧現出了大量初創企業,呈現出“寒武紀式”的爆炸增長。其中大部分企業成立僅僅 1-3 年。這表明:我們依然處於這個行業的早期階段。

在我見過的 Crypto AI 初創企業生態圖中,最全面且最新的版本由 topology.vc 的 Casey 和她的團隊維護。這是任何想要追蹤這一領域發展的人不可或缺的一項資源。

當我深入研究 Crypto AI 的各個子領域時,我總是在思考:這裡的機會到底有多大?我關注的不是小型市場,而是那些能夠擴展到數千億美元規模的巨大機會。

  1. 市場規模

評估市場規模時,我會問自己:這個子領域是創造了一個全新的市場,還是正在顛覆一個現有市場?

以去中心化計算為例,這是一個典型的顛覆性領域。我們可以通過現有的雲計算市場來估算其潛力。當前,雲計算市場的規模約為 6800 億美元,預計到 2032 年將達到 2.5 萬億美元。

相比之下,像 AI 智能體這樣的全新市場則更難量化。由於缺乏歷史數據,我們只能通過對它解決問題能力的直覺判斷和合理推測來進行估算。但需要警惕的是,有時候看似是一個全新市場的產品,實際上可能只是“為問題尋找解決方案”的產物。

  1. 時機

時機是成功的關鍵。雖然技術通常會隨著時間的推移而不斷改進並變得更便宜,但不同領域的進步速度卻大不相同。

在某個子領域中,技術的成熟度如何?它是否已經足夠成熟,可以大規模應用?還是仍然處於研究階段,距離實際應用還有數年?時機決定了一個領域是否值得立即投入關注,還是應該暫時觀望。

以完全同態加密 (Fully Homomorphic Encryption, FHE) 為例:它的潛力無可否認,但目前的技術性能仍然過於緩慢,難以實現大規模應用。我們可能還需要幾年時間才能看到它進入主流市場。因此,我會優先關注那些技術已經接近大規模應用的領域,將我的時間和精力集中在那些正在積聚勢頭的機會點上。

如果將這些子領域繪製在一個“市場規模 vs. 時機”的圖表上,可能會是這樣的佈局。需要注意的是,這只是一個概念性的草圖,而不是嚴格的指南。每個領域內部也存在複雜性——例如,在可驗證推理 (verifiable inference) 中,不同的方法(如 zkML 和 opML)在技術成熟度上就處於不同階段。

儘管如此,我堅信,AI 的未來規模將異常巨大。即使是今天看起來“小眾”的領域,也有可能在未來演變成一個重要市場。

同時,我們也要認識到,技術進步並不總是線性發展的——它往往以跳躍式的方式前進。當新的技術突破出現時,我對市場時機和規模的看法也會隨之調整。

基於上述框架,我們接下來將逐一拆解 Crypto AI 的各個子領域,探索它們的發展潛力和投資機會。

領域 1:去中心化計算

總結

  • 去中心化計算是整個去中心化 AI 的核心支柱。

  • GPU 市場、去中心化訓練和去中心化推理彼此緊密關聯,協同發展。

  • 供應端主要來自中小型數據中心和普通消費者的 GPU 設備。

  • 需求端目前規模較小,但正在逐步增長,主要包括對價格敏感、對延遲要求不高的用戶,以及一些規模較小的 AI 初創公司。

  • 當前 Web3 GPU 市場面臨的最大挑戰,是如何讓這些網絡真正高效運轉起來。

  • 在去中心化網絡中協調 GPU 的使用,需要先進的工程技術和穩健的網絡架構設計。

1.1 GPU 市場 / 計算網絡

目前,一些 Crypto AI 團隊正在建立去中心化的 GPU 網絡,以利用全球未被充分利用的計算資源池,來應對 GPU 需求遠超供應的現狀。

這些 GPU 市場的核心價值可以歸納為以下三點:

  1. 計算成本可以比 AWS 低多達 90%。這種低成本來源於兩方面:一是消除了中間商,二是開放了供應端。這些市場允許用戶接觸到全球最低邊際成本的計算資源。

  2. 無需綁定長期合同、無需身份驗證(KYC)、無需等待審批。

  3. 抗審查能力

為了解決市場的供應方問題,這些市場從以下來源獲取計算資源:

  • 企業級 GPU:例如 A100 和 H100 等高性能 GPU,這些設備通常來自中小型數據中心(它們獨立運營時難以找到足夠的客戶),或者來自希望多元化收入來源的比特幣礦工。此外,還有一些團隊正在利用政府資助的大型基礎設施項目,這些項目建設了大量數據中心作為技術發展的組成部分。這些供應商通常會受到激勵,將 GPU 持續接入網絡,以幫助抵消設備的折舊成本。

  • 消費者級 GPU:數百萬玩家和家庭用戶將自己的電腦連接到網絡,並通過 Token 獎勵獲得收益。

當前,去中心化計算的需求端主要包括以下幾類用戶:

  1. 對價格敏感、對延遲要求不高的用戶:例如預算有限的研究人員、獨立 AI 開發者等。他們更關注成本,而不是實時處理能力。由於預算的限制,他們往往難以負擔傳統雲服務巨頭(如 AWS 或 Azure)的高昂費用。針對這一群體的精準營銷非常重要。

  2. 小型 AI 初創公司:這些公司需要靈活且可擴展的計算資源,但又不希望與大型雲服務提供商簽訂長期合同。吸引這一群體需要加強業務合作,因為他們正在積極尋找傳統雲計算之外的替代方案。

  3. Crypto AI 初創企業:這些企業正在開發去中心化 AI 產品,但如果沒有自己的計算資源,就需要依賴這些去中心化網絡。

  4. 雲遊戲:雖然與 AI 的直接聯繫不大,但云遊戲對 GPU 資源的需求正在快速增長。

要記住的關鍵一點是:開發人員始終優先考慮成本和可靠性

真正的挑戰:需求,而非供應

許多初創公司會將 GPU 供應網絡的規模視為成功的標誌,但實際上,這僅僅是一個“虛榮指標”。

真正的瓶頸在於需求端,而非供應端。衡量成功的關鍵指標並不是網絡中有多少 GPU,而是 GPU 的利用率以及實際被租用的 GPU 數量。

Token 激勵機制在啟動供應端方面非常有效,可以快速吸引資源加入網絡。但它們並不能直接解決需求不足的問題。真正的考驗在於,能否將產品打磨到足夠好的狀態,從而激發潛在的需求。

正如 Haseeb Qureshi(來自 Dragonfly)所言,這才是關鍵所在。

讓計算網絡真正運轉起來

目前,Web3 分佈式 GPU 市場面臨的最大挑戰,其實是如何讓這些網絡真正高效地運行起來。

這並不是一件簡單的事情。

在分佈式網絡中協調 GPU 是一項極其複雜的任務,涉及多個技術難點,例如資源分配、動態工作負載擴展、節點和 GPU 的負載均衡、延遲管理、數據傳輸、容錯能力,以及如何處理分佈在全球各地的多樣化硬件設備。這些問題層層疊加,構成了巨大的工程挑戰。

要解決這些問題,需要非常紮實的工程技術能力,以及一個健壯且設計合理的網絡架構。

為了更好地理解這一點,可以參考 Google 的 Kubernetes 系統。Kubernetes 被廣泛認為是容器編排領域的黃金標準,它可以自動化處理分佈式環境中的負載均衡和擴展等任務,而這些問題與分佈式 GPU 網絡所面臨的挑戰非常相似。值得注意的是,Kubernetes 是基於 Google 十多年的分佈式計算經驗開發的,即便如此,也花費了數年時間通過不斷迭代才得以完善。

目前,一些已經上線的 GPU 計算市場可以處理小規模的工作負載,但一旦嘗試擴展到更大規模,問題就會暴露出來。這可能是因為它們的架構設計存在根本性的缺陷。

可信性問題:挑戰與機遇

另一個去中心化計算網絡需要解決的重要問題是如何確保節點的可信性,即如何驗證每個節點是否真正提供了它所聲稱的計算能力。目前,這一驗證過程大多依賴網絡的聲譽系統,有時計算提供者會根據聲譽評分進行排名。區塊鏈技術在這一領域具有天然的優勢,因為它能夠實現無需信任的驗證機制。一些初創公司,例如 Gensyn Spheron,正在探索如何通過無需信任的方法解決這個問題。

目前,許多 Web3 團隊仍在努力應對這些挑戰,這也意味著這個領域的機會仍然非常廣闊。

去中心化計算市場的規模

那麼,去中心化計算網絡的市場到底有多大?

目前,它可能僅佔全球雲計算市場(規模約為 6800 億至 2.5 萬億美元)的一個極小部分。然而,只要去中心化計算的成本低於傳統雲服務提供商,就一定會存在需求,即使用戶體驗上存在一些額外的摩擦。

我認為,在短期到中期內,去中心化計算的成本仍會保持較低水平。這主要得益於兩方面:一是 Token 補貼,二是來自非價格敏感用戶的供應解鎖。例如,如果我可以出租我的遊戲筆記本電腦賺取額外收入,無論是每月 20 美元還是 50 美元,我都會感到滿意。

去中心化計算網絡的真正增長潛力,以及其市場規模的顯著擴展,將依賴以下幾個關鍵因素:

  1. 去中心化 AI 模型訓練的可行性:當去中心化網絡能夠支持 AI 模型的訓練時,將會帶來巨大的市場需求。

  2. 推理需求的爆發:隨著 AI 推理需求激增,現有數據中心可能無法滿足這一需求。事實上,這種趨勢已經開始顯現。NVIDIA 的 Jensen Huang 表示,推理需求將會增長“十億倍”

  3. 服務等級協議 (SLAs) 的引入:目前,去中心化計算主要以“盡力而為”的方式提供服務,用戶可能會面臨服務質量(如正常運行時間)的不確定性。有了 SLAs,這些網絡可以提供標準化的可靠性和性能指標,從而打破企業採用的關鍵障礙,使去中心化計算成為傳統雲計算的可行替代方案。

去中心化、無需許可的計算是去中心化 AI 生態系統的基礎層,也是其最重要的基礎設施之一。

儘管 GPU 等硬件供應鏈正在不斷擴展,但我相信,我們仍然處於“人類智能時代”的黎明階段。未來,對計算能力的需求將是無止境的。

請關注可能觸發 GPU 市場重新定價的關鍵拐點——這個拐點可能很快就會到來。

其他備註:

  • 純 GPU 市場競爭非常激烈,不僅有去中心化平臺之間的較量,還面臨 Web2 AI 新興雲平臺(如 Vast.ai 和 Lambda)的強勢崛起。

  • 小型節點(例如 4 張 H100 GPU)由於用途有限,市場需求並不大。但如果你想找到出售大型集群的供應商,那幾乎是不可能的,因為它們的需求依然非常旺盛。

  • 去中心化協議的計算資源供應究竟會被某個主導者整合,還是會繼續分散在多個市場中?我更傾向於前者,並認為最終結果會呈現冪律分佈,因為整合往往能提升基礎設施的效率。當然,這一過程需要時間,而在此期間,市場的分散和混亂還將持續。

  • 開發者更希望專注於構建應用,而不是花時間應對部署和配置問題。因此,計算市場需要簡化這些複雜性,儘可能減少用戶在獲取計算資源時的摩擦。

1.2 去中心化訓練

總結

  • 如果擴展法則 (Scaling Laws) 成立,那麼未來在單一數據中心訓練下一代前沿 AI 模型將會在物理上變得不可行。

  • 訓練 AI 模型需要大量的 GPU 間數據傳輸,而分佈式 GPU 網絡較低的互連速度通常是最大的技術障礙。

  • 研究人員正在探索多種解決方案,並取得了一些突破性進展(如 Open DiLoCo 和 DisTrO)。這些技術創新將會疊加效應,加速去中心化訓練的發展。

  • 去中心化訓練的未來可能更多地集中於為特定領域設計的小型、專用模型,而非面向 AGI 的前沿模型。

  • 隨著 OpenAI 的 o1 等模型的普及,推理需求將迎來爆發式增長,這也為去中心化推理網絡創造了巨大的機會。

想象一下:一個巨大的、改變世界的 AI 模型,不是由秘密的頂尖實驗室開發,而是由數百萬普通人共同完成。遊戲玩家們的 GPU 不再只是用來渲染《使命召喚》的炫酷畫面,而是被用來支持更宏大的目標——一個開源、集體擁有的 AI 模型,沒有任何中心化的把關者。

在這樣的未來,基礎規模的 AI 模型不再是頂尖實驗室的專屬領域,而是全民參與的成果。

但回到現實,目前大部分重量級 AI 訓練仍然集中在中心化數據中心,這種趨勢在未來一段時間內可能不會改變。

像 OpenAI 這樣的公司正在不斷擴大其龐大的 GPU 集群規模。Elon Musk 最近透露,xAI 即將完成一個數據中心,其 GPU 總量相當於 20 萬張 H100。

但問題不只是 GPU 的數量。Google 在 2022 年的 PaLM 論文中提出了一個關鍵指標——模型 FLOPS 利用率 (Model FLOPS Utilization, MFU),用於衡量 GPU 最大計算能力的實際利用率。令人意外的是,這一利用率通常只有 35-40%。

為什麼會這麼低?儘管 GPU 性能隨著摩爾定律的推進飛速提升,但網絡、內存和存儲設備的改進卻遠遠落後,形成了顯著的瓶頸。結果,GPU 經常處於閒置狀態,等待數據傳輸完成。

目前,AI 訓練高度中心化的根本原因只有一個——效率。

訓練大型模型依賴以下關鍵技術:

  • 數據並行:將數據集分割到多個 GPU 上進行並行處理,從而加速訓練過程。

  • 模型並行:將模型的不同部分分佈到多個 GPU 上,以克服內存限制。

這些技術要求 GPU 之間頻繁交換數據,因此互連速度(即網絡中數據傳輸的速率)至關重要。

當前沿 AI 模型的訓練成本可能高達 10 億美元時,每一點效率的提升都至關重要。

中心化數據中心憑藉其高速互連技術,可以在 GPU 之間實現快速數據傳輸,從而在訓練時間內顯著節省成本。這是去中心化網絡目前難以匹敵的……至少現在還不行。

克服緩慢的互連速度

如果你與 AI 領域的從業者交流,許多人可能會直言,去中心化訓練是行不通的。

在去中心化的架構中,GPU 集群並不位於同一物理位置,這導致它們之間的數據傳輸速度較慢,成為主要瓶頸。訓練過程需要 GPU 在每一步都進行數據同步和交換。距離越遠,延遲越高。而更高的延遲意味著訓練速度變慢,成本增加。

一個在中心化數據中心只需幾天完成的訓練任務,在去中心化環境下可能需要兩週時間,並且成本更高。這顯然不具備可行性。

然而,這一情況正在發生改變。

令人振奮的是,分佈式訓練的研究熱度正在迅速上升。研究人員正從多個方向同時展開探索,最近湧現的大量研究成果和論文便是明證。這些技術進展將產生疊加效應,加速去中心化訓練的發展。

此外,實際生產環境中的測試也至關重要,它能幫助我們突破現有的技術邊界。

目前,一些去中心化訓練技術已經能夠在低速互連環境中處理較小規模的模型。而前沿研究正在努力將這些方法擴展到更大規模的模型上。

  • 比如,Prime Intellect 的 Open DiCoLo 論文提出了一種實用方法:通過將 GPU 分為“群島”,每個群島在同步前先完成 500 次本地計算,從而將帶寬需求降低至原來的 1/500。這項技術最初是 Google DeepMind 針對小型模型的研究,如今已經成功擴展到訓練一個擁有 100 億參數的模型,並且已於近日完全開源。

  • Nous Research 的 DisTrO 框架則進一步突破,通過優化器技術將 GPU 間的通信需求減少了高達 10,000 倍,同時成功訓練了一個擁有 12 億參數的模型。

  • 這一勢頭還在持續。Nous 最近宣佈,他們已完成一個 150 億參數模型的預訓練,其損失曲線和收斂速度甚至超越了傳統中心化訓練的表現。

推文詳情

  • 此外,像 SWARM Parallelism 和 DTFMHE 這樣的方法,也正在探索如何在不同類型的設備上訓練超大規模 AI 模型,即使這些設備的速度和連接條件各不相同。

另一個挑戰是如何管理多樣化的 GPU 硬件,尤其是去中心化網絡中常見的消費級 GPU,這些設備通常內存有限。通過模型並行技術(將模型的不同層分佈到多臺設備上),這一問題正在逐步得到解決。

去中心化訓練的未來

目前,去中心化訓練方法的模型規模仍然遠遠落後於最前沿的模型(據報道 GPT-4 的參數量接近一萬億,是 Prime Intellect 的 100 億參數模型的 100 倍)。要實現真正的規模化,我們需要在模型架構設計、網絡基礎設施以及任務分配策略上取得重大突破。

但我們可以大膽設想:未來,去中心化訓練或許能夠匯聚比最大中心化數據中心還要多的 GPU 計算能力。

Pluralis Research(一個在去中心化訓練領域非常值得關注的團隊)認為,這不僅是可能的,而且是必然的。中心化數據中心受限於物理條件,例如空間和電力供應,而去中心化網絡則可以利用全球幾乎無限的資源。

甚至 NVIDIA 的 Jensen Huang 也提到,異步去中心化訓練可能是釋放 AI 擴展潛力的關鍵。此外,分佈式訓練網絡還具有更強的容錯能力。

因此,在未來的一種可能性中,世界上最強大的 AI 模型將以去中心化的方式進行訓練。

這一願景令人興奮,但目前我仍持保留態度。我們需要更多有力的證據,證明去中心化訓練超大規模模型在技術上和經濟上是可行的。

我認為,去中心化訓練的最佳應用場景可能在於較小的、專用的開源模型,這些模型針對特定的應用場景設計,而不是與超大型、以 AGI 為目標的前沿模型競爭。某些架構,尤其是非 Transformer 模型,已經證明它們非常適合去中心化的環境。

此外,Token 激勵機制也將是未來的重要一環。一旦去中心化訓練在規模上變得可行,Token 可以有效激勵並獎勵貢獻者,從而推動這些網絡的發展。

儘管前路漫長,但當前的進展令人鼓舞。去中心化訓練的突破不僅將惠及去中心化網絡,也將為大型科技公司和頂尖 AI 實驗室帶來新的可能性……

1.3 去中心化推理

目前,AI 的計算資源大部分都集中在訓練大型模型上。頂尖 AI 實驗室之間正在進行一場軍備競賽,目標是開發出最強的基礎模型,並最終實現 AGI。

但我認為,這種對訓練的計算資源集中投入將在未來幾年逐漸向推理轉移。隨著 AI 技術越來越多地融入我們日常使用的應用程序——從醫療保健到娛樂行業——支持推理所需的計算資源將變得極為龐大。

這一趨勢並非空穴來風。推理時的計算擴展 (Inference-time Compute Scaling) 已經成為 AI 領域的熱門話題。OpenAI 最近發佈了其最新模型 o1(代號:Strawberry)的預覽版/迷你版,其顯著特點是:它會“花時間思考”。具體來說,它會先分析自己需要採取哪些步驟來回答問題,然後逐步完成這些步驟。

這個模型專為更復雜、需要規劃的任務設計,例如解決填字遊戲,並能處理需要深度推理的問題。雖然它生成響應的速度較慢,但結果更加細緻和深思熟慮。不過,這種設計也帶來了高昂的運行成本,其推理費用是 GPT-4 的 25 倍

從這一趨勢可以看出,AI 性能的下一次飛躍,不僅僅依賴於訓練更大的模型,還將依賴於推理階段計算能力的擴展。

如果你想了解更多,有幾項研究已經證明:

  • 通過重複採樣擴展推理計算,可以在許多任務中獲得顯著的性能提升。

  • 推理階段也遵循一種指數級的擴展法則 (Scaling Law)。

一旦強大的 AI 模型被訓練完成,它們的推理任務(即實際應用階段)可以被卸載到去中心化計算網絡中。這種方式非常具有吸引力,原因如下:

  • 推理的資源需求遠低於訓練。訓練完成後,模型可以通過量化 (Quantization)、剪枝 (Pruning) 或蒸餾 (Distillation) 等技術進行壓縮和優化。甚至可以通過張量並行 (Tensor Parallelism) 或流水線並行 (Pipeline Parallelism) 將模型拆分,從而在普通的消費級設備上運行。推理並不需要使用高端 GPU。

  • 這一趨勢已經初見端倪。例如,Exo Labs 已經找到了一種方法,可以在像 MacBook 和 Mac Mini 這樣的消費級硬件上運行一個擁有 4500 億參數的 Llama3 模型。通過將推理任務分佈式運行在多個設備上,即使是大規模的計算需求也可以高效且低成本地完成。

  • 更好的用戶體驗:將計算能力部署在更靠近用戶的位置,可以顯著降低延遲,這對於實時應用來說至關重要,例如遊戲、增強現實 (AR) 或自動駕駛汽車——在這些場景中,每毫秒的延遲都可能帶來不同的使用體驗。

我們可以將去中心化推理比作 AI 的 CDN(內容分發網絡)。傳統的 CDN 是通過連接到鄰近的服務器快速傳輸網站內容,而去中心化推理則是利用本地的計算資源,以極快的速度生成 AI 響應。通過這種方式,AI 應用程序能夠變得更加高效、響應更快,同時也更加可靠。

這一趨勢已經初現端倪。蘋果最新推出的 M4 Pro 芯片,其性能已經接近 NVIDIA 的 RTX 3070 Ti——這是一款曾經專屬於硬核遊戲玩家的高性能 GPU。而如今,我們日常使用的硬件正變得越來越能夠處理複雜的 AI 工作負載。

加密貨幣的價值賦能

要讓去中心化推理網絡真正成功,就必須為參與者提供足夠有吸引力的經濟激勵。網絡中的計算節點需要因其貢獻的計算能力獲得合理的報酬,同時系統還需確保獎勵分配的公平性和高效性。此外,地理上的多樣性也非常關鍵。它不僅能減少推理任務的延遲,還能提升網絡的容錯能力,從而增強整體的穩定性。

那麼,構建去中心化網絡的最佳方式是什麼?答案是加密貨幣。

Token 是一種強大的工具,可以將所有參與者的利益統一起來,確保每個人都在為同一個目標努力:擴大網絡規模並提升 Token 的價值。

此外,Token 還能夠極大地加速網絡的成長。它們幫助解決了許多網絡在早期發展中面臨的經典“先有雞還是先有蛋”的難題。通過獎勵早期採用者,Token 能夠從一開始就推動更多人參與網絡建設。

比特幣和以太坊的成功已經證明了這種機制的有效性——它們已經聚集了地球上最大的計算能力池。

去中心化推理網絡將是下一個接棒者。通過地理多樣性的特性,這些網絡能夠減少延遲、提升容錯能力,並將 AI 服務更貼近用戶。而藉助加密貨幣驅動的激勵機制,去中心化網絡的擴展速度和效率將遠遠超過傳統網絡。

致敬

Teng Yan

在接下來的系列文章中,我們將深入探討數據網絡,並研究它們如何幫助突破 AI 面臨的數據瓶頸。

免責聲明

本文僅供教育用途,不構成任何財務建議。這並不是對資產買賣或財務決策的背書。在進行投資選擇時,請務必自行研究並保持謹慎。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論