撰文:LFG Labs
如果說 io.net 的核心底色,是“草根”,你會怎麼看?
融資 3000 萬美元,獲 Hack VC、Multicoin Capital、Delphi Digital、Solana Lab 等頂級資本青眼,怎麼看都不是那麼“接地氣”,尤其是疊加 GPU 算力/AI 革命的標籤,無一不是高大上的代名詞。
然而,喧囂的社區議論之下,關鍵的線索往往被忽視,尤其是 io.net 可能給全球算力網絡帶來的深刻變革——不同於 AWS、Azure、GCP 的“精英化”定位,io.net 本質上是在走平民化路線:
錯位補充被忽視的“腰部+長尾”算力需求,聚集閒置的 GPU 資源,打造一個企業級、去中心化的分佈式計算網絡,將更多增量/存量算力資源賦能更為廣泛的中小型用戶的 AI 創新,用低成本、高彈性實現全球 AI 創新的“生產力再解放“。
AI 浪潮背後,被忽視的算力生產關係潛流
什麼是本輪 AI 浪潮及未來數字經濟時代的核心生產力資源?
毫無疑問,算力。
根據 Precedence Research 的數據顯示,全球人工智能硬件市場預計將以 24.3% 的複合年增長率(CAGR)增長,到 2033 年將超過 4,735.3 億美元。
即便拋開預測數據,從增量和存量的邏輯角度展望,我們也可以明眼可見地發現,未來算力市場發展過程中,註定將長期存在兩個主要矛盾:
增量維度,呈指數級趨勢的算力需求側增長,註定遠大於呈線性趨勢的算力供給側增長;
存量維度,頭部效應之下算力被“掐尖”,腰部和長尾玩家無米下炊,但大量分佈式 GPU 資源又被閒置,供需雙邊嚴重錯配;
增量維度:算力需求遠大於供給
首先是增量維度,除了 AIGC 大模型的極速膨脹之外,醫療、教育、智能駕駛等無數處於爆發初期的 AI 場景都在快速鋪開,這無一不需要海量的計算資源,因此當下市場對 GPU 算力資源的缺口不僅將持續存在,甚至還在不斷擴大。
也就是說,從供需角度看的話,在可預見的未來,市場對算力的需求一定是遠遠大於供給,且需求曲線在短期內還是呈現指數級上升的趨勢。
而供給側則由於受限於物理規律和現實生產因素,無論是製程工藝提升還是大規模建廠擴產能,至多都只能實現線性增長,這也就註定了 AI 發展的算力瓶頸會長期存在。
存量維度:腰部和長尾玩家的供需嚴重錯配
與此同時,在算力資源有限且面臨嚴重增長瓶頸的情況下,亞馬遜雲科技(AWS)、微軟 Azure、谷歌雲平臺(GCP)三家就合計佔據了六成以上的雲計算份額,處於明顯的賣方市場。
它們囤積高性能 GPU 芯片,壟斷大量算力資源,而腰部和長尾的中小算力需求方不僅沒有議價權,還不得不面臨高資金成本、KYC 進入門檻、租賃霸王條款等諸多問題,此外傳統雲服務巨頭出於收益比考量,也難免忽視“腰部+長尾”用戶的差異化業務訴求(譬如時間更短、更即時、體量更小的租賃需求等等)。
但實際上,在雲服務巨頭的算力網絡之外,大量 GPU 算力卻閒置無用,譬如全球還有數十萬家第三方獨立互聯網數據中心(IDC)訓練任務小出現資源浪費,甚至包括加密礦場和 Filecoin、Render、Aethir 等加密項目的海量算力閒置。
據 io.net 官方估算,目前僅美國一地的 IDC 顯卡閒置率就高達 60% 以上,這就產生了一個頗具諷刺意味的供需錯配悖論:數以萬計的中小型數據中心、加密礦場等運營商的過半算力資源被日常浪費,無法帶來有效營收,但腰部和長尾的 AI 創業者卻又在忍受高成本、高門檻的雲巨頭算力服務,甚至更多樣化的創新需求無法得到滿足。
旱的旱死,澇的澇死,明確了這兩個基本前提,其實我們就能一看看出目前全球 AI 發展合全球算力市場的核心矛盾所在——一方面 AI 創新遍地,算力需求不斷膨脹,另一方面,一眾“腰部+長尾”的算力需求和閒置 GPU 資源卻又無法被有效滿足,遊離在當前的算力市場之外。
這個問題不只是 AI 創業者日益增長的算力需求同落後的算力增長之間的矛盾,更是廣大“腰部+長尾”AI 創業者、算力運營商和不平衡不充分的供需錯配之間的矛盾,所以遠超中心化雲服務商的解決能力範疇。
正因如此,市場需要也在呼喚新解。試想一下,如果這些手握算力的運營商,可以靈活地選擇在空閒時出租算力,是不是就可以以低成本獲得一個和 AWS 類似的計算集群?
要知道新建一個如此大算力的數據網絡是極其昂貴的,這就催生出了專門針對中尾部閒置算力資源、中小型 AI 創業者的算力撮合平臺,以調動這些零散的閒置算力資源,與中小模型訓練及大模型在醫療、法律、金融等細分場景進行專門撮合。
不僅能夠滿足中尾部的多元化算力需求,也將是對現有以中心化雲巨頭為主的算力服務格局的錯位補充:
手握海量算力資源的雲服務巨頭負責大模型訓練、高性能計算等“急難險重需求”;
io.net 等去中心化雲算力市場負責中小模型計算、大模型微調、推理部署等更多元化的“靈活低成本需求”;
其實就是提供一條更具包容性的成本效益和算力質量之間的動態平衡供需曲線,這也更符合市場優化資源配置的經濟學邏輯。
故 io.net 等分佈式算力網絡本質上就是一個融合“AI+Crypto”的解決方案,即用分佈式協作框架結合代幣激勵的基礎經濟手段,來滿足潛力巨大但又處於被流放狀態的中尾部 AI 市場需求,允許中小 AI 團隊按需求定製化搭配和購買大雲無法提供所需的 GPU 計算服務,實現全球算力市場與 AI 發展的“生產力再解放”。
所以說白了,io.net 並不是 AWS、Azure、GCP 的直接競爭對手,反而是與它們攜手優化全球算力資源配置、共同做大市場蛋糕的“錯位補充戰友”,只是分管不同層級的“成本效益&算力質量”需求的戰線罷了。
甚至不排除 io.net 通過聚合“腰部+長尾”的供需雙邊玩家,再造一個不亞於現有頭部三家雲巨頭體量的市場份額。
io.net:面向全球 GPU 算力的撮合交易平臺
正因為 io.net 是基於 Web3 分佈式協作+代幣激勵來重塑中尾部算力市場的生產關係,所以我們其實可以在其中窺見 Uber、滴滴等共享經濟的影子,即類似於 Uber、滴滴的面向 GPU 算力的撮合交易平臺。
眾所周知,在沒有 Uber、滴滴之前,廣泛意義上用戶“即叫即有”的打車體驗是不存在的,因為若干個私家車是一個龐大而又無序的閒置車輛網絡,你要是想打車,只能在路邊招手等待,或向每個城市對應的出租車中心公司申請調度,耗時、不確定性高,還屬於賣方強勢市場,對絕大部分普通人來說並不友好。
而這其實也是目前整個算力市場供需雙方的真實寫照,正如上文所言,腰部和長尾的中小算力需求方不僅沒有議價權,還不得不面臨高資金成本、KYC 進入門檻、租賃霸王條款等諸多問題。
那具體來看的話,io.net 究竟是如何實現“全球 GPU 算力集散地+撮合市場”的定位,或者說要想幫助中長尾用戶獲得算力資源,需要什麼樣的系統架構和功能服務?
靈活且低成本的撮合平臺
io.net 最大的屬性,就是輕資產的算力撮合平臺。
也即和 Uber、滴滴一樣,自身不涉及風險極高的 GPU 硬件等重資產的實際運營,而是將中長尾的零售算力(很多在 AWS 等大雲處被視為二等算力)供應聯繫起來,通過撮合匹配,盤活原先處於閒置狀態的算力資源(私家車)和亟需算力的中尾部 AI 需求(打車人)。
其中 io.net 一端連著中小型 IDC、礦場、加密項目等成千上萬的閒置 GPU(私家車),另一端鏈接數以億計中小型公司的算力需求(打車人),然後 io.net 作為撮合平臺進行中間調度,就像是一個經紀商對無數筆買單、賣單進行一一匹配撮合。
這就通過聚集閒置的算力,用低廉的成本和更靈活的部署配置形式,來幫助創業者訓練更個性化的中小 AI 模型,極大提高了資源的利用率,其中的優勢則很明顯,無論市場過冷過熱,只要存在資源錯配,實現撮合的平臺需求都是最旺盛的:
供給側,中小型 IDC、礦場、加密項目等閒置算力資源供給方只需與 io.net 對接,既不用專門成立 BD 部門,也無需因算力規模小而被迫折價賣給 AWS 等,反之可直接將閒置算力以極低摩擦成本,按市場價甚至更高價格匹配到合適的中小算力客戶,從而獲得收益;
需求側,原本在 AWS 等大雲面前沒有議價權的中小算力需求方,也可以通過 io.net 這個資源管道,對接更小規模、無需許可、無需等待、無需 KYC、部署時間更靈活的算力,自由挑選、組合自己所需要的芯片來組成“集群”,完成個性化的計算任務;
本身中尾部的算力供給方和需求方,在 AWS 等大雲面前都存在類似的議價權弱、自主權低等痛點,io.net 則將腰部和中長尾的供應與需求盤活,提供這樣一個撮合平臺,讓供需雙方都能以比 AWS 等大雲更優的價格、更靈活的配置形式來完成交易。
從這個角度看,類比淘寶等平臺,早期出現低劣算力也是平臺經濟無法杜絕的發展規律,而 io.net 也針對供應方還是需求方設置了一套聲譽系統,根據計算性能、對網絡參與度來累計分數,獲得獎勵或優惠。
去中心化 GPU 集群
其次,雖然 io.net 是零售型供需雙方之間的撮合平臺,但現在的大模型等算力場景都是需要若干張顯卡共同進行計算——不只要看你這個撮合平臺能聚合多少閒置的 GPU 資源,還要看平臺上分散的算力之間聯繫有多緊密。
也就是說,這張囊括不同地域、不同規模中小型算力的分佈式網絡,需要實現“分散但又集中”的算力架構:可以根據不同場景的靈活計算需求,將若干分佈式的 GPU 放到同一個框架下進行訓練,並確保不同 GPU 的溝通協作要非常迅速,至少實現足堪使用的低延遲等特性。
這就完全不同於某些去中心化雲算力項目只能受限於同一機房 GPU 的使用困境,背後的技術實現則涉及到 io.net 產品組合的“三駕馬車”:IO Cloud、IO Worker、IO Explorer。
IO Cloud 基本業務模塊為集群(Clusters),是一個可以自我協調完成計算任務的 GPU 群組,人工智能工程師可以根據自己的需求來自定義想要的集群,它也與 IO-SDK 無縫集成,為擴展 AI 和 Python 應用程序提供全面的解決方案;
IO Worker 提供一套用戶友好的 UI 界面,允許供需雙方在 Web 應用程序上有效管理其供應操作,範圍包括與用戶帳戶管理、計算活動監控、實時數據顯示、溫度和功耗跟蹤、安裝協助、錢包管理、安全措施和盈利計算相關的功能;
IO Explorer 主要為用戶提供全面統計數據和 GPU 雲各個方面的可視化圖。它通過提供對網絡活動、重要統計數據、數據點和獎勵交易的完整可見性,使用戶能夠輕鬆監控、分析和了解 io.net 網絡的各數據細節;
正因以上的功能架構,io.net 允許算力供給方可以輕鬆共享閒置的計算資源,大大降低了准入門檻,需求方也無需簽訂長期合同、忍受傳統雲服務中常見的漫長等待時間,就能快速組建具有所需 GPU 的集群,獲得超強算力和優化的服務器響應等服務。
輕量級的彈性需求場景
再具體一點,談及 io.net 和 AWS 等大雲的錯位服務場景,主要集中在一些大雲不具性價比的輕量級彈性需求,其中大家能夠想到的諸如中小 AI 創業項目的細分領域模型訓練、大模型微調等多元化場景,均在此之列。
此外,還有一個容易被大家忽視的普遍適用場景:模型推理。
眾所周知,GPT 等大模型的早期訓練,需要藉助上萬張高性能 GPU、以超強算力、海量數據進行長時間的高質量計算,這也是 AWS、GCP 等大雲的絕對優勢領域。
但訓練好之後,主要的算力需求就成了細水長流的模型推理,這個階段對於算力的需求,也要遠遠高於訓練階段——基於已經訓練好的模型進行推理的,也就是我們普通用戶和 GPT 等模型的日常對話互動場景,反倒佔據了 80%-90% 的 AI 計算份額。
有意思的是,推理過程的整體算力更為平緩,或許只需要幾十張 GPU 數分鐘就可以得出答案,且對網絡延遲、併發性的要求更低;同時還有一點,絕大部分 AI 公司可能也不會單獨訓練自己的大模型,而只是選擇圍繞 GPT 等少數頭部大模型進行優化、微調,而這些場景都天然適合 io.net 的分佈式閒置算力資源。
少數派的高強度高標準應用場景之外,更廣泛的、日常的輕量級場景也是一塊亟待開發的處女地,看起來很零碎,但市場份額甚至更大——據美銀最新報告,高性能計算在數據中心總可用市場(TAM)中只佔很小一部分,僅約 5% 的份額。
簡言之,不是 AWS、GCP 等用不起,而是 io.net 更具性價比。
Web2 BD 的勝負手
當然最後的最後,io.net 等面向分佈式算力資源的平臺,核心競爭力還是在於 BD 能力,這才是關鍵的勝負手。
除了英偉達高性能芯片催生出顯卡掮客這一奇景之外,其實困擾很多中小 IDC 等算力運營商的最大問題,就是“酒香也怕巷子深“。
所以從這個角度看的話,io.net 其實坐擁一個同賽道項目難以復刻的獨家競爭優勢——有一支直接駐地硅谷的 Web2 BD 團隊,他們都是浸淫算力市場商務領域多年的老炮,不僅瞭解中小型客戶的多元化場景,更是掌握一眾 Web2 客戶的終端需求。
據 io.net 官方披露,目前已有二三十家 Web2 公司表達了算力購買/租賃意願,願意因為更低成本、更靈活算力服務來嘗試或試錯(有些可能在 AWS 根本等不到算力),試錯且單個客戶都至少需要幾百上千張顯卡(摺合每個月數十萬美元的算力訂單)。
這種需求端的真實終端付費意願,本質上也會吸引更多的閒置算力資源在供給端主動湧入,從而最容易率先實現 Web2&Web3 的破圈,形成先發的網絡規模效應。
Token 化的算力生態結算層可能
正如上文所言, io.net 是基於 Web3 分佈式協作+代幣激勵來重塑中尾部算力市場,其中後者主要是採用 IO 和 IOSD 的雙代幣模型:
代幣 IO,效用包括支付算力租賃費用、給予 IO Worker 分配激勵、獎勵 AI 與 ML 部署團隊持續使用網絡、平衡部分需求和供給、為 IO Worker 計算單位定價以及社區治理等;
穩定幣 IOSD,與美元掛鉤,只能通過銷燬 IO 來獲得,旨在為 io.net 平臺提供一個穩定的價值存儲和交易媒介;
此外 io.net 也考慮支持供給方通過抵押 IO 來提高被租用的概率,需求方也可抵押 IO 來優先使用高性能 GPU,進而允許圍繞抵押功能開發完整的生態系統,來捕獲整個算力生態產生的增量價值。
這其實就又引出了一個問題,既然 io.net 聚集了龐大的閒置算力資源,那能不能更進一步,直接結合 Crypto 的算力代幣化玩法,給予 GPU 更大的鏈上金融可能性?
譬如 io.net 未來完全有可能基於龐大的算力網絡,搭建一條算力專用鏈,通過提供無許可、無准入門檻的 Token 化基礎設施服務,使任何人、任何設備都能夠直接將算力 Token 化(譬如將 A100、H100 轉換為標準化代幣或 NFT),進而允許交易、質押、借貸、放貸和槓桿。
這相當於為用戶創造了一個廣闊的 GPU 算力鏈上市場,全球各地的用戶和資金都可以自由並且高效地進入,我們可以簡單設想兩個場景,來一窺未來圍繞算力的鏈上金融市場可以擁有怎樣的想象空間。
1.證券型算力 Token
譬如 io.net 上某個算力運營商擁有若干張 A100 或 H100 顯卡,但他此時有資金需求或想提前落袋為安,那就可以在 io.net 上將這部分顯卡對應的算力價值打包為一個 NFT 或 FT——其中該 Token 代表對應顯卡未來一年(或某段時間)算力現金流的折現,可以以 IO 定價。
由於絕大部分普通投資者並沒有直接購買、持有、運行 AI 算力的機會,這類 Token 就給市場交易員提供了一個博弈未來一段時間算力價格漲跌的機會,擁有大量算力而現金流緊張的運營商也獲得了資金槓桿,可以隨時隨地根據實際需求進行靈活流動性變現。
期間該 Token 背後的顯卡由 io.net 提供運營服務,後續對應算力賺取的現金流按比例分成(Token 持有人獲得 0.9,運營節點獲得 0.1)。
且因為是標準化代幣,所以也可以像其它 Token 一樣在 CEX 或者 DEX 中自由流通交易,這樣也進一步形成自由進出的實時算力定價,將 GPU 算力真正轉化為具備全球流動性的資源。
2.債券型算力 Token
此外,還可以通過發行債券型 Token 集資購買高性能顯卡,增加網絡算力,其中債券本金相當於顯卡設備自身的價值,債券利息則是未來顯卡算力租賃出去的現金流收入,意味著顯卡的潛在算力出租價值和未來收益就是 Token 的市場價值,持有 Token 就可以獲得真實的 RWA 收益。
這相當於為全球用戶創造了一個廣闊的 GPU 算力市場,全球各地的用戶和資金都可以自由並且高效地進入 GPU 算力市場,而無需擔心高門檻、高資金,進一步將真實顯卡和各種去中心化金融產品完全打通,為後續更多更豐富的針對用戶的配套服務打下了基礎。
更為關鍵的是,整個過程都以 IO 作為主要的交易/流轉貨幣,使 io.net/IO 有望成為整個全球算力生態的結算層/結算貨幣,且這個圍繞算力代幣化的鏈上金融市場的遠景,幾乎可以再造一個類似 io.net 去中心化算力網絡敘事的估值空間。
小結
總的來看,Web3 作為一種新型生產關係,天然適配代表新型生產力的 AI,這也是技術和生產關係能力的同時進步,從這個角度看,io.net 的核心邏輯,正是通過採用“Web3+代幣經濟”的經濟基礎架構,來改變傳統雲服務巨頭、中長尾算力用戶、全球閒散網絡計算資源之間的生產關係:
針對 AI 算力供需的現實痛點提供解決方案,構建一個囊括並服務“腰部+長尾”GPU 算力資源 & 用戶需求的雙邊市場,優化算力資源的供給和配置,帶來全球 AI 發展尤其是中小型 AI 創新的生產力大解放。
所圖願景無疑宏大,如果能夠成功,大概率會成為全球 GPU 算力生態的核心撮合基礎設施與價值結算層,料將獲得最佳的估值溢價,極具想象空間,但也無疑充滿挑戰。