數據標註這門“苦活累活”,正在悄悄變成香餑餑?這個由Polychain領投,獲得超過1,120萬美元融資的 @OpenledgerHQ ,用PoA+infini-gram的獨特機制,瞄準的正是“數據價值分配”這個被長期忽視的痛點。來,從技術視角科普下: 1)說實話,當前AI行業最大的"原罪"就是數據價值分配的不公。OpenLedger的PoA(貢獻證明)要做的,就是給數據貢獻建立一套"版權追蹤系統"。 具體而言:數據貢獻者將內容上傳到特定領域的DataNets,每個數據點都會與貢獻者元數據和內容哈希一起被永久記錄。 當模型基於這些數據集訓練後,歸因過程會在推理階段進行也就是模型生成輸出的時刻。PoA通過分析匹配範圍或影響分數來追蹤哪些數據點影響了該輸出,這些記錄決定了每個貢獻者數據的比例影響。 當模型通過推理產生費用時,PoA確保利潤根據每個貢獻者的影響準確分配——創建了一個透明、公平且鏈上的獎勵機制。 換句話說,PoA解決的是數據經濟學的根本矛盾。過去的邏輯很簡單粗暴——AI公司免費獲取海量數據,然後靠模型商業化賺得盆滿缽滿,數據貢獻者卻什麼都拿不到。但PoA通過技術手段實現了"數據私有化",讓每個數據點都能產生明確的經濟價值。 我覺得,這種從"白嫖模式"到"按勞分配"的轉換機制一旦跑通,數據貢獻的激勵邏輯就完全變了。 而且,PoA採用了分層策略來解決不同規模模型的歸因問題:幾百萬參數的小模型,可以通過分析模型影響函數來估算每個數據點的影響程度,計算量還能勉強承受,而中大型參數模型用這種方法在計算上變得不可行且低效。這時候就必須祭出Infini-gram這個大殺器了。 2)問題來了,何為infini-gram技術?它要解決的問題聽起來就很變態:在中大型參數的黑盒模型中,精確追蹤每個輸出Token的數據來源。 傳統歸因方法主要靠分析模型影響函數,但在大模型面前基本歇菜。原因很簡單:模型越大,內部計算越複雜,分析成本就指數級增長,在計算上變得不可行且低效。這在商業應用中完全不現實。 Infini-gram完全換了個思路:既然模型內部太複雜,那就直接在原始數據中找匹配。它基於後綴數組構建索引,用動態選擇的最長匹配後綴替代傳統的固定窗口n-gram。簡單理解,就是當模型輸出某個序列時,Infini-gram會為每個Token上下文識別訓練數據中最長的精確匹配。 這樣一來帶來的性能數據著實很驚豔,1.4萬億Token數據集,查詢只需20毫秒,存儲每Token僅7字節。更關鍵的是無需分析模型內部結構,無需複雜計算,就能精確歸因。對那些視模型為商業機密的AI公司來說,這簡直是量身定製的解決方案。 要知道,市面上的數據歸因方案要麼效率低下,要麼精度不夠,要麼需要訪問模型內部。Infini-gram算是在這三個維度都找到了平衡點, 3)除此之外,我感覺OpenLedger提出的dataNets鏈上數據集概念特別新潮。不同於傳統數據交易的一錘子買賣,DataNets讓數據貢獻者可持續享有數據被使用時在推理中的收益分成。 過去數據標註是苦差事,收益微薄且一次性。現在變成了持續收益的資產,激勵邏輯完全不同。 當大部分AI+Crypto項目還在做算力租賃、模型訓練這些相對成熟的方向時,OpenLedger選擇了數據歸因這塊最硬的骨頭。這套技術棧可能會重新定義AI數據的供給端。 畢竟在數據質量為王的時代,誰能解決數據價值分配問題,誰就能吸引到最優質的數據資源。 以上。 總的來說,OpenLedgerPoA + Infini-gram的組合不僅解決了技術難題,更重要的是為整個行業提供了全新的價值分配邏輯。 在算力軍備賽逐漸降溫、數據質量競爭愈發激烈的當下,這類技術路線肯定不會是孤品。這個賽道會出現多種方案並行競爭的局面——有的專注歸因精度,有的主打成本效率,有的則在易用性上做文章。各自都在探索數據價值分配的最優解。 最終哪家才能跑出來,說到底還是要看能不能真正吸引到足夠多的數據提供者和開發者。
來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論
分享




