加了Buff的AI+Crypto敘事,「可驗證AI」瞭解一下

avatar
律動
10-22

編者按:隨著最近 AI 在加密貨幣領域的影響力不斷提高,市場開始聚焦於 AI 的可驗證性問題。本文中多位加密與 AI 領域的專家分析了去中心化、區塊鏈和零知識證明等技術如何應對 AI 模型可能被濫用的風險,並探討了推理驗證、閉源模型及邊緣設備推理等未來趨勢。

以下為原文內容(為便於閱讀理解,原內容有所整編):

最近為 Delphi Digital 的 AI 月度活動錄製了一場圓桌討論,邀請了四位專注於加密與 AI 領域的創始人,共同探討了可驗證 AI 的話題,以下內容是一些關鍵要點。

嘉賓:colingagich、ryanmcnutty33、immorriv 和 Iridium Eagleemy。

未來,AI 模型將成為一種軟實力,它們的經濟應用越廣泛、越集中,濫用的機會也就越多。無論模型輸出是否被操控,單是感受到這種可能性就已十分有害。

如果我們對 AI 模型的看法變得和對社交媒體算法一樣,我們將面臨很大麻煩,去中心化、區塊鏈和可驗證性是解決這一問題的關鍵。由於 AI 本質上是一個黑箱,我們需要找到方法使 AI 的過程可證明或可驗證,以確保其未被篡改。

這正是可驗證推理所要解決的問題,儘管討論的嘉賓對問題達成了一致,但他們在解決方案上卻採取了不同的路徑。

更具體地說,可驗證推理包括:我的問題或輸入沒有被篡改;我使用的模型是我所承諾的那個;輸出以原樣提供,沒有被修改。實際上,這一定義來自 @Shaughnessy119,但我很喜歡它的簡潔性。

在目前的 truth terminal 案例中這會有很大的幫助。

使用零知識證明來驗證模型輸出,毫無疑問,ZK 是最安全的方法。然而,它也帶來了一些權衡,計算成本增加了 100 到 1000 倍。此外,並非所有內容都能輕鬆轉換為電路,因此需要對某些函數(如 sigmoid)進行近似處理,並可能會有浮點近似損失。

關於計算開銷,許多團隊正在努力改進最先進的 ZK 技術,以顯著降低開銷。儘管大型語言模型體積龐大,但大多數金融應用案例可能相對較小,例如資本配置模型,這樣開銷就變得微不足道。受信執行環境(TEEs)適合那些對最大安全性要求較低,但對成本或模型大小更為敏感的應用場景。

Ambient 的 Travis 談到了他們如何計劃在一個非常大的分片模型上驗證推理,這並不是一個通用問題,而是針對一個特定模型的解決方案。不過,由於 Ambient 仍處於隱秘階段,這項工作暫時保密,我們需要關注即將發佈的論文。

optimistic method,即在推理時不生成證明,而是讓執行推理的節點質押代幣,若被質疑並發現不當操作則扣除質押代幣,這得到了嘉賓們的一些反對意見。

首先,要實現這一點,需要確定性輸出,而為了達到這一目標,需要做出一些妥協,例如確保所有節點使用相同的隨機種子。其次,如果面臨 100 億美元的風險,多少質押才足以確保經濟安全?這個問題最終仍然沒有明確答案,這凸顯了讓消費者選擇是否願意支付完整證明費用的重要性。

關於閉源模型的問題,inference labs 和 aizel network 都能提供支持。這引發了一些哲學上的爭論,信任無須需要了解正在運行的模型,因此私有模型是不受歡迎的,與可驗證 AI 相悖。然而,在某些情況下,瞭解模型的內部工作原理可能導致被操控,而解決這一問題的唯一方法有時就是將模型設為閉源。閉源模型如果經過 100 次或 1000 次驗證後仍然可靠,儘管無法訪問其權重,這也足以讓人產生信心。

最後,我們討論了由於隱私、延遲和帶寬等問題,AI 推理是否會轉向邊緣設備(如手機和筆記本電腦)。大家達成的共識是,這種轉變正在到來,但還需要幾次迭代。

對於大型模型來說,空間、計算需求和網絡要求都是問題。不過,模型正在變得更小,設備也越來越強大,因此這種轉變似乎正在發生,只是還沒有完全到來。然而,當前如果能夠使推理過程保持私密,那麼我們仍然可以獲得本地推理的許多好處,而不會面臨失敗模式。

原文鏈接

歡迎加入律動 BlockBeats 官方社群:

Telegram 訂閱群:https://t.me/theblockbeats

Telegram 交流群:https://t.me/BlockBeats_App

Twitter 官方賬號:https://twitter.com/BlockBeatsAsia

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
2
收藏
評論