編者按:隨著最近 AI 在加密貨幣領域的影響力不斷提高,市場開始聚焦於 AI 的可驗證性問題。本文中多位加密與 AI 領域的專家分析了去中心化、區塊鏈和零知識證明等技術如何應對 AI 模型可能被濫用的風險,並探討了推理驗證、閉源模型及邊緣設備推理等未來趨勢。
以下為原文內容(為便於閱讀理解,原內容有所整編):
最近為 Delphi Digital 的 AI 月度活動錄製了一場圓桌討論,邀請了四位專注於加密與 AI 領域的創始人,共同探討了可驗證 AI 的話題,以下內容是一些關鍵要點。
嘉賓:colingagich、ryanmcnutty33、immorriv 和 Iridium Eagleemy。
未來,AI 模型將成為一種軟實力,它們的經濟應用越廣泛、越集中,濫用的機會也就越多。無論模型輸出是否被操控,單是感受到這種可能性就已十分有害。
如果我們對 AI 模型的看法變得和對社交媒體算法一樣,我們將面臨很大麻煩,去中心化、區塊鏈和可驗證性是解決這一問題的關鍵。由於 AI 本質上是一個黑箱,我們需要找到方法使 AI 的過程可證明或可驗證,以確保其未被篡改。
這正是可驗證推理所要解決的問題,儘管討論的嘉賓對問題達成了一致,但他們在解決方案上卻採取了不同的路徑。
更具體地說,可驗證推理包括:我的問題或輸入沒有被篡改;我使用的模型是我所承諾的那個;輸出以原樣提供,沒有被修改。實際上,這一定義來自 @Shaughnessy119,但我很喜歡它的簡潔性。
在目前的 truth terminal 案例中這會有很大的幫助。
使用零知識證明來驗證模型輸出,毫無疑問,ZK 是最安全的方法。然而,它也帶來了一些權衡,計算成本增加了 100 到 1000 倍。此外,並非所有內容都能輕鬆轉換為電路,因此需要對某些函數(如 sigmoid)進行近似處理,並可能會有浮點近似損失。
關於計算開銷,許多團隊正在努力改進最先進的 ZK 技術,以顯著降低開銷。儘管大型語言模型體積龐大,但大多數金融應用案例可能相對較小,例如資本配置模型,這樣開銷就變得微不足道。受信執行環境(TEEs)適合那些對最大安全性要求較低,但對成本或模型大小更為敏感的應用場景。
Ambient 的 Travis 談到了他們如何計劃在一個非常大的分片模型上驗證推理,這並不是一個通用問題,而是針對一個特定模型的解決方案。不過,由於 Ambient 仍處於隱秘階段,這項工作暫時保密,我們需要關注即將發佈的論文。
optimistic method,即在推理時不生成證明,而是讓執行推理的節點質押代幣,若被質疑並發現不當操作則扣除質押代幣,這得到了嘉賓們的一些反對意見。
首先,要實現這一點,需要確定性輸出,而為了達到這一目標,需要做出一些妥協,例如確保所有節點使用相同的隨機種子。其次,如果面臨 100 億美元的風險,多少質押才足以確保經濟安全?這個問題最終仍然沒有明確答案,這凸顯了讓消費者選擇是否願意支付完整證明費用的重要性。
關於閉源模型的問題,inference labs 和 aizel network 都能提供支持。這引發了一些哲學上的爭論,信任無須需要了解正在運行的模型,因此私有模型是不受歡迎的,與可驗證 AI 相悖。然而,在某些情況下,瞭解模型的內部工作原理可能導致被操控,而解決這一問題的唯一方法有時就是將模型設為閉源。閉源模型如果經過 100 次或 1000 次驗證後仍然可靠,儘管無法訪問其權重,這也足以讓人產生信心。
最後,我們討論了由於隱私、延遲和帶寬等問題,AI 推理是否會轉向邊緣設備(如手機和筆記本電腦)。大家達成的共識是,這種轉變正在到來,但還需要幾次迭代。
對於大型模型來說,空間、計算需求和網絡要求都是問題。不過,模型正在變得更小,設備也越來越強大,因此這種轉變似乎正在發生,只是還沒有完全到來。然而,當前如果能夠使推理過程保持私密,那麼我們仍然可以獲得本地推理的許多好處,而不會面臨失敗模式。
「原文鏈接」
歡迎加入律動 BlockBeats 官方社群:
Telegram 訂閱群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方賬號:https://twitter.com/BlockBeatsAsia