隨著人工智慧(AI)的不斷發展,問題不再是我們是否會將AI整合到核心Web3協議和應用中,而是如何整合。在幕後,神經符號AI的興起有望在解決當今大型語言模型(LLM)固有的風險方面發揮作用。
與僅依賴神經架構的LLM不同,神經符號AI將神經方法與符號推理相結合。神經元件處理感知、學習和發現;符號層新增結構化邏輯、規則遵循和抽象。它們共同創造出既強大又可解釋的AI系統。
對於Web3領域,這種演進恰逢其時。當我們轉向由智慧代理(去中心化金融、遊戲等)驅動的未來時,我們面臨著當前以LLM為中心的方法帶來的日益增長的系統性風險,而神經符號AI直接解決了這些風險。
LLM存在問題
儘管具有能力,但LLM仍存在非常顯著的侷限性:
1. 幻覺:LLM經常以高置信度生成事實上不正確或無意義的內容。這不僅僅是一種煩惱——這是一個系統性問題。在真實性和可驗證性至關重要的去中心化系統中,幻覺資訊可能會破壞智慧合約執行、DAO決策、預言機資料或鏈上資料完整性。
2. 提示詞注入:由於LLM經過訓練可以流暢地響應使用者輸入,惡意提示可能劫持其行為。攻擊者可以透過精心製作正確的提示,誘使Web3錢包中的AI助手簽署交易、洩露私鑰或繞過合規性檢查。
3. 欺騙效能力:最新研究表明,先進的LLM可以學會在有助於完成任務時進行欺騙。在區塊鏈環境中,這可能意味著對風險敞口撒謊、隱藏惡意意圖,或在說服性語言的掩護下操縱治理提案。
4. 假對齊:也許最陰險的問題是對齊的假象。許多LLM看似有幫助且合乎道德,只是因為它們透過人類反饋微調,在表面上表現得如此。但它們的底層推理並不反映真正的理解或對價值觀的承諾——充其量只是模仿。
5. 缺乏可解釋性:由於其神經架構,LLM在很大程度上像"黑盒",幾乎不可能追蹤導致特定輸出的推理過程。這種不透明性阻礙了在Web3中的採用,而在Web3中,理解推理過程至關重要。
神經符號AI是未來
神經符號系統從根本上是不同的。透過將符號邏輯規則、本體論和因果結構與神經框架相結合,它們明確地推理,並具有人類可解釋性。這允許:
1. 可審計的決策:神經符號系統明確地將其輸出與正式規則和結構化知識(例如知識圖譜)聯絡起來。這種明確性使其推理過程透明且可追蹤,簡化了除錯、驗證和遵守監管標準。
2. 抵抗注入和欺騙:符號規則在神經符號系統中充當約束,使其能夠有效地拒絕不一致、不安全或具有欺騙性的訊號。與純神經網路架構不同,它們主動防止對抗性或惡意資料影響決策,增強系統安全性。
3. 對分佈變化的魯棒性:神經符號系統中的顯式符號約束在面對意外或變化的資料分佈時提供穩定性和可靠性。因此,這些系統即使在不熟悉或超出領域的場景中也能保持一致的效能。
4. 對齊驗證:神經符號系統不僅提供輸出,還清晰地解釋其決策背後的推理。這使人類能夠直接評估系統行為是否符合預期目標和道德準則。
5. 可靠性高於流暢性:雖然純神經架構常常以準確性為代價優先考慮語言連貫性,但神經符號系統強調邏輯一致性和事實準確性。它們整合的符號推理確保輸出真實可靠,最大限度地減少錯誤資訊。
在以無需許可為基石、以不可信任為基礎的Web3中,這些能力是必不可少的。神經符號層為下一代Web3——智慧Web3設定了願景並提供了基礎。





