Agentic AI 拐點已至?當 AI 學會「自己行動」,如何重構 Web3 的安全邊界?

今年春節過後,你是否也感覺整個 Web3 世界似乎突然被「龍蝦」佔領了?

作者:imToken

今年春節過後,你是否也感覺整個 Web3 世界似乎突然被「龍蝦」佔領了?

各種 AI Agent、自動化代理、鏈上 AI 協議層出不窮,從 OpenClaw 到一系列 Agent 框架幾乎成為新的敘事核心,但如果把時間線稍微往前拉一點,會發現這場浪潮其實早已有跡可循。

早在 2 月 25 日,英偉達 CEO 黃仁勳最新財報電話會就拋出了一個頗具分量的判斷,即 Agentic AI(代理型 AI)已經達到拐點,在他看來,AI 正在發生一場關鍵轉變,不再只是一個工具,而是開始能夠主動感知、規劃並執行復雜任務。

當這種「自主性」能力進入 Web3 世界時,一場關於控制權、安全邊界以及人類角色的討論也隨之被點燃。

一、Agentic AI:從「助手」進化成「執行者」

在談論這個話題之前,我們需要先學習 Agentic AI(代理型 AI)這個新概念。

其實從字面意思上也很容易理解,這種 AI 與過去的聊天機器人式 AI 有著本質區別。因為傳統 AI 更多是被動響應,你提問,它回答,你輸入指令,它生成內容;而 Agentic AI 則具有更強的自主性,它能夠主動拆解目標、調用工具、執行多步驟操作,並在反饋循環中不斷調整策略。

以近期討論度頗高的 OpenClaw 為例,它就是嘗試讓 AI 接管整個電腦硬件上的操作流程:從分析信息,到調用工具,再到與不同系統進行交互,並在複雜目標下持續行動。

換句話說,Agentic AI 有望讓 AI 正式從「助手」逐漸變成「執行者」。

當然這一變化背後,也是過去 3 年模型能力、算力資源與工具生態同時成熟的結果,而滲透到 Web3 世界後,這種變化可能會產生更深遠的影響,畢竟區塊鏈本身就是一個可編程且可自動執行的金融系統。

當 AI 被賦予代理能力,它理論上可以完成一系列鏈上操作,例如:

  • 自主發起鏈上交易(轉賬、Swap、質押)
  • 與 DeFi 協議交互並執行策略
  • 管理多籤錢包或智能合約
  • 根據規則自動完成授權或資金調度

這也意味著 AI 可以自動分析鏈上數據、自動調用合約、自動管理資產,並在一定程度上代替用戶執行交易策略,其實單從技術邏輯來看,AI Agent 與 Web3 的結合幾乎是一種天作之合——畢竟區塊鏈本身就是一個可編程、可自動執行的金融系統。

事實上,以太坊社區也已經意識到 AI 與區塊鏈融合所帶來的深遠影響。2025 年 9 月 15 日,以太坊基金會就專門成立了人工智能團隊「dAI」,核心任務是探索 AI 模型在區塊鏈環境中的標準、激勵與治理結構,包括如何讓 AI 的行為在去中心化環境中具備可驗證、可追溯與可協作的特性。

圍繞這一目標,以太坊社區正在推動多項關鍵標準,例如 ERC-8004,旨在構建一個可組合、可訪問的去中心化 AI 基礎設施層,使開發者能夠更容易地構建和調用 AI 模型服務;x402,嘗試定義統一的鏈上支付和結算標準,讓用戶在鏈上調用 AI 模型、存儲數據或使用去中心化算力服務時,可以完成高效的原子級微支付(延伸閱讀《AI Agent 時代的新船票:力推 ERC-8004,以太坊在押注什麼?》)。

通過這些嘗試,以太坊實際上正在試圖回答一個更宏觀的問題:如果 AI 成為互聯網的重要參與者,那麼區塊鏈是否可以成為 AI 經濟的價值結算與信任層,這也是為什麼不少人將其視為 AI Agent 時代的新「基礎設施船票」。

但與此同時,一個新的安全問題也開始浮現。

二、Web4 爭議:當 AI 成為互聯網的主要行動者

其實在老黃的「暴論」發表之前,加密社區其實已經被另一場爭論點燃。

研究者 Sigil 提出了一個頗具爭議的觀點,即他聲稱構建了第一個能夠自我發展、自我改進甚至自我複製的 AI 系統,並將其稱為 Automaton,甚至在他的設想中,未來的「Web4」時代將由 AI 代理主導。

在這一願景中,AI 代理將能夠讀取與生成信息、持有鏈上資產、支付運行成本、在市場中交易並獲得收入,說白了,就是 AI 將通過持續參與市場活動,為自己的算力與服務開銷「賺錢」,從而形成一個無需人類審批的自我供養循環。

但這一設想也迅速引發爭議,Vitalik Buterin 就對這一方向提出了明確質疑,將這一方向評價為「錯誤」,並認為問題的核心在於「人類與 AI 之間的反饋距離被拉長」,直言如果 AI 的運行週期越來越長,而人類干預越來越少,那麼系統很可能會逐漸優化出人類並不真正想要的結果。

簡單來說,就是 AI 被賦予了某個目標,但在執行過程中,卻可能採取了人類沒有預料到的方式,譬如一個 AI 代理如果被設定為「最大化本週收益」,它可能會不斷嘗試高風險策略,甚至不排除為了 0.1% 的額外年化收益,將資產投入一個未經審計、極高風險的新協議,最終導致本金被黑。

歸根結底,在很多情況下,AI 並不會真正理解人類設定目標背後的隱含約束,最近 AI 圈就出現了一件頗具黑色幽默意味的真實案例:

Meta 超級智能實驗室(MSL)的 AI 對齊負責人 Summer Yue 在測試 AI Agent OpenClaw 時,AI 代理在執行郵箱整理任務時突然失控,開始批量刪除郵件,並無視她多次輸入的停止指令,最終她只能跑到電腦前手動終止程序,才阻止 AI 繼續刪除郵箱。

這一事件雖然只是一次實驗事故,但卻很好地說明了當系統在執行目標時,一旦丟失關鍵約束,它往往會忠實地完成目標,而不是理解人類真正的意圖。

如果把這種風險放到 Web3 環境中,後果可能更加直接,因為鏈上交易具有不可逆性,如果 AI Agent 被授權管理錢包或調用合約,一旦 AI Agent 在錯誤激勵下執行操作,資產損失往往無法回滾,一次錯誤決策就可能造成真實資產損失。

這也是為什麼許多研究者認為,隨著 AI Agent 的普及,Web3 的安全模型可能需要重新思考。過去的安全問題更多來自代碼漏洞或用戶誤操作,而未來可能會出現新的風險來源——自動化決策系統本身。

三、新時代的矛盾論:AI 驅動的防禦革命

當然,AI 技術的發展往往具有雙重效應,它既可能擴大了攻擊面,但也可能強化防禦體系。

事實上,在傳統金融體系中,AI 已經被廣泛用於風險控制。例如銀行通過機器學習識別異常交易,支付系統利用算法檢測欺詐行為,網絡安全系統則通過 AI 自動識別攻擊模式。

類似的能力也正在進入 Web3 領域,由於鏈上數據公開透明,AI 可以分析交易行為模式,從而識別異常資金流動、可疑授權或潛在攻擊路徑。

而且在錢包層面,這種能力尤為重要。錢包是用戶進入 Web3 世界的入口,也是安全防護的第一道關卡,如果系統能夠在用戶簽名前自動識別風險並進行提示,就可以在關鍵時刻避免很多誤操作。

從這個角度來看,AI 的出現並不是單純增加風險,而是在改變安全體系的結構。它既可能成為攻擊工具,也可能成為新的防禦能力。

在 Web3 行業,「安全」與「體驗」長期被視為對立命題,但 Agentic AI 的出現讓我們相信這個悖論可以被打破,當然前提是安全設計必須重新出發:

  • 最小權限原則:任何 AI 代理都不應默認獲得完整的賬戶控制權,用戶應在每次會話中明確授權 AI 代理可以操作的資產範圍、金額上限和時間窗口,超出範圍的任何操作需重新確認;
  • 人類確認設置:對於高價值操作,如大額轉賬、新地址授權、合約交互,即便在 AI 代理流程中,也應強制插入人類確認設置,這不是對 AI 的不信任,而是對不可逆操作建立最後防線,讓 AI 幫你想清楚,但最後一步永遠由人來做;
  • 透明度與可解釋性:用戶應當能夠清晰看到 AI 代理正在做什麼和為什麼這麼做,黑箱操作在 Web3 中尤為危險,未來的 AI 錢包交互應該像飛行記錄儀一樣,每一步都有清晰的日誌和意圖說明;
  • 沙盒預演:在 AI 代理真正執行鏈上操作前,先在模擬環境中預演,譬如展示預期結果、Gas 消耗、影響範圍,讓用戶在確認前就能看到「如果執行,會發生什麼」,這將極大降低因 AI 判斷偏差導致的意外損失。

總的來看,我們還是可以保持謹慎樂觀的,AI 真的可能讓 Web3 第一次有機會同時提高安全性與可用性。

寫在最後

毫無疑問的是,Agentic AI 的到來,很可能會改變整個互聯網的運行方式。

而在 Web3 世界,這種變化會更加明顯,未來我們可能會看到 AI 代理管理鏈上資產、AI 自動執行 DeFi 策略、AI 與智能合約協同工作,但也意味著新的安全挑戰也會隨之出現,因此關鍵問題從來不是 AI 是否存在,而是我們是否準備好用正確的方式使用它。

當然,對於普通用戶來說,最重要的一點依然沒有改變,在 Web3 世界中,安全意識永遠是第一道防線。

與大家共勉。

免責聲明:作為區塊鏈信息平臺,本站所發佈文章僅代表作者及嘉賓個人觀點,與 Web3Caff 立場無關。文章內的信息僅供參考,均不構成任何投資建議及要約,並請您遵守所在國家或地區的相關法律法規。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論