原創

IBW 2025: CertiK首席商務官出席,探討AI與Web3融合帶來的安全挑戰

avatar
CertiK
06-27

6月26日至27日,全球最大的Web3安全公司CertiK亮相伊斯坦布爾區塊鏈周(IBW 2025),首席商務官Jason Jiang出席兩場圓桌論壇,分享了CertiK在AI與Web3融合領域的前沿觀察與安全見解。他與普華永道土耳其網絡安全服務主管Nurettin Erginoz、Bitlayer聯合創始人Charlie Hu等專家同臺,共同探討了AI技術在DeFi中的應用現狀與安全挑戰。

論壇上,Jason Jiang指出,隨著大語言模型(LLM)和AI代理的快速發展,一個全新的金融範式——DeFAI(去中心化人工智能金融)正逐步成型。然而,這一變革也帶來了全新的攻擊面和安全隱患。

“DeFAI擁有廣闊的前景,但也讓我們必須重新審視去中心化系統中的信任機制,”Jason Jiang表示:“與基於固定邏輯的智能合約不同,AI代理的決策過程受上下文、時間,甚至歷史交互影響。這種不可預測性不僅加劇了風險,也為攻擊者創造了可乘之機。

“AI代理”本質上是能夠基於AI邏輯進行自主決策和執行的智能體,通常由用戶、協議或DAO授權運行。其中,最典型代表是AI交易機器人。當前大多數AI代理運行在Web2架構之上,依賴中心化服務器和API,這使其容易受到注入攻擊、模型操控或數據篡改等威脅。一旦被劫持,不僅可能導致資金損失,更可能影響整個協議的穩定性。

在分享具體攻擊案例時,Jason Jiang描述了一個典型情境:當一名DeFi用戶運行的AI交易代理正在監測社交媒體消息作為交易信號時,攻擊者發佈虛假警報,例如“協議X遭受攻擊”,就可能誘使該代理立即啟動緊急清倉。這種操作不僅會導致用戶資產損失,還會引發市場波動,進而被攻擊者通過搶先交易(Front Running)加以利用。

Jason Jiang認為,AI代理的安全不應由某一方單獨承擔,而是用戶、開發者與第三方安全機構的共同責任。

首先,用戶需要清楚代理所擁有的權限範圍,謹慎地授予權限,還要注意審查AI代理的高風險操作。其次,開發者則應在設計階段就實施防禦措施,例如:提示詞加固、沙盒隔離、速率限制和回退邏輯等機制。而像CertiK這樣的第三方安全公司,則應為AI代理的模型行為、基礎設施、以及鏈上集成方式提供獨立審查,並與開發人員和用戶合作,識別風險並提出緩解措施。

Jason Jiang警示道:“若繼續把AI代理當作‘黑箱’,現實世界中發生安全事故只是時間問題。

對於正在探索DeFAI方向的開發者,Jason Jiang的建議是:“與智能合約相同,AI代理的行為邏輯同樣由代碼實現。既然是代碼,就有被攻擊的可能,因此需要進行專業的安全審計和滲透測試。

免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論