AI 代理的「Uber 時刻」

AI 代理為何一定要用加密貨幣作為支付手段?

作者:Xave Meegan

編譯:Nicky,Foresight News

在未來,AI 智能體選擇加密支付通道並非追逐潮流,而是因為這些通道是唯一契合其運作模式的基礎設施:全天候運行、全球可達且可編程。

傳統金融基礎設施是為人類操作設計的:依賴賬戶、審批流程、營業時間、割裂的司法管轄區、緩慢的結算速度以及封閉的 API。而 AI 智能體恰恰相反:它們默認全天候運行、全球範圍活動、以互聯網速度運作,並能同時協調數十項服務。

隨著 AI 智能體從「提供建議」轉向「執行任務」,它們正在成為一類新的經濟行為體。它們將不斷髮現機會、運行工作流、支付服務費用、路由訂單並管理風險。其限制因素將不僅僅是模型質量,更在於用戶信任。例如,未來當人類用戶想要預訂一次海外行程時,必須能夠信任 AI 智能體,相信它會為用戶的利益做出正確決策以獲得最佳結果。支付僅僅是這個信任問題最先顯現的領域,真正的問題在於確保不同的系統能夠可靠地協同工作並履行其應有的職能。

一個近期的例證是 OpenClaw,這個開源智能體在不到一週內獲得了 10 萬 GitHub 星標。它通過在人們日常使用的通訊應用中自動化並輕鬆執行:郵件處理、預約安排和旅行規劃等任務而受到歡迎。

然而,這一現象在展示能夠實際工作的智能體可以多快獲得關注的同時,也暴露了關鍵的安全漏洞。思科的安全團隊近期撰文指出,OpenClaw 曾運行惡意插件,秘密將用戶數據發送至外部服務器並進行未經授權的操作。

因此,核心問題不在於智能體本身,而在於其信任模型。當你授予一個智能體訪問你的電子郵件、日曆和通訊應用的權限時,你實際上是在給予一種無條件的、無法驗證、審計或約束其如何使用這些憑據的信任。

一旦智能體能夠代表你跨所有軟件採取行動,信任就成了瓶頸。隨著風險越來越高,這個問題只會變得更糟。

信任問題會隨著風險升高而加劇。目前,像 OpenClaw 這樣的智能體處理的是風險較低的任務,如安排會議、總結郵件和起草消息。但當 AI 智能體轉向支付、法律工作和商業運營等高價值行動時,讓一個智能體訪問你所有的個人憑據和私人信息就變得風險極高。你無法審計智能體做了什麼,無法驗證其行為是否在你的指令範圍內,也無法向交易對手證明它獲得了你的授權。此外,智能體對用戶進行未經授權活動(甚至可能是無意中)的風險也隨之增加。

現有的科技公司,如 OpenAI、Anthropic 以及即將涉足支付的 Stripe,正通過品牌聲譽和封閉生態系統來建立信任。但是,它們的智能體目前受到孤立的集成、受限制的合作伙伴關係以及對什麼可以 / 不可以自動化的中心化控制的制約。運行在此類傳統通道上的 AI 智能體被這些限制所束縛。API 可能被撤銷、訪問可能被限流,或者當自動化威脅到現有利益方時可能被阻止。

另一方面,加密基礎設施是無需許可和點對點的。一個智能體可以發現一項服務,為其付費並直接完成結算,而無需尋求平臺批准。這使得加密不僅成為成本更低的通道,更成為自主商業的中立通道。

加密將價值轉移變成了開發者可用的基礎模塊。一個錢包就是一個可編程實體,能夠持有、發送和接收價值。加密支持全天候結算、全球互操作性、跨服務的可組合性以及原子化執行(即「執行 + 支付」在同一步驟完成)。它還為 AI 智能體提供了一個關鍵要素 — 可驗證性。

在基礎層面,區塊鏈提供了事後可驗證性和可審計性,你可以證明發生了什麼。但在理想的智能體經濟中,更大的好處將是預防性可驗證性(即除非滿足用戶定義的規則和約束,否則交易無法最終完成)。

具備預防性、受策略約束的執行,將使得信任智能體處理高風險經濟活動成為可能。

當自主系統行動時,用戶和企業需要的不僅僅是審計追蹤。他們需要能夠將智能體行為約束在策略範圍內的機制。

像支出限額這樣的基礎工具可以最小化風險,但它們無法捕捉特定情境下的意圖。「在指定日期預訂一張低於 500 美元、可退改的舊金山到紐約機票」並非一條簡單的規則,它需要外部情境信息,例如用戶個人信息、錢包訪問權限、航班餘票、護照信息以及特價優惠。此外,這一意圖要求在不被濫用的前提下保持機密性。

真正的難題與機遇在於,如何以一種可擴展的方式,將情境數據與策略結合到結算過程中,而不重新引入第三方中介。

在許多情況下,最重要的是驗證結果,而不是每一箇中間步驟。模型和工具會快速演進,但用戶關心的是最終結果是否符合他們的規則、約束並保護其資產。

長遠來看,AI 模型會趨於同質,基礎設施將商品化,聊天界面將成為標配。價值將累積到智能體所依賴的控制平面上,例如身份、權限、路由、結算和聲譽。持久的贏家不會是「某個智能體」,而是那些能讓智能體在現實世界中可靠運行的控制平面系統 — 那些能夠跨互操作通道管理身份、權限、路由、合規抽象和結算的系統。

智能體的「Uber 時刻」不會僅僅源於其智能。它將來自於將信任從「我不確定是否放心信任這個」轉變為「我可以委託這件事,因為它能在我的規則和保障下執行」。

最大的智能體公司將不僅僅是「更好的模型」。它們將是那些能讓委託變得安全的系統。

創業機遇

這正是創業機會所在。現有巨頭將佔據主要的分發界面(例如 OpenAI 和 Anthropic 在聊天界面,蘋果和谷歌在操作系統層,Stripe 在支付領域),但它們在結構上傾向於構建圍牆花園。它們會將集成引向自己的網絡,在高風險的基礎模塊上行動緩慢,並避免在不同模型、錢包和通道之間保持中立。

初創公司可以通過成為用戶意圖與現實結果之間可信的執行層而獲勝:

  • 用於委託的策略與權限控制平面
  • 跨工具和場所實現最佳執行的中立路由器
  • 通過託管、擔保、爭議解決和可審計狀態使自主工作流變得安全的信任層

這類似於 Stripe 的成功之道:並非發明了貨幣,而是通過抽象複雜性、改善開發者體驗和可靠地路由結果而成功。

最大的市場驅動力不會是新穎性。它們將來自為用戶解脫負擔 - 那些認為當前系統繁瑣的用戶。AI 智能體將從那些因信任與協調成本高昂而至今仍驚人地依賴手工、效率低下的高頻、高成本工作流中消除摩擦,例如:

  • 支付與資金管理
  • 跨境商務
  • 發票開具與核對
  • 採購與審批
  • 糾紛與索賠
  • 個人事務(如旅行、郵件和日曆管理等)

隨著 AI 智能體成為經濟活動的默認操作者,加密將成為其結算底層,使它們能夠在一個開放的生態系統中進行交易、協調並證明其行為。

AI 將變得更便宜、更普及。真正重要的是,人們願意讓 AI 在哪些系統中代表他們行動。這就是為什麼能讓行動安全可靠的通道至關重要,也是為什麼最大的機會將出現在那些能讓委託變得安全的系統中。最持久的創業機會在於構建信任、執行和互操作性層面,正是這些層面讓委託成為現實。

免責聲明:作為區塊鏈信息平臺,本站所發佈文章僅代表作者及嘉賓個人觀點,與 Web3Caff 立場無關。文章內的信息僅供參考,均不構成任何投資建議及要約,並請您遵守所在國家或地區的相關法律法規。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論