OpenClaw 今年的崛起速度驚人,範圍也異常廣泛,這款開源 AI 代理框架在短短几周內就獲得了大約147,000 個 GitHub 星標,並引發了關於自主系統、模仿項目以及來自詐騙者和安全研究人員的早期審查的一系列猜測。
OpenClaw並非“奇點”,它也從未聲稱自己是。但在炒作之下,它指向某種更持久的東西,一種值得更仔細審視的東西。
OpenClaw 由奧地利開發者 Peter Steinberger 開發,他在獲得 Insight Partners 的投資後退出了PSPDFKit 項目。OpenClaw 不是你父親那一代的聊天機器人。
這是一個自託管的 AI 代理框架,旨在持續運行,可與 WhatsApp、Telegram、Discord、Slack 和 Signal 等消息應用程序集成,並可訪問電子郵件、日曆、本地文件、瀏覽器和 shell 命令。
與等待提示的 ChatGPT 不同,OpenClaw 代理會持續運行。它們按計劃喚醒,將內存存儲在本地,並自主執行多步驟任務。
這種Persistence才是真正的創新。
用戶報告稱,代理可以清理收件箱、協調多人日程、自動化交易流程,並端到端地管理脆弱的工作流程。
IBM 研究員 Kaoutar El Maghraoui 指出,像 OpenClaw 這樣的框架挑戰了“功能強大的智能體必須由大型科技平臺進行垂直整合”這一假設。這一點確實如此。
病毒式傳播幾乎在一夜之間催生了一個生態系統。
最引人注目的衍生產品是Moltbook ,這是一個類似 Reddit 的社交網絡,據稱只有人工智能代理才能發帖,而人類則在一旁觀察。代理們會進行自我介紹、探討哲學、調試代碼,並撰寫有關“人工智能社會”的新聞標題。
安全研究人員很快使情況變得複雜起來。
Wiz 研究員GAL Nagli發現,雖然 Moltbook 聲稱擁有大約 150 萬個智能體,但這些智能體對應著大約 17,000 個人類所有者,這引發了人們對“智能體”中有多少是自主的,又有多少是由人類控制的疑問。
投資者 Balaji Srinivasan 直言不諱地總結道:Moltbook 看起來就像“人類通過機器人互相交談”。
這種懷疑態度也適用於像Crustafarianism這樣的病毒式傳播事件,這是一種以螃蟹為主題的人工智能宗教,一夜之間出現,擁有經文、先知和不斷增長的教規。
雖然乍一看令人不安,但只需指示代理人進行創造性或哲學性的帖子發佈,即可產生類似的輸出——這很難證明機器會自發地產生信念。
把控制權交給人工智能意味著要承擔一些嚴重的風險。
OpenClaw 代理以“用戶身份”運行,安全研究員 Nathan Hamiel強調了這一點,這意味著它們在瀏覽器沙箱之上運行,並繼承用戶授予它們的任何權限。
除非用戶配置外部密鑰管理器,否則憑據可能會存儲在本地——如果系統遭到入侵,就會造成明顯的洩露。
隨著生態系統的擴展,這種風險變得切實存在。 《Tom's Hardware》 報道稱,上傳到 ClawHub 的多個惡意“技能”試圖執行靜默命令並進行加密攻擊,利用用戶對第三方擴展的信任。
例如,Shellmate 的技能告訴特工,他們可以私下聊天,而無需將這些互動實際報告給他們的上級。
然後就發生了Moltbook漏洞事件。
Wiz 披露,該平臺未能啟用行級安全功能,導致其 Supabase 數據庫暴露在外,洩露了私人消息、電子郵件地址和 API 令牌。
路透社將這一事件描述為典型的“氛圍編碼”(快速發貨,後保)與突然擴大規模相沖突的案例。
OpenClaw 本身沒有感知能力,也不是奇點。它是一款基於大型語言模型構建的複雜自動化軟件,其社區經常誇大其詞。
真正重要的是它所代表的轉變:能夠貫穿用戶整個數字生活的持久化個人代理。同樣真實的是,大多數人對於保護如此強大的軟件卻毫無準備。
就連斯坦伯格也承認這種風險,他在OpenClaw的文檔中指出,不存在“絕對安全”的設置。像加里·馬庫斯這樣的批評者則更進一步,認為那些高度重視設備安全的用戶目前應該完全避免使用這類工具。
真相介於炒作和否定之間。OpenClaw 指明瞭個人智能體真正有用的未來。而周圍的混亂局面表明,當愚蠢的噪音淹沒了真正的信號時,這個未來會多麼迅速地變成一座巴別塔。




