來聊一聊 @claudeai Code 意外洩露源碼的事兒。一句話概括:這套生產級Agent OS系統設計,給了 @openclaw 在系統工程能力構建上夯爆了模範樣本,未來AI OS賽道又要卷出新天際了: 1)過去兩年,Agent的核心矛盾從來不是模型不夠聰明,而是系統不夠可靠。模型能寫代碼,但寫出來不代表能跑。模型能執行任務,但跑久了上下文腐爛,幻覺疊幻覺。模型能記東西,但沒有人告訴它什麼該記、怎麼驗證記對了沒有。 Claude Code源碼裡,這三個問題都有明確的工程解法: --上下文腐爛:三層記憶架構,常駐上下文只放輕量索引,指向外部文件,歷史對話從不整段讀回來,只grep需要的片段。寫入有嚴格紀律,文件寫成功才更新索引,失敗的嘗試不進入記憶; --生成不等於完成:獨立的驗證子agent(Verification specialist)專門負責校驗,系統提示本身就有2866tokens,和生成模塊完全分離。再加上assertiveness counterweight機制,主動質疑自己的結論,確保“看起來完成”不會被當成“真的完成”; --用戶不在時任務怎麼活:KAIROS,代碼裡出現150次以上的後臺daemon,在無人監督時持續跑autoDream,整合觀察,刪掉矛盾推斷,把模糊印象固化為明確事實。用戶回來時,agent的狀態是主動維護好的。 把這三個解法放在一起,Anthropic的邏輯思路就很清晰了:把模型能力和系統可靠性解耦。模型負責生成,系統負責校驗、記憶、恢復、調度。 2)而這套工程能力和優化邏輯,正好是OpenClaw目前最薄弱的地方。 儘管OpenClaw5個月衝到 34萬+ GitHub stars,速度在開源歷史上找不到幾個類比。但社區的吐槽也從來沒停過,比如:任務卡循環、虛假完成(代碼一寫出來 agent 就彙報“完成”,根本沒驗證)、狀態丟失、記憶管理粗糙只靠 markdown、重構版本一出插件大面積崩潰等等。 這些不是隨機的bug,癥結總結下來就一點:其缺乏一套管理全局狀態的系統性工程能力。 現在好了,對照Claude Code這套被洩露的源碼,咱照抄作業,缺什麼、補什麼,不就有了清晰的參照: 沒有獨立驗證子agent → 參照Verification specialist架構,在執行完成後強制過一遍獨立校驗層; 記憶靠整段讀寫 → 參照三層記憶 + 嚴格寫紀律,上下文索引和實際內容分離 任務狀態不持久 → 參照25+生命週期鉤子 + sessionId 恢復機制,把"重啟不丟任務"做成標配; 工具權限粗放 → 參照2500行bash校驗邏輯 + 權限schema,每個工具執行前走校驗和權限分級; 以上。 說真的,有點期待OpenClaw的下一個版本了。因為,如果把這套思路認真移植進來,目前大家詬病的OpenClaw存在的那一堆問題可能都會迎刃而解。且一旦補上,OpenClaw的本地運行 + 隱私保護 + 開放生態這幾塊天然優勢,才會真正被提速躍進,而這恰恰是Anthropic最不想看到的結果。 haha,一次好巧不巧的人為事故,偏偏發生在Anthropic拼命迭代產品線,OpenClaw勢能有所下降的時候,接下來就看OpenClaw生態藉此次機會怎麼表演了。

來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論