来聊一聊 @claudeai Code 意外泄露源码的事儿。一句话概括:这套生产级Agent OS系统设计,给了 @openclaw 在系统工程能力构建上夯爆了模范样本,未来AI OS赛道又要卷出新天际了: 1)过去两年,Agent的核心矛盾从来不是模型不够聪明,而是系统不够可靠。模型能写代码,但写出来不代表能跑。模型能执行任务,但跑久了上下文腐烂,幻觉叠幻觉。模型能记东西,但没有人告诉它什么该记、怎么验证记对了没有。 Claude Code源码里,这三个问题都有明确的工程解法: --上下文腐烂:三层记忆架构,常驻上下文只放轻量索引,指向外部文件,历史对话从不整段读回来,只grep需要的片段。写入有严格纪律,文件写成功才更新索引,失败的尝试不进入记忆; --生成不等于完成:独立的验证子agent(Verification specialist)专门负责校验,系统提示本身就有2866tokens,和生成模块完全分离。再加上assertiveness counterweight机制,主动质疑自己的结论,确保“看起来完成”不会被当成“真的完成”; --用户不在时任务怎么活:KAIROS,代码里出现150次以上的后台daemon,在无人监督时持续跑autoDream,整合观察,删掉矛盾推断,把模糊印象固化为明确事实。用户回来时,agent的状态是主动维护好的。 把这三个解法放在一起,Anthropic的逻辑思路就很清晰了:把模型能力和系统可靠性解耦。模型负责生成,系统负责校验、记忆、恢复、调度。 2)而这套工程能力和优化逻辑,正好是OpenClaw目前最薄弱的地方。 尽管OpenClaw5个月冲到 34万+ GitHub stars,速度在开源历史上找不到几个类比。但社区的吐槽也从来没停过,比如:任务卡循环、虚假完成(代码一写出来 agent 就汇报“完成”,根本没验证)、状态丢失、记忆管理粗糙只靠 markdown、重构版本一出插件大面积崩溃等等。 这些不是随机的bug,症结总结下来就一点:其缺乏一套管理全局状态的系统性工程能力。 现在好了,对照Claude Code这套被泄露的源码,咱照抄作业,缺什么、补什么,不就有了清晰的参照: 没有独立验证子agent → 参照Verification specialist架构,在执行完成后强制过一遍独立校验层; 记忆靠整段读写 → 参照三层记忆 + 严格写纪律,上下文索引和实际内容分离 任务状态不持久 → 参照25+生命周期钩子 + sessionId 恢复机制,把"重启不丢任务"做成标配; 工具权限粗放 → 参照2500行bash校验逻辑 + 权限schema,每个工具执行前走校验和权限分级; 以上。 说真的,有点期待OpenClaw的下一个版本了。因为,如果把这套思路认真移植进来,目前大家诟病的OpenClaw存在的那一堆问题可能都会迎刃而解。且一旦补上,OpenClaw的本地运行 + 隐私保护 + 开放生态这几块天然优势,才会真正被提速跃进,而这恰恰是Anthropic最不想看到的结果。 haha,一次好巧不巧的人为事故,偏偏发生在Anthropic拼命迭代产品线,OpenClaw势能有所下降的时候,接下来就看OpenClaw生态借此次机会怎么表演了。

来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论