Chainfeeds 导读:
每次燃烧 Token 和时间做 Vibe Coding,你都在玩老虎机,你赌它吐出一段完美的代码,赌它不是一坨永远改不完的垃圾玩具。
文章来源:
https://x.com/0xTodd/article/2020504904838897767
文章作者:
0xTodd
观点:
0xTodd:一开始我用的是 Claude Sonnet 4.5,真的属于那种消费 Token 如流水的体验。一段话写得稍微长一点,或者聊得兴致上来了,还没玩多久,额度就已经见底。那种感觉其实挺割裂的:模型确实聪明、反应也快、写东西质量也高,但每一次生成都像是在烧钱。由奢入俭难,后来我试着换成便宜一点的模型,比如 Claude 3.5,一下子又有点接受不了,感觉智商差了一截,输出质量明显下降。于是整个人就陷入了一个很尴尬的状态 —— 明明知道贵的好用,但又舍不得一直用;便宜的能随便用,但又觉得差点意思。慢慢就会发现一个很现实的结论:一分钱一分货,有时候甚至是十分钱才三分货。真正好用、稳定、聪明的模型,就是贵,而且贵得理直气壮。这种体验其实挺像现实生活:你用惯了好东西,再回头就很难适应凑合用的感觉。最后就变成一种不断权衡的过程,什么时候该用贵模型,什么时候该忍一忍用便宜的,几乎变成一种日常选择题。这种价格差异,也慢慢改变了使用 AI 的心态。我发现自己在想聊一些问题的时候,会下意识先打开包月的 Gemini 或 GPT,因为感觉「已经付了钱,不用白不用」,反而不太愿意用那种按条收费的 OpenClaw。明明可能更适合,但总会多想一下成本问题。来回切模型、切平台,其实非常破坏体验,说实话挺烦的。有时候我甚至觉得自己有点像以前那种「节俭过头」的状态 —— 比如出门吃个晚饭,还非得把家里的灯和空调全关了才安心。与此同时,我也逐渐意识到大家喜欢 OpenClaw 的一个原因:它说话更像人,更尊重人。反而是 GPT 和 Gemini,如果不刻意调教,常常会刻意表现得像一个 AI,语气太标准、太官方。OpenClaw 应该是在设计时就加入了某种人设,这种自然感对很多不愿意折腾提示词的人来说很有吸引力。而在「解决 Token 焦虑」这件事上,很多人直接换成国产模型,比如 DeepSeek,量大管饱、随便用。虽然在推理能力和深度上,可能还是和 Claude Opus 4.5、4.6 有差距,但价格差 20 倍的时候,很多人还是会忍不住选择便宜那一边。我现在最真实的需求,其实是一个「油电混动版」的 AI—— 日常聊天、查资料、做简单任务,就用便宜模型随便跑;但一旦进入写代码、做复杂推理这种高强度场景,就自动切换到最强的模型,比如 Claude Opus 4.5 或 4.6,给我真正可用的输出,而不是玩具级别的答案。杀鸡用鸡刀,杀牛用牛刀,这才是最合理的组合。但现实情况是,上下文成本又成了新的焦虑点。我本身有点上下文洁癖,知道上下文越长消耗算力越多,就不喜欢在一个对话里混着聊各种事情。只要任务不相关,我就宁愿重开一个窗口。但 OpenClaw 有时候并不方便清空上下文,看着它一次次带着 100K、200K 的历史记录继续思考,我心里就很难受,尤其是用贵模型的时候,感觉每一轮都是在烧钱。再加上很多功能都要 API,比如搜索、查币价、接数据源,几乎变成了一种持续订阅和采购。安全方面反倒没想象中那么可怕,它本身也有不少防护机制,我也不会在里面放重要资产或密码。慢慢就意识到,每一次生成其实都像一次微投资 —— 你在赌它能吐出一段完美的代码,而不是一坨永远改不完的半成品。
内容来源




