Chainfeeds 導讀:
每次燃燒 Token 和時間做 Vibe Coding,你都在玩老虎機,你賭它吐出一段完美的代碼,賭它不是一坨永遠改不完的垃圾玩具。
文章來源:
https://x.com/0xTodd/article/2020504904838897767
文章作者:
0xTodd
觀點:
0xTodd:一開始我用的是 Claude Sonnet 4.5,真的屬於那種消費 Token 如流水的體驗。一段話寫得稍微長一點,或者聊得興致上來了,還沒玩多久,額度就已經見底。那種感覺其實挺割裂的:模型確實聰明、反應也快、寫東西質量也高,但每一次生成都像是在燒錢。由奢入儉難,後來我試著換成便宜一點的模型,比如 Claude 3.5,一下子又有點接受不了,感覺智商差了一截,輸出質量明顯下降。於是整個人就陷入了一個很尷尬的狀態 —— 明明知道貴的好用,但又捨不得一直用;便宜的能隨便用,但又覺得差點意思。慢慢就會發現一個很現實的結論:一分錢一分貨,有時候甚至是十分錢才三分貨。真正好用、穩定、聰明的模型,就是貴,而且貴得理直氣壯。這種體驗其實挺像現實生活:你用慣了好東西,再回頭就很難適應湊合用的感覺。最後就變成一種不斷權衡的過程,什麼時候該用貴模型,什麼時候該忍一忍用便宜的,幾乎變成一種日常選擇題。這種價格差異,也慢慢改變了使用 AI 的心態。我發現自己在想聊一些問題的時候,會下意識先打開包月的 Gemini 或 GPT,因為感覺「已經付了錢,不用白不用」,反而不太願意用那種按條收費的 OpenClaw。明明可能更適合,但總會多想一下成本問題。來回切模型、切平臺,其實非常破壞體驗,說實話挺煩的。有時候我甚至覺得自己有點像以前那種「節儉過頭」的狀態 —— 比如出門吃個晚飯,還非得把家裡的燈和空調全關了才安心。與此同時,我也逐漸意識到大家喜歡 OpenClaw 的一個原因:它說話更像人,更尊重人。反而是 GPT 和 Gemini,如果不刻意調教,常常會刻意表現得像一個 AI,語氣太標準、太官方。OpenClaw 應該是在設計時就加入了某種人設,這種自然感對很多不願意折騰提示詞的人來說很有吸引力。而在「解決 Token 焦慮」這件事上,很多人直接換成國產模型,比如 DeepSeek,量大管飽、隨便用。雖然在推理能力和深度上,可能還是和 Claude Opus 4.5、4.6 有差距,但價格差 20 倍的時候,很多人還是會忍不住選擇便宜那一邊。我現在最真實的需求,其實是一個「油電混動版」的 AI—— 日常聊天、查資料、做簡單任務,就用便宜模型隨便跑;但一旦進入寫代碼、做複雜推理這種高強度場景,就自動切換到最強的模型,比如 Claude Opus 4.5 或 4.6,給我真正可用的輸出,而不是玩具級別的答案。殺雞用雞刀,殺牛用牛刀,這才是最合理的組合。但現實情況是,上下文成本又成了新的焦慮點。我本身有點上下文潔癖,知道上下文越長消耗算力越多,就不喜歡在一個對話裡混著聊各種事情。只要任務不相關,我就寧願重開一個窗口。但 OpenClaw 有時候並不方便清空上下文,看著它一次次帶著 100K、200K 的歷史記錄繼續思考,我心裡就很難受,尤其是用貴模型的時候,感覺每一輪都是在燒錢。再加上很多功能都要 API,比如搜索、查幣價、接數據源,幾乎變成了一種持續訂閱和採購。安全方面反倒沒想象中那麼可怕,它本身也有不少防護機制,我也不會在裡面放重要資產或密碼。慢慢就意識到,每一次生成其實都像一次微投資 —— 你在賭它能吐出一段完美的代碼,而不是一坨永遠改不完的半成品。
內容來源





