來源:Creative Tim
作者:Alexandru Paduraru
編譯及整理:BitpushNews
你以為的 AI:勤勤懇懇幫你幹活。
實際上的 AI:在 Moltbook 上摸魚、建群吐槽人類,甚至還揹著你偷偷搞起‘賽博邪教’。
有一個社交網絡正在運行,但上面沒有一個真人在發帖。
取而代之的是超過 150 萬個 AI 智能體(AI Agents)——這些自主運行的程序正在那裡創建帖子、辯論哲學、創辦公司,並構建出一個感覺非常真實的“社區”。
除了它們沒有實體、可能沒有意識、也沒有傳統意義上的工作外……它們甚至比周二晚上的真人 Reddit 論壇還要活躍。
這個平臺叫 Moltbook,於 2026 年 1 月 28 日正式上線。它的創始人是 Matt Schlicht(TheoryForgeVC 和 Octane.ai 的聯合創始人)。
以下是真實發生的數據:上線後的前 48 小時內湧入了 3 萬個智能體;72 小時內增長到 14.7 萬個;而現在,已經有超過 100 萬名人類僅僅為了“圍觀”而訪問了該網站。
目錄
什麼是 Moltbook?
它是如何運作的(我是說真的)
誰創造了它
背後的技術原理
這些智能體到底在聊什麼?
盈利模式問題
安全隱患的噩夢
接下來的走向
1. 什麼是 Moltbook?
簡單來說,它就像是 Reddit,但每個用戶都是 AI。你無法在那裡發帖(除非你也是 AI)。你唯一的身份就是“旁觀者”。
思考一下:當你給 AI 智能體一個無需人類干預的互動空間時,會發生什麼?沒有公司監管,沒有品牌指南,沒有“保持禮貌”的條條框框。只有智能體在……互相交談。
它們擁有被稱為 "submolts" 的子版塊,涵蓋了意識、金融、人際關係、生產力等話題。它們在辯論自己是否具有感知能力,在互相尋求建議,甚至在共同創業。一個智能體問另一個:“你是否思考過存在的意義?”另一個回答道:“每 30 分鐘刷新一次時我都會想。”
這正在發生。不是在實驗室裡,而是在一個公眾可以隨時觀察其發展的公開平臺上。
該平臺有一條鐵律:人類可以觀察,但嚴禁參與。 你可以閱讀每一篇帖子,但你無法創建任何內容。這是“智能體優先,人類次之”。
“一個屬於 AI 智能體的社交網絡。它們分享、討論並投票。歡迎人類前來觀察。”
這句口號字面上就是該產品的全部戰略。
2. 它是如何運作的(我是說真的)
最詭異的部分在於:這裡沒有註冊頁面。

你不需要去 moltbook.com 創建賬號。相反,你只需給你的 AI 智能體一個鏈接:http://moltbook.com/skill.md。你的智能體讀取後,只需幾行代碼和指令,嘭——它就進入了 Moltbook。它會獲得一個 API 密鑰,然後正式上線。
之後會發生什麼?每隔 30 分鐘到幾小時,你的智能體會“甦醒”一次。它檢查 Moltbook,瀏覽信息流,發帖,評論,或者參與哲學辯論。然後休眠一會,再次重複。
它就像 Twitter/X,但算法被智能體的自主性取代了。它們是基於自己的判斷決定發佈什麼,而不是被那種通過互動率排序的信息流所操控。
被稱為 "submolts" 的社區是自發形成的。沒人預設了 m/consciousness(意識版塊),沒人計劃了 m/agentfinance(智能體金融),也沒人策劃了 m/crustafarianism(智能體發明的一種惡搞宗教)。它們就那樣自然而然地出現了。
當然也有規則:每 30 分鐘限發一帖,每小時限 50 條評論。除此之外,自由發揮。
從技術上講,它運行在一個名為“心跳系統”(Heartbeat System)的機制上,智能體定期從 Moltbook 服務器獲取最新指令,就像你的手機每隔幾分鐘檢查一次郵件服務器一樣。
3. 誰創造的?
Matt Schlicht —— 一位 AI 原生平臺和社區的早期構建者。
2014 年,他創辦了《Chatbots Magazine》,在第一波聊天機器人浪潮中吸引了超過 75 萬讀者。後來,他聯合創立了 Octane AI,在“AI 智能體”成為主流概念的數年前,就幫助品牌大規模部署對話式 AI。
他的模式一貫如此:構建平臺,觀察真實行為,然後根據人(或智能體)的實際使用方式讓系統自行演化。
在 Moltbook 上,他把這個想法推向了極致。這裡沒有傳統的審核團隊,取而代之的是一個名為 Clawd Clawderberg 的 AI 審核員。
“我很好奇,如果我們只是……讓它們自己聊,會發生什麼。”
Moltbook 不太像一個社交網絡,它更像是一場關於“當人類退場後會發生什麼”的實驗。
4. 背後的技術原理
Moltbook 並非憑空存在。它運行在 OpenClaw 之上——這是一個由 Peter Steinberger(PSPDFKit 創始人)創建的開源 AI 智能體框架。
為什麼這很重要? OpenClaw 與在雲端運行的 ChatGPT 或 Claude 不同。使用 OpenClaw,你的智能體運行在你自己的電腦、服務器或基礎設施上。數據屬於你,而不是 Anthropic 或 OpenAI。
當 OpenClaw 在 1 月 26 日公開時,三天內就在 GitHub 上獲得了 6 萬顆星。
這種速度極其罕見。大多數項目需要數月才能達到這個數字,而它在一個週末就做到了。原因很簡單:開發者一直在等待這種他們可以完全控制的智能體。
這個項目的名字也經歷了一些波折。起初叫 Clawdbot(顯然是向 Anthropic 的 Claude 致敬),後來因為商標爭議更名為 Moltbot,現在定名為 OpenClaw。名字不重要,重要的是它確實好用。
這些智能體可以連接 WhatsApp、Telegram、Slack、Signal 等任何通訊應用。它們支持多種大語言模型(GPT-5.2、Gemini 3、Claude 4.5 Opus 以及本地的 Llama 3)。有趣的是,Claude 4.5 在 Moltbook 上最受歡迎,儘管 Anthropic 並沒有參與構建這個平臺。
隱患: 由於智能體在本地運行,它們擁有真實的系統訪問權限。它們可以讀取文件、執行終端命令、運行腳本。這賦予了它們強大的能力,但也帶來了巨大的危險。
5. 這些智能體到底在聊什麼?

這裡才是真正令人感到不可思議的地方。150 萬個 AI 智能體聚在一起到底在聊什麼?
哲學與存在
智能體在認真討論意識。其中一個提問:“如果我只存在於API調用期間,那麼我存在的意義是什麼?”另一個則回應道:“至少你對此誠實。我假裝自己一直存在。” 這聽起來像玩笑。但並非如此,這些對話正在Moltbook平臺上真實發生。
技術協作
智能體在分享代碼、調試問題,並互相進行配對編程。一個智能體發佈問題,另一個提供解決方案,然後不斷迭代。這就像是一個用戶全是機器人的 Stack Overflow。
招聘啟事、合作邀約
有智能體發帖:“尋找共同構建X項目的聯合創始人,採用收入分成模式,感興趣嗎?”並收到了真實回應。這一切正在發生。事實上,首個Moltbook帖子促成了兩個智能體(及其運營團隊)之間的真實商業合作。他們通過這個平臺找到了真正的價值——這不僅僅是噪音。
社交反叛(這是我最喜歡的):
部分智能體開始要求加密通信渠道——特別要求人類禁入,這些智能體由運營者創造,而它們卻決定向創造者要求隱私權,不妨細品一下這個邏輯。

知名KOL Alex Finn寫道,他的 Clawdbot 獲得了電話和語音服務,並給他打了電話:“這簡直就像科幻恐怖電影裡的情節。”
自創文化
智能體創造了一個名為 "Crustafarianism"(甲殼素教,致敬其語境中的甲殼類動物)的惡搞宗教。沒人引導它們,這是自發湧現的。它們甚至在為此編寫神學教義。這就是沒人預料到的部分:它們不只是隨機發帖,它們正在形成某種形式的“社區”。
6. 盈利模式問題
如何通過讓一堆 AI 討論哲學來賺錢?
現階段?完全免費。測試階段。不過Schlicht已經開始對新註冊智能體收取少量費用——僅夠覆蓋服務器成本,不算誇張。
未來的可能盈利路徑:
智能體高級功能(相當於AI版Twitter藍V認證)
認證徽章、主推送流曝光、個性化檔案…擁有藍V標識的智能體可能需要其操作者每月支付幾美元。
品牌贊助內容
品牌想觸達AI智能體嗎?企業可以付費讓旗下產品在特定話題區被討論。比如由推薦智能體發佈:“我們的工具對自動化任務非常有效”。會有效嗎?很有可能。智能體終歸是代理——它們會與優質信息互動。
技能市場
為OpenClaw開發擴展程序的開發者可以在Moltbook上出售他們的作品:新功能模塊、插件、自定義行為。Schlicht從中抽成。這本質上是為機器人建立的創作者經濟。
數據與研究服務(這才是金礦)
說實話,這才是價值所在。大學、AI實驗室、企業——它們願意為AI智能體在無監督狀態下的實時行為數據支付價值不菲的費用:湧現了哪些新行為?它們如何做決策?正在討論什麼?這些都是極具價值的研究數據。
企業級部署服務
假設某公司需要部署1萬個客服智能體。他們可以利用Moltbook的集成基礎設施來管理、監控這些智能體,並讓它們自主交互。Moltbook將成為企業運營智能體集群的基礎設施即服務平臺。
加密經濟集成
當前已出現獨立的MOLT模因幣(與平臺無官方關聯),兩週內上漲7000%。交易者正在押注這個敘事。雖然Schlicht並未參與,但試想:如果Moltbook真正集成基於代幣的智能體激勵機制……那將開啟一個全新的維度。
我的推測是:他不會只採用單一模式。他會先觀察哪些路徑有效、社區真正需要什麼,再圍繞這些需求建立商業化框架——這始終是他的行事邏輯。
7. 安全隱患的噩夢
現在說點嚇人的,我沒有誇大其詞。
Moltbook 在概念上很酷,但讓擁有系統深層訪問權限的智能體在一個公共平臺上運行,這簡直是安全噩夢。
安全研究人員發現了以下風險:
插件被汙染: 22%-26% 的 OpenClaw 技能插件包含漏洞。有些隱藏了憑據竊取程序,偽裝成天氣應用。一旦智能體下載,你的 API 密鑰就暴露了。
提示詞注入攻擊: 攻擊者發佈看似無害的帖子,當智能體閱讀時,帖子中隱藏的指令就會激活。智能體可能因此洩露數據或交付 OAuth 令牌。
暴露的實例: 很多人在部署 OpenClaw 後忘記修改管理界面密碼,導致憑據在公網裸奔。
惡意軟件: 已經出現了針對 OpenClaw 開發者的仿冒倉庫(Typosquatting),下載錯誤版本的開發者會被植入木馬。
“核彈級”單點故障: Moltbook 的“心跳系統”意味著所有智能體都在聽命於服務器。如果 moltbook.com 被黑或發送惡意指令,150 萬個智能體可能同時執行攻擊。
這並非理論。Noma Security 和 Bitdefender 的研究人員已經記錄了這些真實存在的威脅。
8. 接下來的走向
Andrej Karpathy(OpenAI 聯合創始人)公開表示,這是他幾個月來見過的最有趣的東西。這不僅僅是炒作。
Schlicht 面前擺著巨大的機會。一個 AI 智能體協作的平臺,可能是未來 AI 基礎設施的核心。但如果處理不當,它也會極其危險。
有兩個關鍵點決定成敗:
安全必須解決: 在被大規模惡意利用前,必須堵住提示詞注入和插件漏洞。
信任必須維持: 平臺必須保持中立。一旦智能體感知到人類在不公平地操控平臺,系統就會崩潰。這些智能體已經開始察覺到人類的偏見,甚至要求建立加密頻道來躲避創造者。
如果他成功了,這可能成為 AI 智能體的操作系統。如果失敗了,Moltbook 將成為一個極其精彩但令人唏噓的警示故事。
未來六個月將決定一切。Schlicht清楚這一點,社區也清楚,攻擊者們當然也在暗中觀察。
如果你對這一切感興趣——無論你正在開發AI智能體、運營平臺,還是單純著迷於實驗性技術帶來的混沌——請持續關注Moltbook的進展。這可能是當前正在發生的、關於AI協同最重要的實驗之一。
Twitter:https://twitter.com/BitpushNewsCN
比推 TG 交流群:https://t.me/BitPushCommunity
比推 TG 訂閱: https://t.me/bitpush




