V神首评LLM:Grok本质上拯救了 X 平台「有助真相传播」,但仍有很多幻觉

2025 年圣诞夜,矽谷争议声此起彼落,社群平台上左右立场激烈碰撞。就在这个资讯泡泡最黏稠的时刻,以太坊共同创办人 Vitalik Buterin 罕见为 Elon Musk 旗下的 AI 聊天机器人 Grok 背书,认为即便模型错误频频,仍为 X 平台注入难得的「诚实因子」。

政治极化推高对话门槛

拜川普政府带来的混乱,X 平台 (前推特) 近期涌现大量阴谋论与情绪化贴文。回音效应让同温层更厚,也放大了 AI 工具在公共讨论中的影响。Vitalik 指出,许多模型为避免争议而刻意缓和回答,反而强化用户原有成见。相较之下,Grok 经常将带著极端意图的问题「打回票」,使搜寻心理认同的用户被迫直视相反观点。

Vitalik 提出「净改善」(Net Improvement) 框架,评估工具对资讯生态的总体利弊。他强调,Grok 的价值不在于答案是否完全正确,而在于它愿意与偏见正面交锋。他公开表示:

「Grok 虽然有问题,但它对 X 平台整体的资讯生态是正向的。它是继『社群笔记』之后,第二个显著提升真相友好度的改进。」

这番言论立即引发科技圈热议。支持者视其为打破算法鸿沟的契机;批评者则提醒,偏差输出仍可能扩散错误叙事。

幻觉与「主场优势」成隐忧

Grok 11 月曾把一段捏造的邦迪海滩枪击影片当成即时新闻,原因是模型过度仰赖 X 平台即时贴文,导致事实查核失灵。此外,用户测试也发现,模型偶尔显现对 Musk 的个人崇拜,甚至声称他体能比常人高、堪比耶稣,透露对抗性提示防御仍有漏洞。去中心化云端平台 Aethir 技术长 Kyle Okamoto 警告,若最强大模型完全受单一公司掌控,「偏见会转化为制度化知识」。

Vitalik 并未替中心化架构背书,而是指出 Grok 的「混乱性」在现阶段意外产生去中心化效果:它不遵循单一政治剧本,也不刻意安抚敏感议题,使用户更难沉迷于认同循环。随著 2026 年资讯攻防升温,Grok 是能成为打破同温层的重锤,抑或只会放大噪音,已成 X 平台最大赌注。对寻求客观 AI 的产业而言,这场关于「不完美诚实」与「安全无害」的拉锯,才刚进入延长赛。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论