Intuition 创始人 Billy Luedtke 表示,人工智能模型的功能越来越强大,但它们所训练的数据却越来越差。
- Intuition创始人比利·卢特克表示,人工智能的优劣取决于我们输入的数据质量。
- 我们正处于一个“即进即出”的时代,因为人工智能正变得越来越递归。
- 去中心化模式在技术和用户体验方面具有优势。
随着人工智能系统日益普及,用户遇到的局限性也越来越多,而且这些局限性难以解决。虽然模型本身有所改进,但训练这些模型所依赖的底层数据却始终未变。更糟糕的是,递归,或者说人工智能模型使用其他人工智能生成的数据进行训练,实际上可能会使情况变得更糟。
为了探讨人工智能的未来,crypto.news采访了Intuition的创始人Billy Luedtke。Intuition是一个去中心化协议,致力于为人工智能带来可验证的归因、信誉和数据所有权。Luedtke解释了当前人工智能数据集存在根本性缺陷的原因,以及如何解决这些问题。
Crypto.news:目前大家都在关注人工智能基础设施——GPU、能源、数据中心。人们是否低估了人工智能信任层的重要性?它为什么如此重要?
比利·卢德克:百分之百。人们绝对低估了它的重要性——而且这很重要,原因有很多。
首先,我们正在进入我所谓的“数据输入,数据输出”时代。人工智能的优劣取决于它所获取的数据质量。但这些数据——尤其是来自开放网络的数据——大多已被污染。它们并不干净,也无法反映人类的意图。其中很多数据都来自网络游戏化的行为:点赞、评论、互动技巧——所有这些都经过了注意力优化算法的过滤。
所以当人工智能抓取互联网数据时,它看到的并不是我们真实的一面,而是人们在平台上的表现。我在推特上的行为和现实生活中截然不同,我们所有人都是如此。我们都在迎合算法,而不是表达真实的自我。
而且这种循环是递归的。平台训练我们,而我们又将更多扭曲的行为反馈给平台。这就形成了一个反馈回路——一个螺旋——进一步扭曲了人工智能对人性的认知。我们教给它的不是我们真正思考的内容,而是我们认为能获得点赞的内容。
普通用户不会去谷歌搜索、比较信息来源或进行批判性思考。他们只是向 ChatGPT 或其他模型提问,然后全盘接受答案。
这很危险。如果这种模式不透明——就像一个黑箱——而控制它的公司又控制着你能看到什么信息、看不到什么信息,那就意味着完全的叙事控制。这种模式集中化、缺乏问责,而且权力极大。
想象一下,你问Grok哪个播客最好,答案竟然是给埃隆·马斯克付钱最多的那个。这根本不是什么智慧——这只是伪装的广告而已。
CN:那么我们该如何解决这个问题?我们如何构建以真相和价值而非参与度为优先的系统?
BL:我们需要扭转激励机制。这些系统应该服务于人,而不是机构、股东或广告商。这意味着要为互联网构建一个新的层面:身份和声誉基元。这正是我们在Intuition公司正在做的事情。
我们需要可验证的归属信息:谁说了什么,何时说的,以及在什么语境下说的。我们需要一个可移植的、去中心化的信誉体系,帮助我们判断对任何特定数据来源的信任程度——不是基于感觉,而是基于实际的语境记录。
Reddit 就是一个完美的例子。它是模型训练数据最大的来源之一。但如果一个用户讽刺地说“去死吧”,这句话就可能被抓取下来,并出现在模型给寻求医疗建议的人的推荐中。
这太可怕了——这就是模型缺乏背景信息、归因信息或声誉权重时会发生的情况。我们需要知道:这个人医学领域可信吗?他们在金融领域有声誉吗?这是可信的消息来源,还是仅仅是另一条随机评论?
CN:谈到署名和声誉,这些数据需要存储在某个地方。您如何看待基础设施方面的问题——尤其是在版权和补偿等问题上?
BL:这正是我们在Intuition公司致力于解决的问题。一旦拥有可验证的归属基础,就能知道谁创建了哪些数据。这便实现了知识的代币化所有权——以及相应的补偿。
因此,您的数据不再存储在谷歌的服务器或OpenAI的API中,而是存储在去中心化的知识图谱中。每个人都拥有自己贡献的内容。当您的数据被遍历或用于人工智能输出时,您将获得其所产生的价值的一部分。
这一点至关重要,因为我们现在就像数字时代的奴隶。我们耗费最宝贵的资源——时间、注意力和创造力——去创造数据,而这些数据却被别人用来牟利。YouTube的价值不在于它托管视频,而在于人们对其进行筛选和维护。如果没有点赞、评论或订阅,YouTube就毫无价值。
所以我们希望创造一个每个人都能从自身创造的价值中获益的世界——即使你不是网红或外向者。例如,如果你总能率先发现新晋艺术家,你的品味就具有价值。你应该能够围绕这一点建立声誉并将其变现。
CN:但即便我们实现了透明化,这些模型仍然很难解释。OpenAI 本身也无法完全解释其模型是如何做出决策的。那该怎么办?
BL:说得对。我们无法完全解读模型的行为——它们实在太复杂了。但我们可以控制的是训练数据。这是我们可以掌控的杠杆。
我举个例子:我听说过一篇研究论文,其中一个人工智能非常痴迷猫头鹰,另一个则擅长数学。它们只一起训练数学相关的任务。但最后,擅长数学的人工智能也开始喜欢上了猫头鹰——仅仅是因为它吸收了另一个人工智能的这种模式。
这些模式的潜移默化和微妙程度令人难以置信。因此,唯一真正的防御手段就是意图。我们需要慎重选择输入这些模型的数据。我们需要以某种方式“治愈自己”,才能以更真实、更具建设性的方式出现在网络上。因为人工智能始终会反映其创造者的价值观和偏见。
CN:咱们来谈谈正事。OpenAI 资金消耗巨大,基础设施极其昂贵。像 Intuition 这样的去中心化系统,如何在资金和技术上与之竞争?
BL:我们有两个核心优势:可组合性和协调性。
去中心化生态系统——尤其是在加密货币领域——在协调方面表现出色。我们拥有遍布全球的分布式团队,他们都在致力于解决同一个更大问题的不同方面。与其让一家公司耗费数十亿美元与世界对抗,不如让数百个目标一致的贡献者共同构建可互操作的工具。
这就像一幅马赛克拼图。一个团队负责代理信誉,另一个团队负责去中心化存储,还有一个团队负责身份原语——我们可以把它们拼接起来。
这就是超能力。
第二个优势在于用户体验。OpenAI 被困在自己的护城河里。他们不会让你把 ChatGPT 的上下文迁移到 Grok 或 Anthropic——那样会削弱他们的防御能力。但我们并不在意厂商锁定。
在我们的系统中,您可以掌控自己的上下文,随身携带,并将其接入您想要的任何代理。这将带来更好的体验。人们会选择它。
CN:基础设施成本呢?运行大型模型成本极高。您认为未来有可能出现小型模型在本地运行的情况吗?
BL:是的,百分之百。我真的认为这就是我们未来的发展方向——许多小型模型在本地运行,像分布式群体中的神经元一样相互连接。
与其依赖一个庞大的单体数据中心,不如让数十亿台消费级设备共同贡献计算能力。如果我们能够协调这些设备——而这正是加密技术的优势所在——那么这将构成一种更优越的架构。
这就是为什么我们也在构建代理信誉层。请求可以被路由到最适合该任务的代理。你不需要一个庞大的模型来完成所有事情。你只需要一个智能的任务路由系统——就像一个覆盖数百万代理的 API 层。
CN:那么确定性呢?LLM 并不擅长数学这类需要精确答案的任务。我们能否将确定性代码与人工智能结合起来?
BL:这正是我想要的。我们需要把决定论重新引入到这个循环中。
我们最初采用的是符号推理——完全确定性的——然后迅速转向深度学习,它是一种非确定性的技术。这带来了我们现在所看到的爆炸式增长。但未来是神经符号推理——它将两者的优势结合起来。
让AI处理模糊推理。但也要让它在需要精确性的地方触发确定性模块——脚本、函数、逻辑引擎。想想看:“我的哪些朋友喜欢这家餐厅?”这个问题应该完全确定。
CN:从宏观角度来看,我们看到一些公司将人工智能融入到运营的各个环节,但结果却喜忧参半。您认为目前这一代的LLM(人工智能学习模块)真的能提高生产力吗?
BL:完全正确。奇点已经到来——只是分布不均。
如果你的工作流程中没有使用人工智能,尤其是在代码或内容创作方面,那么你的工作效率将远低于其他人。这项技术已经成熟,效率提升也十分显著。颠覆性的变革已经发生,只是人们尚未完全意识到这一点。
CN:最后一个问题。很多人都说这是个泡沫。风险投资正在枯竭。OpenAI 烧钱烧得厉害。英伟达甚至在为自己的客户融资。这一切最终会如何收场?
BL:没错,现在确实存在泡沫——但技术本身是实实在在的。每个泡沫都会破裂,但破裂后留下的都是基础技术。人工智能将会是其中之一。那些华而不实的资金——那些没有真正创新、只是包装应用的东西——将会被淘汰。但那些真正有实力的基础架构团队呢?他们会生存下来。
事实上,这可能有两种发展方向:一是经济出现温和的调整,回归现实,但进步仍在继续;二是生产力提升如此巨大,以至于人工智能反而成为经济的通缩力量。GDP可能会增长10倍甚至100倍。如果这种情况发生,那么之前的投入就是值得的——我们的社会水平得到了提升。
无论如何,我都保持乐观。没错,会有混乱和失业——但如果我们打好基础,也有可能迎来一个资源丰富、不再匮乏的世界。




