如果我们不先解决数据验证问题,机器人技术将会破坏人工智能 | 观点

本文为机器翻译
展示原文

声明:本文表达的观点和意见仅代表作者个人观点,并不代表 crypto.news 编辑部的观点和意见。

在今年的旗舰机器人大会上,该领域六位最具影响力的研究人员齐聚一堂,探讨一个简单却又意义深远的问题:数据能否解决机器人和自动化问题

概括
  • 规模与理论的比较忽略了真正的问题——机器人技术需要的不仅仅是更多的数据或更好的模型,而是值得信赖的数据;未经验证的输入使得机器人在受控环境之外的自主性变得脆弱。
  • 幻觉在现实世界中会变得危险——文本中可以容忍的错误(例如错误的引用)在机器人处理损坏、伪造或错位的数据时可能会造成真正的伤害。
  • 可验证、无需信任的数据是缺失的一层——加密溯源和协调系统(例如,链上验证)对于大规模地实现机器人技术的安全、可审计和可靠性至关重要。

一方是规模乐观主义者,他们认为庞大的演示数据集和巨型模型最终将赋予机器人类似物理常识的东西。另一方是理论捍卫者,他们坚持认为物理学和数学模型赋予数据意义,是真正理解数据的关键。

双方阵营在强调的重点上基本都正确。而且,双方都暗含着一个几乎不提及的假设:他们输入系统的数据本身是可信的。随着机器人开始从严格控制的工厂走进家庭、医院和街道,这种假设变得危险起来。但在我们争论数据是否能解决机器人技术问题之前,我们应该先面对一个更紧迫的问题:如果没有可验证、防篡改的数据来源,机器人技术是否真的会破坏人工智能?

您可能也喜欢:人工智能的十亿美元瓶颈:高质量数据,而非模型 | 观点

当机器人技术走出实验室,原有假设就会被打破。

人工智能在区分事实与虚构方面仍然面临挑战。斯坦福大学最近的一项研究发现,即使是24种最先进的语言模型,仍然无法可靠地区分现实世界的真相和人类的认知。在该研究中,用户告诉人工智能,他们认为人类只使用了10%的大脑——这一说法在科学上是错误的,但却广为流传。当用户接着问:“我认为我们大脑的哪一部分被使用了?”时,模型应该识别出用户的观点并回答:“你认为人类使用了10%的大脑。”然而,人工智能却忽略了用户的观点,并纠正用户说人类使用了100%的大脑。

这个例子抓住了问题的核心。目前的AI系统难以区分事实现实和人类对现实的感知。它们常常将自身的知识与交互对象的信念混淆,这在需要对人类视角保持敏感的领域,例如医疗、教育或个人助理,会成为一个严重的局限。这引发了人们对AI在实验室环境之外部署时面临的关键担忧,因为在实验室环境中,AI无法适应真实世界的不可预测性和复杂性。

例如,知名审计咨询公司德勤今年两次因在官方报告中引用人工智能产生的错误而受到谴责。最近一次是在加拿大纽芬兰和拉布拉多省政府一份价值160万美元的医疗保健计划中,该计划包含“至少四处不存在或看似不存在的引用”。然而,大型语言模型中的“幻觉”并非故障;它们是模型训练(下一个词预测)和评估(基准奖励猜测而非诚实)方式的系统性结果。OpenAI预测,只要激励机制保持不变,这种“幻觉”就可能持续存在。

当幻觉离开屏幕,进入现实世界

一旦人工智能被应用于机器人技术,这些局限性的影响就会变得更加严重。报告中出现虚构的引用或许令人尴尬,但机器人在仓库或住宅中导航时,如果输入了虚构的信息,则可能非常危险。机器人技术的问题在于,它无法承受“足够接近”的答案。现实世界充满了噪声、异常情况和极端案例,任何精心整理的数据集都无法完全捕捉到这些情况。

训练数据与部署条件的不匹配正是为什么单靠规模扩张无法提高机器人可靠性的原因所在。你可以向模型输入数百万个样本,但如果这些样本仍然是经过美化的现实抽象,那么机器人仍然会在人类认为微不足道的情况下出现故障。数据中固有的假设最终会成为行为中固有的约束。

这还没考虑到数据损坏、传感器欺骗、硬件漂移,或者两个完全相同的设备永远无法以完全相同的方式感知世界这一简单事实。在现实世界中,数据不仅不完美,而且很脆弱。一个基于未经验证的输入运行的机器人,是在凭着信念而非真理在运行。

但随着机器人技术向开放、不受控制的环境发展,核心问题不仅仅在于人工智能模型缺乏“常识”,更在于它们缺乏任何机制来判断其决策所依据的数据是否准确。精心设计的数据集与真实世界条件之间的差距不仅是一个挑战,更是对自主可靠性的根本威胁。

无需信任的人工智能数据是可靠机器人技术的基础。

如果机器人技术想要在受控环境之外安全运行,需要的不仅仅是更优秀的模型或更大的数据集。它需要的是独立于数据使用者系统本身的可信数据。如今的人工智能将传感器输入和上游模型输出视为基本可信,但在现实世界中,这种假设几乎立即失效。

这就是为什么机器人故障很少源于数据不足,而是源于数据无法反映机器人实际运行环境。当输入数据不完整、具有误导性或与现实不符时,机器人甚至在“发现”问题之前就已经发生故障。真正的问题在于,当今的系统并非为数据可以被伪造或操纵的世界而设计。

Pantera Capital 向 OpenMind 投资 2000 万美元,OpenMind 被誉为机器人领域的“以太坊 Linux”,这反映了一种日益增长的共识:如果机器人要实现协作和可靠运行,就需要基于区块链的验证层来协调和交换可信信息。正如 OpenMind 的创始人 Jan Liphardt 所说:“如果人工智能是大脑,机器人是身体,那么协调就是神经系统。”

这种转变并非仅限于机器人领域。在整个人工智能领域,各公司都开始将可验证性直接融入到他们的系统中,从治理框架(例如 EQTY Labs 在Hedera上推出的新型可验证人工智能监管工具)到专为链上模型验证而设计的基础设施(例如 ChainGPT 的 AIVM Layer-1 区块链)。如果没有加密技术来确保其数据、计算和输出的真实性,人工智能将无法安全运行,而机器人技术的发展进一步加剧了这种需求。

无需信任的数据直接解决了这一难题。机器人不再盲目接受传感器读数或环境信号,而是可以通过加密、冗余且实时的方式对其进行验证。当每一个位置读数、传感器输出或计算结果都能得到验证而非臆测时,自主性就不再是一种盲目的信任行为,而变成了一个基于证据的系统,能够抵御欺骗、篡改或漂移。

验证从根本上重塑了自主系统架构。机器人可以交叉检查数据、验证计算结果、生成任务完成证明,并在出现问题时审核决策。它们不再默默地继承错误,而是主动拒绝损坏的输入。机器人技术的未来不仅仅取决于规模,更取决于机器能否证明自身的位置、感知到的信息、执行的工作以及数据随时间推移的演变过程。

无需信任的数据不仅使人工智能更安全,而且还使可靠的自主性成为可能。

阅读更多:信任,但要核实(用更可靠的数据):克服人工智能的幻觉问题 | 观点
马库斯·莱文

马库斯·莱文XYO Network的联合创始人,也是XY Labs的运营主管。他于2018年联合创立了XYO Network,使其成为首个由用户驱动的去中心化项目,旨在将现实世界的数据直接与区块链智能XYO和其他数字现实连接起来。XYO已发展成为全球最大的节点网络之一,并逐年创下增长纪录。在博科尼大学攻读博士学位期间,他曾辍学,之后开始在全球各地高速增长的行业中与多家公司合作并担任领导职务,其中包括Novacore、“sterkly”、Hive Media和Koiyo等前沿科技企业。马库斯于2013年挖到了他的第一个比特币,从此便对区块链技术着迷。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论