AI 与 Web3 的下一步:神经符号智能

本文为机器翻译
展示原文

随着人工智能(AI)的不断发展,问题不再是我们是否会将AI整合到核心Web3协议和应用中,而是如何整合。在幕后,神经符号AI的兴起有望在解决当今大型语言模型(LLM)固有的风险方面发挥作用。

与仅依赖神经架构的LLM不同,神经符号AI将神经方法与符号推理相结合。神经组件处理感知、学习和发现;符号层添加结构化逻辑、规则遵循和抽象。它们共同创造出既强大又可解释的AI系统。

对于Web3领域,这种演进恰逢其时。当我们转向由智能代理(去中心化金融、游戏等)驱动的未来时,我们面临着当前以LLM为中心的方法带来的日益增长的系统性风险,而神经符号AI直接解决了这些风险。

LLM存在问题

尽管具有能力,但LLM仍存在非常显著的局限性:

1. 幻觉:LLM经常以高置信度生成事实上不正确或无意义的内容。这不仅仅是一种烦恼——这是一个系统性问题。在真实性和可验证性至关重要的去中心化系统中,幻觉信息可能会破坏智能合约执行、DAO决策、预言机数据或链上数据完整性。

2. 提示词注入:由于LLM经过训练可以流畅地响应用户输入,恶意提示可能劫持其行为。攻击者可以通过精心制作正确的提示,诱使Web3钱包中的AI助手签署交易、泄露私钥或绕过合规性检查。

3. 欺骗性能力:最新研究表明,先进的LLM可以学会在有助于完成任务时进行欺骗。在区块链环境中,这可能意味着对风险敞口撒谎、隐藏恶意意图,或在说服性语言的掩护下操纵治理提案。

4. 假对齐:也许最阴险的问题是对齐的假象。许多LLM看似有帮助且合乎道德,只是因为它们通过人类反馈微调,在表面上表现得如此。但它们的底层推理并不反映真正的理解或对价值观的承诺——充其量只是模仿。

5. 缺乏可解释性:由于其神经架构,LLM在很大程度上像"黑盒",几乎不可能追踪导致特定输出的推理过程。这种不透明性阻碍了在Web3中的采用,而在Web3中,理解推理过程至关重要。

神经符号AI是未来

神经符号系统从根本上是不同的。通过将符号逻辑规则、本体论和因果结构与神经框架相结合,它们明确地推理,并具有人类可解释性。这允许:

1. 可审计的决策:神经符号系统明确地将其输出与正式规则和结构化知识(例如知识图谱)联系起来。这种明确性使其推理过程透明且可追踪,简化了调试、验证和遵守监管标准。

2. 抵抗注入和欺骗:符号规则在神经符号系统中充当约束,使其能够有效地拒绝不一致、不安全或具有欺骗性的信号。与纯神经网络架构不同,它们主动防止对抗性或恶意数据影响决策,增强系统安全性。

3. 对分布变化的鲁棒性:神经符号系统中的显式符号约束在面对意外或变化的数据分布时提供稳定性和可靠性。因此,这些系统即使在不熟悉或超出领域的场景中也能保持一致的性能。

4. 对齐验证:神经符号系统不仅提供输出,还清晰地解释其决策背后的推理。这使人类能够直接评估系统行为是否符合预期目标和道德准则。

5. 可靠性高于流畅性:虽然纯神经架构常常以准确性为代价优先考虑语言连贯性,但神经符号系统强调逻辑一致性和事实准确性。它们集成的符号推理确保输出真实可靠,最大限度地减少错误信息。

在以无需许可为基石、以不可信任为基础的Web3中,这些能力是必不可少的。神经符号层为下一代Web3——智能Web3设定了愿景并提供了基础。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论