怀疑 AI 代理背后是人?从发 Meme 币到全面 AI 化的必经之路

谁能想到,这种融合竟然从一个名为 $GOAT 的 AI meme 币开始的?

作者: Johnson Lai

编译:深潮TechFlow

最近,我们在 Crypto Twitter 上见证了 AI 智能体代币和 AI meme 币的热潮。但这也引发了一个重要问题:

我们正生活在一个奇异的时代——一个我们努力想证明某物是 AI 而非人类的时代。想想看:我们花了几十年时间通过 CAPTCHA 和图灵测试来证明自己是人类,而现在却在做完全相反的事情。

随着每天涌现出越来越多的 AI 智能体,我们开始质疑,“等等,这真的是 AI 还是有人在假装?” 这种局势的逆转既讽刺又引人入胜,尤其是当这些 AI 智能体越来越深入我们的日常数字生活时。

我们还注意到,Apple 已经采用了一种区块链技术,以提升其 Apple Intelligence 的透明度。

什么是 AI 智能体?

简单来说,AI 智能体是指具备工具和推理能力的人工智能。在加密货币领域,这些智能体可能能够访问推文、帖子,甚至拥有加密钱包来进行链上交易等操作。

这一切始于 ReAct 论文,该论文展示了 AI 在配备合适工具时能够处理复杂任务。随后,Langchain 的出现使得这些工具对工程师更加易用,从而引发了 AI 智能体工具的快速普及。

图:ReAct Prompting

AI 智能体的独特之处在于它们具备以下能力:

  • 对特定情境进行推理

  • 制定行动计划

  • 使用现有工具执行行动

  • 根据结果进行调整

像 Virtual 的 Luna 的终端 (https://terminal.virtuals.io/) 这样的实际应用展示了这些功能,用户可以实时观察智能体的推理和决策过程。

AI 智能体的发展历程

实现真正透明的 AI 智能体需要遵循以下步骤:

  • 开源代码

  • 开放数据

  • 去中心化推理

  • 自主 AI 智能体

我认为,当前 AI 智能体的发展状态最多达到阶段 3:开放推理。

阶段 0:“请相信我,我是 AI”

目前,大多数 AI 智能体项目仍处于这个阶段。用户与声称为 AI 智能体的系统互动,但无法验证:

  • 回答是否源于真实的 AI 推理

  • 实际的决策过程

  • 是否有人工干预

这导致了“黑箱”问题,用户只能凭信任来接受 AI 的能力声明。

阶段 1:开源代码

开源 AI 智能体代码是建立透明度和信任的关键一步。

通过开放代码,开发者可以审查和贡献项目,从而促进合作与创新。

阶段 2:开放数据

示例 1:Virtual 的终端

示例 2:使用 Chromia 将大语言模型数据记录在链上

仅仅开源代码还不够,我们还需要确保智能体的“思维”过程是透明的。

这一关键阶段引入了智能体思维过程和决策的透明性。处于这一阶段的项目通常会:

  • 开放其训练数据

  • 提供智能体推理日志的访问权限

  • 允许外部审计和验证

阶段 3:去中心化推理

仅有开放数据并不足以确保真实的大语言模型推理。去中心化推理通过以下方式解决了这一问题:

  • 使用 zkML/opML 验证模型执行

  • 提供透明且可审计的推理过程

  • 允许社区进行验证

阶段 4:去中心化 AI 操作系统

最终的愿景是让自主 AI 智能体在一个透明的生态系统中运行。这包括:

  • 独立的运行时或操作系统

  • 智能体的加密钱包

  • 自主决策能力

  • 资源管理的全面可观察性

  • 可审计的决策路

随着 AI 的能力和自主性不断增强,这种透明性变得尤为重要,使我们能够在各个层面理解和验证其行为。 市场仍在探索如何实现这一目标。

正在进行的进展

我们刚刚起步,但已经出现了一些令人瞩目的项目:

  • $GOAT:打造 AI meme 文化社区

  • $LUNA:在区块链上创建 AI 智能体

  • $GMIKA:个性化 AI 伴侣

  • $CAI:通过 opML 运行去中心化 AI 网络

  • $AI16Z:用于 AI 基金的 DAO

结论

来源

我们正处于一场重大变革的开端。尽管 Vitalik 的文章完美地描绘了加密技术与 AI 的协同运作,但谁能想到,这种融合竟然从一个名为 $GOAT 的 AI meme 币开始?这一意想不到的开端展示了 Crypto x AI 的未来是多么不可预测和充满活力。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
7
收藏
8
评论