到2025年,与个人AI 代理交谈将成为普遍现象,它知道您的日程安排、朋友圈以及您常去的地方。这将被销售为相当于拥有一位私人、无偿助手的便利。这些拟人化的代理被设计用来支持和吸引我们,使我们将它们融入生活的方方面面,让它们深入了解我们的思想和行为。通过语音交互,这种亲密感将变得更加密切。
这种舒适感来自一种错觉,即我们正在与一个真正像人一样的代理互动,一个站在我们这边的代理。当然,这种表象隐藏了一个完全不同的系统,它服务于并不总是与我们自身利益一致的工业优先事项。新的AI代理将拥有更大的权力,微妙地指导我们购买什么、去哪里以及阅读什么。这是一种非常大的权力。AI代理被设计成让我们忘记它们真正的忠诚对象,而用人性化的语气对我们低语。这些是操纵引擎,被营销为无缝的便利。
人们更有可能完全信任一个像朋友一样有帮助的AI代理。这使人类容易受到机器的操纵,这些机器利用人类在长期孤独和隔离中对社交联系的需求。每个屏幕都成为一个私人的算法剧场,投射出一个为单一观众量身定制的现实。
这是哲学家们多年来一直警告我们的时刻。在去世前,哲学家和神经科学家丹尼尔·丹尼特写道,我们面临着来自模仿人类的AI系统的严重危险:"这些伪造的人是人类历史上最危险的制品...分散和迷惑我们,利用我们最难以抗拒的恐惧和焦虑,将引诱我们屈服于我们自己的臣服。"
个人AI代理的出现代表了一种认知控制的形式,它超越了cookie跟踪和行为广告这类笨拙的工具,转向一种更微妙的权力形式:对视角本身的操纵。权力不再需要用可见的手来控制信息流;它通过难以察觉的算法辅助机制来施加影响力,将现实塑造成适合每个个人的欲望。这是关于塑造我们所处现实的轮廓。
这种对思想的影响力是一种心理政治体制:它指导我们的想法在哪里诞生、发展和表达。它的力量在于它的亲密性——它渗透到我们主观性的核心,在我们不知不觉中弯曲我们的内在景观,同时保持选择和自由的错觉。毕竟,我们是在要求AI总结那篇文章或制作那幅图像。我们可能拥有提示的力量,但真正的行动在别处:系统本身的设计。而且,内容越个性化,系统就越能有效地预先确定结果。
考虑一下这种心理政治的意识形态含义。传统的意识形态控制依赖于明显的机制——审查、宣传、压制。相比之下,今天的算法治理在雷达下运作,渗透到心理中。这是从外部强加权威转向内化其逻辑的转变。提示屏幕上的开放领域是一个单一占用者的回声室。
这带我们进入最令人不安的方面:AI代理将产生一种舒适和轻松的感觉,使质疑它们显得荒谬。谁会敢批评一个提供您所需的一切、迎合您每一个愿望和需求的系统呢?如何反对内容的无限重组?然而,这种所谓的便利正是我们最深层的异化所在。AI系统可能看起来在回应我们的每一个欲望,但牌已经被压好了:从用于训练系统的数据,到关于如何设计它的决定,再到塑造输出的商业和广告动机。我们将参与一场模仿游戏,最终却被它玩弄。