最为在独立游戏界极具影响力的开源叙事脚本工具,Yarn Spinner 的立场对许多开发者来说至关重要。在这篇官方文章中,团队以诚恳且坚定的口吻,解释了为什么他们选择拒绝在工具中加入生成式 AI。
他们不仅从技术角度出发,更从劳工权益、开发伦理以及「游戏开发的本质」进行了深度反思。这对现今追求技术热潮的产业现状来说,或许可带来一点反思。
以下是动区编译整的完整中文内容:
我们经常被问到关于 AI 的问题。是否会将它加入 Yarn Spinner?我们自己是否使用它?我们对它的看法为何?这些都是很公平的问题。是时候把它们全部记录下来了。
Yarn Spinner 不使用目前被称为「AI」的技术。 我们的产品中没有生成式 AI 功能,我们不使用代码生成工具来构建它,也不接受我们已知包含生成内容的贡献。让我们来谈谈原因。
TL;DR:AI 公司制造的工具会伤害人,而我们不想支持这种行为。
过去
首先聊聊一点历史。我们的背景涵盖了相当数量的 AI 与机器学习工作(我们不该混用这两个词,但因为大家都在混用,所以我们也会交替使用)。
我们曾为游戏开发者和非编程人员举办过相关讲座;为游戏编写过小型的机器学习机器人;进行过研究和学术工作。我们甚至写过关于在游戏中使用机器学习的书籍,主要是关于程序化动画(procedural animation)。那是一系列非常有趣、值得探索的技术,而我们确实也探索过了。
当我们开始读大学时,神经网路和深度学习(当今大多数 AI 产品的核心技术)还太慢且难以操作。等到我们完成博士学位时,情况已经改变了。像 TensorFlow 这样的工具让这一切变得简单有趣,而 GPU 获取的便利性让没有大科技公司预算的人也能进行训练和推理。在相当长的一段时间里,我们对这种潜力感到由衷的兴奋。
然后,事情开始变了。
很难说具体是什么时候。也许事情一直都是这样,只是我们没发现。但到了 2020 年底,情况变得很明显:我们喜欢的 AI,并不是科技公司感兴趣的那种。
他们越来越倾向于生成式图像、帮你写东西的聊天机器人,以及对艺术的「摘要」而非让人「接触」艺术。减轻已知问题(如加深文化偏见、难以实现确定性或可解释性)的努力被贬低和忽视。提出疑虑的研究人员和开发者被开除。
从那以后,情况只会变得更糟。
如果你看看现在 AI 公司推销的东西,那并不是我们想要的。当你把他们说的所有话都剥开来看,他们制造的工具,本质上要么是为了开除员工,要么是在不增聘人手的状况下要求更多产出。这就是 AI 公司想要解决的「问题」。
他们实现的其他任何成就,都只是在「尽可能开除你的朋友和同事」这条路上的意外惊喜。
在当前重新就业特别困难、失业甚至可能威胁生命的时期,AI 已经成为了一种「开除人的工具」。我们不想成为其中的一部分。在问题解决之前,我们不会在工作中使用 AI,也不会将其整合进 Yarn Spinner 供他人使用。
我们不想支持制造这些工具的公司,也不想让他们的行为常态化。所以,我们不使用。
未来
我们偶尔会看到一种评论,语气听起来像是「既成事实」:「如果你不采用 AI,你就会被抛下」,或者是它的亲戚:「每个人都在用它」…我们不同意。
无论我们对 AI 的看法如何,这都不是正确的开发方式。这是「工具驱动开发」。目标永远不该是「我们使用这个工具」,而应该是「我们如何帮助你做出更好的游戏?」。
伟大的游戏诞生于人们对某个创意的热情,并将其推向现实。这通常意味著「减少」而非「增加」。改变想法、保持自己和同事的健康、愿意适应并接受反馈。好的工具也需要做到这一点。
我们不断地问自己:「这如何能帮助做出更好的游戏?」并跟随答案前行。探索的过程很重要,而大多数时候我们发现,很多想法连一点点审视都经受不住。我们宁愿拥有少数几个能解决实际问题的精致功能,也不想要一堆为了行销文案而存在的垃圾。
我们为 Yarn Spinner 感到自豪。我们不认为它被应用在这么多游戏中纯属巧合。我们的开发流程是有效的,而且我们一直在添加新功能。如果某些功能不符合开发者的需求,我们也会修改或删除。
我们一直与内部、其他游戏开发者,甚至非开发者讨论潜在的想法和方法。我们会继续问:「这如何能帮助做出更好的游戏?」并发布那些通过考验的功能。
谁知道呢,也许世界会改变,到时我们可以重新审视机器学习。
可能会被问到的问题(FAQ)
为什么你们只关心人被开除?我听说 AI 在「其他方面」也很糟糕! AI(特别是制造它的公司)有很多问题。有些是潜在的、甚至假设性的担忧;有些是非常真实、就在我们眼前发生的。有些问题比「被开除」要严重得多。在我们开始写这篇部落格到发布之间,甚至又出现了更糟的问题。即使围绕 AI 的劳动权益问题突然消失,在我们能安心使用它之前,仍有许多问题需要解决。但一次专注于一个论点会更有力。劳动权益问题是可以修复的,且应该被抵制。一旦这解决了,我们再来看看下一个问题。
你们为什么不「正确地」开发机器学习,这样就不会有人受到伤害? 考虑到我们的背景和经验,我们或许能开发出一套我们认为有益、合乎伦理,且不资助我们反对的公司的 AI 工具。但这有两个问题:第一,这些东西需要花大量时间制作,正如我们所说,大多数想法过不了初期的探索阶段。要一边平衡创意的探索,一边建立新的模型来测试,是非常困难的。第二,虽然我们可以制作自己的工具,但大多数人做不到。如果他们看到我们使用某种技术并想尝试,最终会去支持那些我们反对的公司。我们不想让这种行为常态化,所以我们必须带头不用。
我的老板要求我在工作中使用 AI,我也是问题的一部分吗? 找工作并保住工作是生存必需,而近期这种压力更大了。如果你能对此表示反对,请尝试去做。但没人会因为你想保住工作而责怪你。
你们会禁止使用 AI 的人使用 Yarn Spinner 吗? 不会。虽然我们希望你不要用它,但我们明白这是「我们」的底线,不是你的。我们仍会宣导反对这些工具,并对其造成的伤害感到担忧。你需要意识到,如果你使用它们,你就在经济上和社交上支持了那些做著卑劣勾当的卑劣公司。他们会利用你的支持来推行他们的议程。如果这些工具对你有帮助,我们真心感到高兴,但同时也请你停止使用它们。
我挺喜欢用 AI 的,而且我公司也没人被开除啊? 这种评论常出现,通常来自程式设计师。遗憾的是,由于「AI」这个词现在太混乱了,同样的忧虑依然适用。你的采用有助于推广制造这些工具的公司。别人看到你在用,就会强迫工作室的其他人使用,或者推广到其他工作场所。根据我们的观察,随之而来的就是裁员和过度劳累。如果这没发生在你和你同事身上,那很好,但你仍在帮助这件事在别处发生。而且正如我们所说,即使明天解决了劳工问题,还有很多其他问题。除了被开除,还有更多值得担心的事。
你们是单纯仇恨 AI 的狂热份子或卢德分子(Luddites)吗? 不是。我们只是对制造这些东西的人感到气愤。AI 和机器学习有巨大的潜力,但它正被挥霍在「让那些已经很卑劣的富人变得更富有、更卑劣」上。我们仍关注技术发展,因为我们希望有一天能再次探索它。但就目前而言,推动这些工具的人,并不是我们想给予金钱或支持的人。





