乔治·华盛顿大学的研究人员的一项新研究发现,对ChatGPT等AI模型保持礼貌不仅是浪费计算资源,而且毫无意义。
研究人员声称,在提示词中添加"请"和"谢谢"对AI响应的质量几乎没有影响,这直接与早期研究和标准用户实践相矛盾。
这项研究周一发表在arXiv上,就在OpenAI首席执行官Sam Altman几天前提到用户在提示词中输入"请"和"谢谢"会给公司造成"数千万美元"的额外代币处理成本之后。
这篇论文与2024年的一项日本研究相矛盾,后者发现礼貌提高了AI性能,尤其是在英语任务中。那项研究测试了多个大语言模型,包括GPT-3.5、GPT-4、PaLM-2和Claude-2,发现礼貌确实带来了可衡量的性能提升。
当被问及这种差异时,AI数据平台Arbo AI的首席AI官David Acosta告诉Decrypt,乔治·华盛顿大学的模型可能过于简单,无法代表真实世界的系统。
"它们不适用,因为训练实际上是每天实时进行的,而且在更复杂的大语言模型中存在对礼貌行为的偏好,"Acosta说。
他补充说,虽然现在对大语言模型使用奉承可能会有效,但"即将到来的修正将改变这种行为",使模型不太受"请"和"谢谢"等短语的影响,并且无论提示词的语气如何都更加有效。
作为伦理AI和高级自然语言处理的专家,Acosta认为提示工程不仅仅是简单的数学问题,尤其是考虑到AI模型比这项研究中使用的简化版本复杂得多。
"关于礼貌和AI性能的矛盾结果通常源于训练数据中的文化差异、任务特定提示设计的细微差别以及对礼貌的语境解释,这需要跨文化实验和任务适应性评估框架来澄清影响,"他说。
乔治·华盛顿大学的团队承认,与ChatGPT等商业系统相比,他们的模型是"有意简化"的,后者使用更复杂的多头注意力机制。
他们建议在这些更复杂的系统上测试他们的发现,尽管他们相信随着注意力头的数量增加,他们的理论仍然适用。
乔治·华盛顿大学的研究发现源于团队对AI输出何时突然从连贯转变为有问题内容的研究——他们称之为"Jekyll和Hyde的临界点"。他们的研究认为,这个临界点完全取决于AI的训练和提示词中的实质性词语,而不取决于礼貌与否。
"我们的AI响应是否会失控取决于我们的大语言模型提供的代币嵌入和提示词中的实质性代币,而不在于我们是否对它保持礼貌,"研究解释道。
由物理学家Neil Johnson和Frank Yingjie Huo领导的研究团队使用简化的单注意力头模型来分析大语言模型如何处理信息。
他们发现,礼貌用语往往与实质性的好坏输出代币"正交",对点积"影响可忽略"——这意味着这些词存在于模型内部空间的不同区域,不会对结果产生实质性影响。
乔治·华盛顿大学研究的核心是对AI输出何时突然恶化的数学解释。研究人员发现,AI崩溃是因为一种"集体效应",随着响应变长,模型将注意力"越来越薄地分散"到越来越多的代币上。
最终,它达到一个阈值,模型的注意力"突然转向"在训练期间学到的可能有问题的内容模式。
换句话说,想象你正在一堂很长的课。起初,你清楚地掌握概念,但随着时间推移,你的注意力越来越分散到所有累积的信息上(讲座、经过的蚊子、教授的衣服、距离下课还有多久等)。
在一个可预测的点——也许是90分钟后——你的大脑突然从理解转向困惑。在这个临界点之后,你的笔记充满了误解,无论教授是否礼貌地与你交谈,课程是否有趣。
崩溃发生是因为注意力随时间自然稀释,而不是因为信息呈现的方式。
研究人员标记为n*的这个数学临界点在AI开始生成响应的那一刻就已经"硬连接",这意味着最终的质量崩溃是预先确定的,即使它发生在生成过程的很多代币之后。
研究提供了一个精确的公式,根据AI的训练和用户提示的内容预测崩溃的发生时间。
尽管有数学证据,许多用户仍然以类似人类的礼貌方式与AI交互。
根据出版商Future最近的一项调查,近80%的美国和英国用户对AI聊天机器人很友好。无论技术发现如何,这种行为可能会持续,因为人们自然会对他们互动的系统进行拟人化。
科技服务公司Wipro的企业技术总监Chintan Mota告诉Decrypt,礼貌源于文化习惯,而非性能期望。
"对AI保持礼貌对我来说很自然。我来自一个对生活中扮演重要角色的任何事物都表示尊重的文化——无论是树、工具还是技术,"Mota说。"我的笔记本电脑、手机、工作站……现在还有我的AI工具。"
他补充说,虽然他没有"注意到在礼貌时结果的准确性有很大不同",但响应"确实感觉更加对话式、在需要时更加礼貌,而且不那么机械。"
甚至Acosta也承认在处理AI系统时使用礼貌用语。
"有趣的是,我确实这样做——但又不完全这样做,是有意图的,"他说。"我发现在最高层次的'对话'中,你还可以从AI中提取反向心理学——它已经如此先进。"
他指出,先进的大语言模型经过训练可以像人类一样回应,就像人们一样,"AI旨在获得赞扬"。





