欢迎来到令人毛骨悚然的人工智能娃娃之谷

avatar
WIRED
03-09
本文为机器翻译
展示原文

世界移动大会总是有超过其应有的怪异之处。上周在 MWC 上,一家名为Hyodol的韩国公司获得了疯狂奖,该公司自豪地展示了一款看起来令人不安、支持 ChatGPT 的伴侣玩偶,专门针对老年人。现在,这款价值 1,800 美元的人工智能娃娃看起来很像你在闹鬼的阁楼里找到的东西,但它实际上是为那些经历孤独或长期护理机构的人们充当互动数字伙伴。

由于娃娃内部装有大型语言模型,Hyodol 据称可以与其主人进行对话,并提供健康提醒,例如何时服药或吃饭。它的连接程度正如您想象的那样,配有配套应用程序和网络监控平台,让管理员可以远程监控设备及其用户。

它的目的是缓解孤独感的流行,这种孤独感影响着每个人,从疗养院的老年人到大学生。美国国家老龄化研究所项目主任伊丽莎白·内卡 (Elizabeth Necka) 表示,这种技术很有用,特别是在已经普遍面临人员短缺问题的疗养院中使用时。

“可能存在一种可以减轻孤独感的低成本解决方案的想法非常有吸引力,”内卡说。 “无论 ChatGPT 是否真的能够实现这些联系的感觉,对我来说,现在这样说似乎有点为时过早。”

这些设备肯定有一个产业。可爱的社交机器人市场在日本等国家尤其活跃。像LovotQoobo (“温暖你的心的尾部坐垫”)这样的公司已经制造出惹人喜爱的可爱伴侣机器人。这些设备也已在西方国家使用,但文化接受程度要低得多。但目前公司倾向于将生成式人工智能应用到一切事物中,意味着无处不在,这可能是由于这些对话式的 Chuckies 的浪潮所致。

“我认为该行业仍在努力了解市场,”不列颠哥伦比亚大学护理学院助理教授兼高级护理研究主席 Lilian Hung 表示。 “它仍处于起步阶段,但它肯定已经起飞了。”

并不是说没有进行过一系列其他尝试。 Jibo是一款社交机器人室友,它利用人工智能和可爱的手势与主人建立联系,在推出几年后,它的集体插头就被毫不客气地拔掉了。与此同时,另一款美国本土产品Moxie仍然活跃,这是一款人工智能机器人,旨在帮助儿童发展。

看到这样的设备,很难不对其可能性感到不寒而栗。科技本身就具有令人不安的一面,而这种欺骗性的欺骗行为可能会激怒人们。毕竟,我们的科幻小说中充满了人工智能,其中许多都是关于人工智能出现严重错误的故事。与 Hyodol 之类的东西进行简单且无可否认的懒惰比较的是M3GAN ,这是一部 2023 年的电影,讲述了一个完全是谋杀机器人的人工智能伴侣玩偶。

但除了令人反感的玩偶之外,社交机器人还有多种形式。他们是助理、宠物零售工作人员,而且往往是社交无能的怪人,在公共场合笨手笨脚地徘徊。但有时他们也是武器、间谍和警察。人们有充分的理由对这些自动机表示怀疑,无论它们是否有松软的包装。

温迪·莫伊尔是澳大利亚格里菲斯大学护理与助产学院的教授,致力于治疗痴呆症患者。她说她在社交机器人方面的工作激怒了人们,他们有时认为把机器人娃娃送给老年人是一种幼稚的行为。

“当我第一次开始使用机器人时,我收到了很多负面反馈,甚至来自员工,”莫伊尔说。 “我会在会议上发言,并让人们向我扔东西,因为他们觉得这是不人道的。”

然而,辅助机器人周围的气氛最近变得不那么敌对了,因为它们已被用于许多积极的用例中。机器人伴侣为痴呆症患者带来欢乐。在新冠病毒大流行期间,看护人员使用像帕罗这样的机器人伴侣来帮助缓解老年人的孤独感,帕罗是一种看起来像小竖琴海豹的小型机器人。 Hyodol 的微笑娃娃,无论你认为它们是病态的还是甜蜜的,都旨在唤起类似的友好反应。

Hyodol 并不是唯一一家为老年人提供人工智能伴侣的公司。 ElliQ是以色列公司 Intuition Robotics 生产的一款人工智能产品,已用于帮助纽约老年人的试验项目。但它不太可爱,它是一个类似灯的灯泡,可以放在床头柜上。 Hyodol 的目标是将这种功能与大眼睛帕罗海豹毛茸茸的、感觉良好的形状因素结合起来。 (Hyodol 没有回应多次置评请求。)

即使没有人工智能,这些伪有感知的玩偶也引起了人们的担忧。莫伊尔曾帮助监督这些设备在老年人护理方面的研究,他说,在某些情况下,依赖这些设备进行护理的人可能会变得过于依赖这些娃娃。

“我们必须应对的一个负面影响是,一些居民非常喜欢他们的洋娃娃,对他们来说,洋娃娃就是婴儿,”莫伊尔说。 “他们是可以携带、可以随身携带的婴儿。一些少数人非常爱他们,以至于它成为他们生活的一部分。我们必须尝试减少他们使用它们的时间。”

将语言能力放入伴侣娃娃中,尤其是像 ChatGPT 这样容易产生幻觉和怪异的玩偶,意味着它们可能会直接进入恐怖谷。将人工智能注入这些设备会引发怀疑者对将人工智能融入其他一切的所有担忧。生成式 AI 会产生幻觉、散布虚假信息,并且存在各种潜在的安全问题,更不用说来自 ChatGPT 集成的所有数据都会返回 OpenAI。它们也充满了隐私和安全问题,就像任何监视个人并共享数据的设备一样。还可能出现更实际的故障点,例如护理人员过度依赖机器人来提醒患者服药。

“为了确保机器人对话的安全,需要做很多工作,”洪说。 “它不会引导人们做任何不道德的事情。它不会收集任何信息。机器人不会问老人,你的信用卡号码是多少?”

当公司要求人们在最脆弱的时刻转向他们的产品时,这些就是固有的风险。莫伊尔说她对这个问题有两种看法。

“如果我们给某人一个与人工智能交谈的机会,是否会消除所有其他社交机会?”莫伊尔说。 “这是否意味着家人不再探望?这是否意味着工作人员不再与该人交谈?”这是有风险的,但她说,根据她的经验,护理机构中的许多老年人往往大部分日日夜夜都是独自一人。 “给他们一些东西,如果能让他们快乐的话,比什么都不给他们要好得多。”

当然,这些设备与人类不同。大型语言模型无法理解与它们交互的人;他们只是非常擅长预测听起来不错的回应。他们当然不知道如何完全理解一个人的情绪或精神状态。

“人们可能会表现出相当具有挑战性的情绪,而人工智能无法识别这些情绪,”莫伊尔说。 “随着人工智能变得更加复杂,情况可能会变得更好,但目前肯定还没有。”她停顿了一下,然后笑着补充道,“但是很多人也不能很好地评估情绪,所以……”

对于很多人来说,即使机器人不能回报他们的爱也并不重要。这就是为什么我们仍然哀悼我们的机器人缓慢而悲惨的死亡,并为机器狗举行葬礼。这就是为什么我们希望我们的性爱机器人具有个性,并相信他们会表达我们最深切的愿望。当人类与机器人互动时,重要的不是机器人是否能回报你的爱,而是人们如何从将自己的感情倾注到别人(或某物)身上的行为中获得价值。

“猫和婴儿给我们的感觉是它们需要我们的爱,而这正是我们作为人类所渴望的,”洪说。如果有人想要与可爱的机器人互动,通常是为了实现同样的功能。 “我们购买这些机器人是因为我们想向它们表达我们的爱——所以我们觉得机器人需要我们的爱,所以我们觉得有东西需要我们。这就是人类的本性。”

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
35
收藏
11
评论