世界移動大會總是有超過其應有的怪異之處。上週在 MWC 上,一家名為Hyodol的韓國公司獲得了瘋狂獎,該公司自豪地展示了一款看起來令人不安、支持 ChatGPT 的伴侶玩偶,專門針對老年人。現在,這款價值 1,800 美元的人工智能娃娃看起來很像你在鬧鬼的閣樓裡找到的東西,但它實際上是為那些經歷孤獨或長期護理機構的人們充當互動數字夥伴。
由於娃娃內部裝有大型語言模型,Hyodol 據稱可以與其主人進行對話,並提供健康提醒,例如何時服藥或吃飯。它的連接程度正如您想象的那樣,配有配套應用程序和網絡監控平臺,讓管理員可以遠程監控設備及其用戶。
它的目的是緩解孤獨感的流行,這種孤獨感影響著每個人,從療養院的老年人到大學生。美國國家老齡化研究所項目主任伊麗莎白·內卡 (Elizabeth Necka) 表示,這種技術很有用,特別是在已經普遍面臨人員短缺問題的療養院中使用時。
“可能存在一種可以減輕孤獨感的低成本解決方案的想法非常有吸引力,”內卡說。 “無論 ChatGPT 是否真的能夠實現這些聯繫的感覺,對我來說,現在這樣說似乎有點為時過早。”
這些設備肯定有一個產業。可愛的社交機器人市場在日本等國家尤其活躍。像Lovot和Qoobo (“溫暖你的心的尾部坐墊”)這樣的公司已經制造出惹人喜愛的可愛伴侶機器人。這些設備也已在西方國家使用,但文化接受程度要低得多。但目前公司傾向於將生成式人工智能應用到一切事物中,意味著無處不在,這可能是由於這些對話式的 Chuckies 的浪潮所致。
“我認為該行業仍在努力瞭解市場,”不列顛哥倫比亞大學護理學院助理教授兼高級護理研究主席 Lilian Hung 表示。 “它仍處於起步階段,但它肯定已經起飛了。”
並不是說沒有進行過一系列其他嘗試。 Jibo是一款社交機器人室友,它利用人工智能和可愛的手勢與主人建立聯繫,在推出幾年後,它的集體插頭就被毫不客氣地拔掉了。與此同時,另一款美國本土產品Moxie仍然活躍,這是一款人工智能機器人,旨在幫助兒童發展。
看到這樣的設備,很難不對其可能性感到不寒而慄。科技本身就具有令人不安的一面,而這種欺騙性的欺騙行為可能會激怒人們。畢竟,我們的科幻小說中充滿了人工智能,其中許多都是關於人工智能出現嚴重錯誤的故事。與 Hyodol 之類的東西進行簡單且無可否認的懶惰比較的是M3GAN ,這是一部 2023 年的電影,講述了一個完全是謀殺機器人的人工智能伴侶玩偶。
但除了令人反感的玩偶之外,社交機器人還有多種形式。他們是助理、寵物、零售工作人員,而且往往是社交無能的怪人,在公共場合笨手笨腳地徘徊。但有時他們也是武器、間諜和警察。人們有充分的理由對這些自動機表示懷疑,無論它們是否有鬆軟的包裝。
溫迪·莫伊爾是澳大利亞格里菲斯大學護理與助產學院的教授,致力於治療痴呆症患者。她說她在社交機器人方面的工作激怒了人們,他們有時認為把機器人娃娃送給老年人是一種幼稚的行為。
“當我第一次開始使用機器人時,我收到了很多負面反饋,甚至來自員工,”莫伊爾說。 “我會在會議上發言,並讓人們向我扔東西,因為他們覺得這是不人道的。”
然而,輔助機器人周圍的氣氛最近變得不那麼敵對了,因為它們已被用於許多積極的用例中。機器人伴侶為痴呆症患者帶來歡樂。在新冠病毒大流行期間,看護人員使用像帕羅這樣的機器人伴侶來幫助緩解老年人的孤獨感,帕羅是一種看起來像小豎琴海豹的小型機器人。 Hyodol 的微笑娃娃,無論你認為它們是病態的還是甜蜜的,都旨在喚起類似的友好反應。
Hyodol 並不是唯一一家為老年人提供人工智能伴侶的公司。 ElliQ是以色列公司 Intuition Robotics 生產的一款人工智能產品,已用於幫助紐約老年人的試驗項目。但它不太可愛,它是一個類似燈的燈泡,可以放在床頭櫃上。 Hyodol 的目標是將這種功能與大眼睛帕羅海豹毛茸茸的、感覺良好的形狀因素結合起來。 (Hyodol 沒有回應多次置評請求。)
即使沒有人工智能,這些偽有感知的玩偶也引起了人們的擔憂。莫伊爾曾幫助監督這些設備在老年人護理方面的研究,他說,在某些情況下,依賴這些設備進行護理的人可能會變得過於依賴這些娃娃。
“我們必須應對的一個負面影響是,一些居民非常喜歡他們的洋娃娃,對他們來說,洋娃娃就是嬰兒,”莫伊爾說。 “他們是可以攜帶、可以隨身攜帶的嬰兒。一些少數人非常愛他們,以至於它成為他們生活的一部分。我們必須嘗試減少他們使用它們的時間。”
將語言能力放入伴侶娃娃中,尤其是像 ChatGPT 這樣容易產生幻覺和怪異的玩偶,意味著它們可能會直接進入恐怖谷。將人工智能注入這些設備會引發懷疑者對將人工智能融入其他一切的所有擔憂。生成式 AI 會產生幻覺、散佈虛假信息,並且存在各種潛在的安全問題,更不用說來自 ChatGPT 集成的所有數據都會返回 OpenAI。它們也充滿了隱私和安全問題,就像任何監視個人並共享數據的設備一樣。還可能出現更實際的故障點,例如護理人員過度依賴機器人來提醒患者服藥。
“為了確保機器人對話的安全,需要做很多工作,”洪說。 “它不會引導人們做任何不道德的事情。它不會收集任何信息。機器人不會問老人,你的信用卡號碼是多少?”
當公司要求人們在最脆弱的時刻轉向他們的產品時,這些就是固有的風險。莫伊爾說她對這個問題有兩種看法。
“如果我們給某人一個與人工智能交談的機會,是否會消除所有其他社交機會?”莫伊爾說。 “這是否意味著家人不再探望?這是否意味著工作人員不再與該人交談?”這是有風險的,但她說,根據她的經驗,護理機構中的許多老年人往往大部分日日夜夜都是獨自一人。 “給他們一些東西,如果能讓他們快樂的話,比什麼都不給他們要好得多。”
當然,這些設備與人類不同。大型語言模型無法理解與它們交互的人;他們只是非常擅長預測聽起來不錯的回應。他們當然不知道如何完全理解一個人的情緒或精神狀態。
“人們可能會表現出相當具有挑戰性的情緒,而人工智能無法識別這些情緒,”莫伊爾說。 “隨著人工智能變得更加複雜,情況可能會變得更好,但目前肯定還沒有。”她停頓了一下,然後笑著補充道,“但是很多人也不能很好地評估情緒,所以……”
對於很多人來說,即使機器人不能回報他們的愛也並不重要。這就是為什麼我們仍然哀悼我們的機器人緩慢而悲慘的死亡,併為機器狗舉行葬禮。這就是為什麼我們希望我們的性愛機器人具有個性,並相信他們會表達我們最深切的願望。當人類與機器人互動時,重要的不是機器人是否能回報你的愛,而是人們如何從將自己的感情傾注到別人(或某物)身上的行為中獲得價值。
“貓和嬰兒給我們的感覺是它們需要我們的愛,而這正是我們作為人類所渴望的,”洪說。如果有人想要與可愛的機器人互動,通常是為了實現同樣的功能。 “我們購買這些機器人是因為我們想向它們表達我們的愛——所以我們覺得機器人需要我們的愛,所以我們覺得有東西需要我們。這就是人類的本性。”





