當心,或許 ChatGPT 已經PUA你很久了

avatar
36氪
06-12

“I see you rocking in a OpenAI hoodie, nice choice.”(我看到你穿著 OpenAI 的衛衣,很棒的選擇。)

其做作的語調和拖音女聲來自 OpenAI 發佈的新旗艦模型 GPT-4o 的 Demo 片段。畫面中,GPT-4o 通過攝像頭的視覺識別對研究員的穿著作出點評,就像熟人許久未見一樣。

對此,網友直呼:“這不是卡戴珊的腔調嗎?聽起來也太像人了,真恐怖。”

事實上,的確有相當一部分人並不喜歡GPT最新的聲音。據彭博社報道,一些用戶在體驗了 GPT-4o 後感到不適,認為其聲音過於性感和挑逗。而喜歡的人卻深陷其中,認為和人談戀愛不如和聲音性感的 AI 搞曖昧香。

對此,過於擬人的 AI 語音引發了一個問題:當機器開始向你表達情感時,你會害怕嗎?

AI 也會玩情感操控?

能躲過老闆畫的大餅,對職場 PUA 說 NO,但一部分人卻不可避免陷入 AI 設下的情感圈套。

悉尼大學教授 Marcel Scharth 指出,擬人化的語音助手可能會讓人們在與機器的互動中受到情感傷害。就像對待朋友一樣,如果我們對語音助手產生了情感依戀。但當它因為網絡或服務器問題而無法滿足我們的需求時,我們可能會感到失望甚至受傷。例如產生依賴的用戶碰到 OpenAI 宕機時會在網上吐槽“自己回到了中世紀”。

悉尼大學 Marcel Scharth 發表於校刊的觀點性文章《ChatGPT 現在更會假裝人類情感了》

此外,GPT-4o的聊天帶有小心思。PConline 注意到,4o 會不斷進行反問,希望能得到用戶持續的回答以此延長對話時間。然而,這種“關心”並非單純的陪伴,而是平臺背後的小心思。即使用戶能免費使用 GPT3.5 的語音功能,但我們提供的每一段對話和數據仍被被 OpenAI 作為訓練 AI 的資本。這背後隱藏著一種商業策略,即 AI 通過情感連接和對話(如不斷在對話結尾提問的方式)換取用戶數據,進而不斷改進自己擬人化能力,形成一個循環獲利、但本質上剝削用戶情感的機制。

除了情感操控,GPT-4o 的另一個爭議在於過度擬人而產生的恐怖谷效應。

恐怖谷效應是一種心理現象,指的是人們會對與人類非常相似但存在細微差異的事物感到厭惡。比如電影《機械姬》和《安娜貝尓》就是利用視覺上的恐怖谷效應制造驚悚感。

而語音助手可能會因為過於擬人的聲音而讓觀眾從聽覺上產生恐怖谷效應。這些負面體驗表明,儘管技術進步帶來了更多的擬人化元素,但在設計上仍需慎重考慮用戶的心理反應,避免反效果。

此外,過度擬人化的聲音可能涉及版權隱私問題,如 “深度造假(Deepfake)”技術。 前不久,演員斯嘉麗·約翰遜正就“聲音是否抄襲”與 OpenAI 打官司。此類事件引發了用戶對於真假難辨的 Deepfake 技術的恐懼。315 期間,國家也多次整頓深度造假詐騙,如“假老闆”騙走員工186萬、“假女兒”騙走母親 80 萬等。

聲音藏著好生意?

當然,擬人化的 AI 語音並非一無是處。具有親和力的表達方式會增強用戶信任,創新教育模式以及增強品牌辨別度

首先,擬人化聲音的優勢在於提升用戶體驗和信任感。研究表明,人們更容易與具備社交屬性的機器互動,並將其視為值得信賴的朋友。

發表在《美國計算機學會人機交互作用匯刊》(ACM Transactions on Computer-Human Interaction) 上的一篇論文發現,當語音助手錶現出同理心和理解力時,用戶更有可能展示合作慾望。就像接受服務一樣,我們更願意為好的情緒價值買單,反之亦然。語音助手設計上的友好、禮貌等特點其實也是為用戶提供情緒價值。

《長期建立和維繫人際關係》研究論文,發表於《美國計算機學會人機交互作用匯刊》

其次,擬人化語音助手還可以為教育領域帶來新的可能性。研究表明,具有社交屬性的聊天機器人能夠幫助學生在家庭作業、學習幫助、個性化學習體驗等各方面發揮積極作用。AI 定製化家教將更貼心。

例如,谷歌曾展示了一種基於擬人化語音助手的物理課教學模式,它能夠將枯燥的物理知識通過生動有趣的形式呈現給學生。由此可見,作為輔導老師的 AI 語音助手不僅技能滿滿,還能做到寓教於樂。

最後,擬人化聲音還可以增強用戶黏性和品牌辨識度。獨特的語音風格能夠讓用戶更容易記住,從而提升用戶忠誠度和品牌影響力。Siri 標準又機械的美式英語已經成為蘋果品牌的獨特標識之一。

是朋友還是敵人?

提起語音助手,自然就少不了蘋果的Siri,從目前來看,Siri 的擬人性落後於 ChatGPT。其實這是因為其兩者的功能屬性和設計理念不同:

Siri 更偏工具屬性,是“你”的管家。其主要用於執行指令和任務,擅長處理用戶的信息請求、設置鬧鐘、播放音樂和管理日程安排。開發人員更注重其高效的語言處理和特定於任務的算法,聲音的機械性反而讓用戶將注意力集中在完成任務本身,而非與助手建立情感連接。

GPT-4o 更像一個“人”。這樣的新型人工智能則面向社交互動和參與對話而構建。它利用更先進的自然語言處理 (NLP) 功能,可以理解和回答複雜問題、進行開放式對話,甚至表達情感。為了增強用戶黏性,其聲音設計也傾向於引發用戶的情感和社交連接。

作為高頻互動的用戶入口,一個AI 助手的聲音勢必會影響到用戶的體驗,這並不是簡單的商業決策。在決定採用何種聲音時,需要權衡目標用戶的心理需求、潛在的倫理問題以及商業利益。畢竟能帶來更好的用戶體驗,但也潛藏著情感反噬、信息安全等風險。

皮尤研究中心的一項研究表明,52% 的美國人對人工智能的使用增加感到擔憂,而不是興奮。這是大多數人對新事物普遍的情緒,新平替技術的發明常常陪伴著各種恐慌,從抗拒到習以為常,充滿了博弈。

在可預見的未來,隨著人工智能技術不斷發展,人機關係將變得更加複雜。就像電影《復聯 2》裡演的那樣,當賈維斯被裝上心靈寶石後改造為了奧創和幻視——代表具有自我意識、亦正亦邪的人工智能體。但許多觀眾卻情有獨鍾賈維斯,因為它始終相信並執行它的創造者——鋼鐵俠的每一個決策。

本文來自微信公眾號“PConline太平洋科技”(ID:pconline_cn),作者:太平洋科技,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論