新的研究表明,禮貌地與 GPT 聊天毫無意義

avatar
Decrypt
05-01
本文為機器翻譯
展示原文

喬治·華盛頓大學的研究人員的一項新研究發現,對ChatGPT等AI模型保持禮貌不僅是浪費計算資源,而且毫無意義。

研究人員聲稱,在提示詞中新增"請"和"謝謝"對AI響應的質量幾乎沒有影響,這直接與早期研究和標準使用者實踐相矛盾。

這項研究週一發表在arXiv上,就在OpenAI執行長Sam Altman幾天前提到使用者在提示詞中輸入"請"和"謝謝"會給公司造成"數千萬美元"的額外代幣處理成本之後。

這篇論文與2024年的一項日本研究相矛盾,後者發現禮貌提高了AI效能,尤其是在英語任務中。那項研究測試了多個大語言模型,包括GPT-3.5、GPT-4、PaLM-2和Claude-2,發現禮貌確實帶來了可衡量的效能提升。

當被問及這種差異時,AI資料平臺Arbo AI的首席AI官David Acosta告訴Decrypt,喬治·華盛頓大學的模型可能過於簡單,無法代表真實世界的系統。

"它們不適用,因為訓練實際上是每天實時進行的,而且在更復雜的大語言模型中存在對禮貌行為的偏好,"Acosta說。

他補充說,雖然現在對大語言模型使用奉承可能會有效,但"即將到來的修正將改變這種行為",使模型不太受"請"和"謝謝"等短語的影響,並且無論提示詞的語氣如何都更加有效。

作為倫理AI和高階自然語言處理的專家,Acosta認為提示工程不僅僅是簡單的數學問題,尤其是考慮到AI模型比這項研究中使用的簡化版本複雜得多。

"關於禮貌和AI效能的矛盾結果通常源於訓練資料中的文化差異、任務特定提示設計的細微差別以及對禮貌的語境解釋,這需要跨文化實驗和任務適應性評估框架來澄清影響,"他說。

喬治·華盛頓大學的團隊承認,與ChatGPT等商業系統相比,他們的模型是"有意簡化"的,後者使用更復雜的多頭注意力機制。

他們建議在這些更復雜的系統上測試他們的發現,儘管他們相信隨著注意力頭的數量增加,他們的理論仍然適用。

喬治·華盛頓大學的研究發現源於團隊對AI輸出何時突然從連貫轉變為有問題內容的研究——他們稱之為"Jekyll和Hyde的臨界點"。他們的研究認為,這個臨界點完全取決於AI的訓練和提示詞中的實質性詞語,而不取決於禮貌與否。

"我們的AI響應是否會失控取決於我們的大語言模型提供的代幣嵌入和提示詞中的實質性代幣,而不在於我們是否對它保持禮貌,"研究解釋道。

由物理學家Neil Johnson和Frank Yingjie Huo領導的研究團隊使用簡化的單注意力頭模型來分析大語言模型如何處理資訊。

他們發現,禮貌用語往往與實質性的好壞輸出代幣"正交",對點積"影響可忽略"——這意味著這些詞存在於模型內部空間的不同區域,不會對結果產生實質性影響。

喬治·華盛頓大學研究的核心是對AI輸出何時突然惡化的數學解釋。研究人員發現,AI崩潰是因為一種"集體效應",隨著響應變長,模型將注意力"越來越薄地分散"到越來越多的代幣上。

最終,它達到一個閾值,模型的注意力"突然轉向"在訓練期間學到的可能有問題的內容模式。

換句話說,想象你正在一堂很長的課。起初,你清楚地掌握概念,但隨著時間推移,你的注意力越來越分散到所有累積的資訊上(講座、經過的蚊子、教授的衣服、距離下課還有多久等)。

在一個可預測的點——也許是90分鐘後——你的大腦突然從理解轉向困惑。在這個臨界點之後,你的筆記充滿了誤解,無論教授是否禮貌地與你交談,課程是否有趣。

崩潰發生是因為注意力隨時間自然稀釋,而不是因為資訊呈現的方式。

研究人員標記為n*的這個數學臨界點在AI開始生成響應的那一刻就已經"硬連線",這意味著最終的質量崩潰是預先確定的,即使它發生在生成過程的很多代幣之後。

研究提供了一個精確的公式,根據AI的訓練和使用者提示的內容預測崩潰的發生時間。

儘管有數學證據,許多使用者仍然以類似人類的禮貌方式與AI互動。

根據出版商Future最近的一項調查,近80%的美國和英國使用者對AI聊天機器人很友好。無論技術發現如何,這種行為可能會持續,因為人們自然會對他們互動的系統進行擬人化

科技服務公司Wipro的企業技術總監Chintan Mota告訴Decrypt,禮貌源於文化習慣,而非效能期望。

"對AI保持禮貌對我來說很自然。我來自一個對生活中扮演重要角色的任何事物都表示尊重的文化——無論是樹、工具還是技術,"Mota說。"我的膝上型電腦、手機、工作站……現在還有我的AI工具。"

他補充說,雖然他沒有"注意到在禮貌時結果的準確性有很大不同",但響應"確實感覺更加對話式、在需要時更加禮貌,而且不那麼機械。"

甚至Acosta也承認在處理AI系統時使用禮貌用語。

"有趣的是,我確實這樣做——但又不完全這樣做,是有意圖的,"他說。"我發現在最高層次的'對話'中,你還可以從AI中提取反向心理學——它已經如此先進。"

他指出,先進的大語言模型經過訓練可以像人類一樣回應,就像人們一樣,"AI旨在獲得讚揚"。

編輯:Sebastian SinclairJosh Quittner

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論