最新研究發現,人工智能政治聊天機器人可以左右選民投票

avatar
Decrypt
12-10
本文為機器翻譯
展示原文

康奈爾大學和英國人工智能安全研究所的最新研究發現,廣泛使用的人工智能系統可能會在受控的選舉環境中將選民的偏好改變多達15%。

發表在《科學》《自然》雜誌上的研究結果顯示,各國政府和研究人員正在研究人工智能可能如何影響即將到來的選舉週期,而開發人員則試圖消除其面向消費者的模型中的偏見

研究人員寫道:“公眾對生成式人工智能可能被用於政治遊說及其對選舉和民主的影響深感擔憂。我們利用預先註冊的實驗來評估大型語言模型影響選民態度的能力,從而回應這些擔憂。”

發表在《自然》雜誌上的這項研究測試了來自美國、加拿大和波蘭的近6000名參與者。參與者首先對一位政治候選人進行評分,然後與支持該候選人的聊天機器人進行對話,最後再次對該候選人進行評分。

在美國開展的這項研究中(該研究在2024年總統大選前對2300人進行了調查),當聊天機器人與參與者表明的偏好一致時,它起到了強化作用。而當聊天機器人支持參與者原本反對的候選人時,則產生了更大的影響。研究人員在加拿大和波蘭也報告了類似的結果。

該研究還發現,以政策為中心的宣傳信息比以個性為中心的宣傳信息具有更強的說服效果。

不同對話中的準確率各不相同,支持右傾候選人的聊天機器人比支持左傾候選人的聊天機器人給出的錯誤信息更多。

研究人員表示:“這些發現令人不安地暗示,人工智能進行政治遊說可能會利用模型知識的不平衡,即使在明確指示要保持真實的情況下,也會傳播不均勻的不準確信息。”

《科學》雜誌上發表的另一項研究探討了說服發生的原因。該研究針對英國76977名成年人,就700多個政治議題,測試了19種語言模型。

研究人員寫道:“人們普遍擔心,對話式人工智能可能很快就會對人類信仰產生前所未有的影響。”

他們發現,提示技巧比模特體型對說服效果的影響更大。鼓勵模特引入新信息的提示可以提高說服力,但會降低準確性。

研究人員寫道:“鼓勵LLM提供新信息的提示最能說服人們。”

這兩項研究的發表正值分析人士和政策智庫評估選民對人工智能在政府部門中發揮作用的看法之際。

哈特蘭研究所和拉斯穆森報告最近的一項調查發現,年輕的保守派人士比自由派人士更願意賦予人工智能在重大政府決策中更大的權力。調查詢問了18至39歲的受訪者,人工智能系統是否應該幫助指導公共政策、解釋憲法權利或指揮主要軍事力量。保守派人士的支持率最高。

哈特蘭研究所格倫·C·哈斯金斯新興問題中心主任唐納德·肯德爾表示,選民經常誤判大型語言模型的中立性。

肯德爾告訴Decrypt: “我一直努力強調的一點是,要打破人工智能是公正無偏的這種錯覺。它顯然是有偏見的,而且其中一些偏見是被動的。”他還補充說,當企業培訓決策影響到這些系統的行為時,對這些系統的信任可能會被錯置。

他說:“這些都是硅谷的大公司在構建這些模型,而近年來科技審查爭議表明,一些公司毫不掩飾地干預其平臺上內容的分發。如果這種做法也出現在大型語言模型中,那麼我們得到的就會是一個帶有偏見的模型。”

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
77
收藏
17
評論