研究人員警告:人工智能“集群”可能加劇網絡虛假信息和操縱行為

本文為機器翻譯
展示原文

根據週四發表在《科學》雜誌上的一份新報告,易於檢測的殭屍網絡時代即將結束。該研究警告稱,虛假信息傳播活動正轉向能夠模仿人類行為、實時適應環境且幾乎無需人工干預的自主人工智能集群,這使得檢測和阻止此類活動變得更加複雜。

這篇由包括牛津大學、劍橋大學、加州大學伯克利分校、紐約大學和馬克斯·普朗克研究所等機構的研究人員組成的聯合研究團隊撰寫的論文,描述了一種數字環境,在這種環境中,操縱行為越來越難以識別。與以往與選舉或政治相關的短暫行動不同,這些人工智能活動能夠持續更長時間地維持某種敘事。

研究人員寫道:“如果這些工具落入政府手中,可能會壓制異議或鞏固當權者的權力。因此,只有在嚴格、透明且民主問責的框架下,才能考慮部署防禦性人工智能。”

群體智能體是指一群自主運行的人工智能代理,它們協同工作,比單個系統更高效地解決問題或完成目標。研究人員表示,人工智能群體智能體利用了社交媒體平臺現有的弱點,在這些平臺上,用戶往往無法接觸到不同的觀點。

他們寫道:“事實證明,虛假新聞的傳播速度和範圍都比真實新聞更快、更廣,加劇了現實的碎片化,並侵蝕了共同的事實基礎。最近的證據表明,以用戶參與度為導向的內容推送與社會極化有關,平臺算法甚至不惜犧牲用戶滿意度來放大分裂性內容,進一步損害了公共領域。”

南加州大學計算機科學教授、Sahara AI 首席執行官 Sean Ren表示,這種轉變已經在主要平臺上顯現出來,人工智能驅動的賬戶越來越難以與普通用戶區分開來。

“我認為更嚴格的KYC(瞭解你的客戶)或賬戶身份驗證機制會有很大幫助,”Ren告訴Decrypt 。“如果創建新賬戶更難,監控垃圾郵件發送者更容易,那麼代理人就更難利用大量賬戶進行協同操縱。”

早期的輿論戰主要依賴規模而非技巧,成千上萬個賬號同時發佈相同的信息,這使得檢測相對容易。相比之下,該研究指出,人工智能群體展現出“前所未有的自主性、協調性和規模”。

Ren表示,單靠內容審核不太可能阻止這些系統。他認為,問題在於平臺如何大規模管理身份。他指出,更嚴格的身份驗證和賬戶創建限制,即使單個帖子看起來像是真人發佈,也能更容易地檢測到協同行為。

他說:“如果代理人只能使用少量賬戶發佈內容,那麼就更容易發現可疑的使用情況並封禁這些賬戶。”

研究人員得出結論,這個問題沒有單一的解決方案,潛在的選擇包括改進對統計異常協調的檢測和提高自動化活動的透明度,但他們表示,僅靠技術措施不太可能足夠。

Ren表示,即使平臺引入了新的技術保障措施,經濟利益仍然是協同操縱攻擊的一個持續驅動因素。

他表示:“這些代理群通常由一些團隊或供應商控制,他們會從外部機構或公司獲得金錢報酬,從而進行協同操縱。平臺應該加強KYC(瞭解你的客戶)和垃圾郵件檢測機制,以識別和過濾掉被代理操縱的賬戶。”

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
79
收藏
19
評論