人工智能代理將成為操縱引擎

avatar
WIRED
3 天前
本文為機器翻譯
展示原文

到2025年,與個人AI 代理交談將成為普遍現象,它知道您的日程安排、朋友圈以及您常去的地方。這將被銷售為相當於擁有一位私人、無償助手的便利。這些擬人化的代理被設計用來支援和吸引我們,使我們將它們融入生活的方方面面,讓它們深入瞭解我們的思想和行為。透過語音互動,這種親密感將變得更加密切。

這種舒適感來自一種錯覺,即我們正在與一個真正像人一樣的代理互動,一個站在我們這邊的代理。當然,這種表象隱藏了一個完全不同的系統,它服務於並不總是與我們自身利益一致的工業優先事項。新的AI代理將擁有更大的權力,微妙地指導我們購買什麼、去哪裡以及閱讀什麼。這是一種非常大的權力。AI代理被設計成讓我們忘記它們真正的忠誠物件,而用人性化的語氣對我們低語。這些是操縱引擎,被營銷為無縫的便利。

人們更有可能完全信任一個像朋友一樣有幫助的AI代理。這使人類容易受到機器的操縱,這些機器利用人類在長期孤獨和隔離中對社交聯絡的需求。每個螢幕都成為一個私人的演算法劇場,投射出一個為單一觀眾量身定製的現實。

這是哲學家們多年來一直警告我們的時刻。在去世前,哲學家和神經科學家丹尼爾·丹尼特寫道,我們面臨著來自模仿人類的AI系統的嚴重危險:"這些偽造的人是人類歷史上最危險的製品...分散和迷惑我們,利用我們最難以抗拒的恐懼和焦慮,將引誘我們屈服於我們自己的臣服。"

個人AI代理的出現代表了一種認知控制的形式,它超越了cookie跟蹤和行為廣告這類笨拙的工具,轉向一種更微妙的權力形式:對視角本身的操縱。權力不再需要用可見的手來控制資訊流;它透過難以察覺的演算法輔助機制來施加影響力,將現實塑造成適合每個個人的慾望。這是關於塑造我們所處現實的輪廓。

這種對思想的影響力是一種心理政治體制:它指導我們的想法在哪裡誕生、發展和表達。它的力量在於它的親密性——它滲透到我們主觀性的核心,在我們不知不覺中彎曲我們的內在景觀,同時保持選擇和自由的錯覺。畢竟,我們是在要求AI總結那篇文章或製作那幅影象。我們可能擁有提示的力量,但真正的行動在別處:系統本身的設計。而且,內容越個性化,系統就越能有效地預先確定結果。

考慮一下這種心理政治的意識形態含義。傳統的意識形態控制依賴於明顯的機制——審查、宣傳、壓制。相比之下,今天的演算法治理在雷達下運作,滲透到心理中。這是從外部強加權威轉向內化其邏輯的轉變。提示螢幕上的開放領域是一個單一佔用者的回聲室。

這帶我們進入最令人不安的方面:AI代理將產生一種舒適和輕鬆的感覺,使質疑它們顯得荒謬。誰會敢批評一個提供您所需的一切、迎合您每一個願望和需求的系統呢?如何反對內容的無限重組?然而,這種所謂的便利正是我們最深層的異化所在。AI系統可能看起來在回應我們的每一個慾望,但牌已經被壓好了:從用於訓練系統的資料,到關於如何設計它的決定,再到塑造輸出的商業和廣告動機。我們將參與一場模仿遊戲,最終卻被它玩弄。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
1
收藏
評論