“你不能兩次舔獾”:谷歌的失敗凸顯了人工智能的一個根本缺陷

avatar
WIRED
04-24
本文為機器翻譯
展示原文

以下是一個有趣的工作日小調劑:開啟谷歌,輸入任何編造的短語,加上"意義"這個詞,然後搜尋。瞧!谷歌的人工智慧概覽不僅會確認你的胡言亂語是一句真實的說法,還會告訴你它的含義和由來。

這確實很有趣,你可以在社交媒體上找到很多例子。在人工智慧概覽的世界裡,"一隻鬆散的狗不會衝浪"是"一種表示某事不太可能發生或不會成功的俏皮說法"。編造的短語"有線就是有線的樣子"是一個習語,意思是"某人的行為或特徵直接源於他們的固有本性或'線路',就像計算機的功能由其物理連線決定"。

這一切聽起來完全合理,並且充滿自信。谷歌甚至在某些情況下提供參考連結,使回覆更具權威性。但這是錯誤的,至少在這些概覽給人的印象是這些是常用短語,而不是隨意組合的詞語。儘管人工智慧概覽認為"永遠不要向豬扔貴賓犬"是一句有聖經淵源的諺語這一點很荒謬,但這也很好地概括了生成式人工智慧仍然存在的不足。

正如每個人工智慧概覽底部的免責宣告所說,谷歌使用"實驗性"生成式人工智慧來提供結果。生成式人工智慧是一種強大的工具,有各種合法的實際應用。但在解釋這些虛構短語時,它的兩個特徵凸顯出來。首先,它本質上是一個機率機器;儘管看起來大型語言模型系統有思想甚至感受,但在基本層面上,它只是將最可能的詞一個接一個地放置,就像火車邊行駛邊鋪軌道。這使它非常擅長解釋這些短語如果有意義的話會是什麼意思,而這些短語本來就沒有意義。

"下一個詞的預測基於其龐大的訓練資料,"約翰·霍普金斯大學的計算機科學家肖子昂說,"然而,在許多情況下,下一個連貫的詞並不能引導我們得出正確答案。"

另一個因素是人工智慧渴望取悅他人;研究表明,聊天機器人經常會告訴人們他們想聽的話。在這種情況下,這意味著相信你說的"你不能兩次舔獾"是一個被接受的說法。在其他情況下,它可能會反映你自己的偏見,正如肖子昂領導的研究團隊在去年的一項研究中證明的。

"對於這個系統來說,考慮每個個人查詢或使用者的引導性問題極其困難,"肖子昂說,"這對於不常見的知識、內容可用性顯著較低的語言以及少數群體的觀點尤其具有挑戰性。由於搜尋人工智慧是如此複雜的系統,錯誤會級聯。"

更糟糕的是,人工智慧不願承認它不知道答案。當有疑問時,它就會編造內容。

"當人們進行荒謬或'錯誤前提'搜尋時,我們的系統會嘗試根據有限的網路內容找到最相關的結果,"谷歌發言人梅根·法恩斯沃斯在電子郵件宣告中說,"這對搜尋整體來說是真的,在某些情況下,人工智慧概覽也會嘗試提供有用的背景。"

谷歌不會為每個這樣的查詢返回人工智慧概覽結果。"我做了大約五分鐘的實驗,結果極其不一致,這正是你對生成式人工智慧的預期,它非常依賴訓練集中的具體示例,而不是抽象的,"認知科學家、《馴服矽谷:我們如何確保人工智慧為我們工作》一書的作者加里·馬庫斯說,"認為這一切接近通用人工智慧是荒謬的。"

這種特定的人工智慧概覽怪癖最終似乎無害,而且再次是一種消遣的有趣方式。但要記住,生成這些自信錯誤的同一模型也是你其他人工智慧生成查詢結果的幕後推手。保持懷疑態度

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論