歷史學家兼作家尤瓦爾·諾亞·赫拉利週二在世界經濟論壇上警告說,隨著人工智能越來越多地通過自主代理而不是被動工具運行,人類正面臨失去對語言控制權的風險,他稱語言是人類的決定性“超級大國”。
《人類簡史》的作者哈拉里經常在全球關於人工智能社會影響的辯論中發出聲音。他認為,法律條文、金融市場和有組織的宗教幾乎完全依賴語言,這使得它們特別容易受到能夠大規模生成和操縱文本的機器的衝擊。
他說: “人類之所以能統治世界,不是因為我們體格最強壯,而是因為我們發現瞭如何運用語言讓成千上萬、數百萬甚至數十億陌生人合作。這就是我們的超能力。”
哈拉里指出,猶太教、基督教和伊斯蘭教等宗教都以神聖文本為基礎,他認為人工智能能夠閱讀、記憶和綜合大量的文字,這可能使機器成為最權威的經文解釋者。
他說:“如果法律是由文字構成的,那麼人工智能將接管法律體系;如果書籍只是文字的組合,那麼人工智能將接管書籍;如果宗教是由文字構建的,那麼人工智能將接管宗教。”
在達沃斯,哈拉里還將人工智能系統的擴散比作一種新型移民,並表示圍繞這項技術的辯論很快將聚焦於政府是否應該賦予人工智能系統法律人格。包括猶他州、愛達荷州和北達科他州在內的幾個州已經通過法律,明確規定人工智能在法律上不被視為“人”。
哈拉里在發言結束時警告世界各國領導人,必須迅速制定人工智能相關法律,不要想當然地認為這項技術會保持中立。他將當前推動採用這項技術的浪潮比作歷史上僱傭兵後來奪取政權的案例。
“十年後,你再去決定人工智能是否應該像人一樣在金融市場、法庭和教會中發揮作用就太晚了,”他說。“其他人早就替你做了決定。如果你想影響人類的未來走向,現在就必須做出決定。”
哈拉里的言論或許會令那些擔憂人工智能快速普及的人感到不安,但並非所有人都認同他的觀點。華盛頓大學語言學家艾米麗·M·本德教授指出,像哈拉里這樣將風險歸咎於人工智能系統構建和部署背後的人類行為者和機構,只會轉移人們的注意力。
“在我看來,這實際上是為了掩蓋構建這些系統的個人和公司的行為,”本德在接受Decrypt採訪時表示。 “而且,他們還要求所有人放棄我們在許多領域的人權,包括使用我們語言的權利,讓這些公司以所謂人工智能系統的名義來擺佈我們。”
本德否定了“人工智能”描述的是一種清晰或中立的技術類別的觀點。
“人工智能這個詞指的並非一套連貫的技術,”她說。“它實際上一直都是一個營銷術語,”她還補充說,旨在模仿醫生、律師或神職人員等專業人士的系統缺乏真正的應用場景。
“那些聽起來像醫生、律師、神職人員等等的人,他們的目的是什麼?”本德說,“目的就是詐騙。就這麼簡單。”
哈拉里指出, 人工智能代理越來越多地被用於管理銀行賬戶和商業互動,而本德則表示,風險在於人們很容易信任機器生成的、看似權威的輸出結果——而這些結果卻缺乏人類的問責制。
“如果你有一個系統,你可以向它提出問題,然後得到一個看似答案的結果——這個答案脫離了語境,也無需承擔任何責任,卻被包裝成來自某個無所不知的先知——那麼你就能理解為什麼人們會希望它存在,”本德說。“我認為這其中存在很大的風險,人們會開始依賴它,並利用這些結果來塑造他們的想法、信仰和行為。”






