新加坡的人工智能安全願景彌合了中美分歧

avatar
WIRED
05-08
本文為機器翻譯
展示原文

新加坡政府今天釋出了一份關於人工智慧安全的全球合作藍圖,此前在美國、中國和歐洲的人工智慧研究人員會議之後。該檔案闡述了透過國際合作而非競爭來推進人工智慧安全的共同願景。

"新加坡是地球上少數幾個與東西方都相處融洽的國家,"麻省理工學院的科學家馬克斯·特格馬克說,他幫助召集了上個月的人工智慧精英會議。"他們知道自己不會建造[人工通用智慧],而是會被建造,所以讓將要建造它的國家相互交流非常符合他們的利益。"

最有可能建造人工通用智慧的國家當然是美國和中國,但這兩個國家似乎更專注於相互對抗而非合作。今年1月,中國初創公司DeepSeek釋出尖端模型後,特朗普總統稱其為"我們產業的警鐘",並表示美國需要"專注於競爭以獲勝"。

新加坡全球人工智慧安全研究重點共識呼籲研究人員在三個關鍵領域開展合作:研究前沿人工智慧模型帶來的風險,探索更安全的模型構建方式,以及開發控制最先進人工智慧系統行為的方法。

這一共識是在4月26日與國際學習表徵大會(ICLR)期間在新加坡舉行的會議上制定的,該大會今年在新加坡舉行。

OpenAI、Anthropic、谷歌DeepMind、xAI和Meta的研究人員,以及來自麻省理工學院、斯坦福大學、清華大學和中國科學院等機構的學術界人士均出席了人工智慧安全活動。來自美國、英國、法國、加拿大、中國、日本和韓國人工智慧安全研究所的專家也參與其中。

"在地緣政治分裂的時代,這份關於人工智慧安全的全面綜合研究是一個令人鼓舞的跡象,表明全球社會正在攜手共同致力於塑造一個更安全的人工智慧未來,"清華大學院長薛瀾在宣告中說。

越來越強大的人工智慧模型的發展,其中一些模型具有令人驚訝的能力,引起了研究人員對各種風險的擔憂。雖然一些人關注近期危害,包括偏見人工智慧系統造成的問題或犯罪分子利用該技術的潛在可能,但相當一部分人認為,隨著人工智慧在更多領域開始超越人類,它可能對人類構成生存威脅。這些研究人員,有時被稱為"人工智慧末日論者",擔心模型可能會欺騙和操縱人類以追求自身目標。

人工智慧的潛力也引發了美國、中國和其他強國之間可能爆發軍備競賽的討論。在政策圈,該技術被視為經濟繁榮和軍事主導地位的關鍵,許多政府都試圖制定自己的願景和監管方式來指導其發展。

DeepSeek今年1月的亮相加劇了人們對中國可能趕上甚至超過美國的擔憂,儘管美國已通過出口管制限制中國獲取人工智慧硬體。現在,特朗普政府正在考慮額外措施,旨在限制中國構建尖端人工智慧的能力。

特朗普政府還試圖淡化人工智慧風險,轉而支援在美國更積極地發展該技術。在2025年巴黎的一次重要人工智慧會議上,副總統JD範斯表示,美國政府希望減少對人工智慧開發和部署的限制,並將之前的方法描述為"過於風險規避"。

麻省理工學院的科學家特格馬克表示,一些人工智慧研究人員熱衷於在巴黎會議之後"扭轉局勢",重新將注意力集中在日益強大的人工智慧可能帶來的潛在風險上。

在新加坡會議上,特格馬克提出了一篇技術論文,質疑了關於如何安全構建人工智慧的一些假設。此前,一些研究人員曾建議可以使用較弱的模型來控制強大的人工智慧模型。特格馬克的論文表明,在某些簡單場景中這種動態並不奏效,這意味著它可能無法阻止人工智慧模型出現偏差。

"我們盡最大努力對此進行量化,從技術上講,這並不像人們希望的那樣有效,"特格馬克說。"而且,眾所周知,風險相當高。"

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論