Vitalik Buterin 敲響警鐘:超級人工智能可能比你想象的更快到來

avatar
BeInCrypto
3 天前
本文為機器翻譯
展示原文

以太坊聯合創始人V神提出了關於超級智慧AI風險和強大防禦機制的警告。

V神的評論是在人工智慧快速發展的背景下提出的,人工智慧安全問題已經引起了廣泛關注。

V神的AI監管計劃:責任、暫停按鈕和國際控制

在2025年1月5日的一篇部落格文章中,V神概述了他關於"d/acc或防禦性加速"的想法,即應該開發技術來防禦而不是造成傷害。然而,這並不是V神第一次談及人工智慧相關風險。

V神在2023年表示,"人工智慧出現問題可能會以最糟糕的方式讓世界變得更糟:它可能會直接導致人類滅絕。"

V神現在進一步闡述了他2023年的理論。據V神稱,超級智慧AI可能只需要幾年時間就能出現。

"看起來我們只需要3年時間就能實現AGI,再過3年就能實現超級智慧。因此,如果我們不想讓世界被毀滅或陷入不可逆轉的困境,我們不僅要加速好的發展,還要減緩壞的發展。"V神寫道。

為了減輕AI相關風險,V神主張建立去中心化的AI系統,這些系統仍然與人類決策緊密相連。透過確保AI仍然是人類手中的工具,可以最大限度地減少災難性結果的威脅。

V神還解釋了軍方可能成為"AI毀滅"場景的負責方。全球範圍內,AI軍事使用正在上升,這在烏克蘭和加沙地帶都有所體現。V神還認為,任何即將出臺的AI監管措施很可能都會豁免軍方,這使得軍方成為一個重大威脅。

以太坊聯合創始人進一步概述了他的AI監管計劃。他表示,避免AI風險的第一步是要讓使用者承擔責任。

"雖然模型的開發方式和最終用途之間的聯絡往往不太清楚,但使用者決定了AI的具體使用方式,"V神解釋說,強調了使用者所扮演的角色。

如果責任規則不奏效,下一步就是實施"軟暫停"按鈕,允許AI監管減緩潛在危險進展的步伐。

"目標是能夠在關鍵時期將全球可用計算能力減少約90-99%,持續1-2年,為人類提供更多準備時間。"

他說,這種暫停可以透過AI位置驗證和註冊來實現。

另一種方法是控制AI硬體。V神解釋說,AI硬體可以配備一個晶片來進行控制。

這個晶片將只允許AI系統在每週從三個國際機構獲得簽名後才能執行。他進一步補充說,其中至少一個機構應該是非軍事性質的。

儘管如此,V神承認他的策略存在漏洞,只是"臨時性的緩解措施"。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論