以太坊聯合創始人V神提出了關於超級智慧AI風險和強大防禦機制的警告。
V神的評論是在人工智慧快速發展的背景下提出的,人工智慧安全問題已經引起了廣泛關注。
V神的AI監管計劃:責任、暫停按鈕和國際控制
在2025年1月5日的一篇部落格文章中,V神概述了他關於"d/acc或防禦性加速"的想法,即應該開發技術來防禦而不是造成傷害。然而,這並不是V神第一次談及人工智慧相關風險。
V神在2023年表示,"人工智慧出現問題可能會以最糟糕的方式讓世界變得更糟:它可能會直接導致人類滅絕。"
V神現在進一步闡述了他2023年的理論。據V神稱,超級智慧AI可能只需要幾年時間就能出現。
"看起來我們只需要3年時間就能實現AGI,再過3年就能實現超級智慧。因此,如果我們不想讓世界被毀滅或陷入不可逆轉的困境,我們不僅要加速好的發展,還要減緩壞的發展。"V神寫道。
為了減輕AI相關風險,V神主張建立去中心化的AI系統,這些系統仍然與人類決策緊密相連。透過確保AI仍然是人類手中的工具,可以最大限度地減少災難性結果的威脅。
V神還解釋了軍方可能成為"AI毀滅"場景的負責方。全球範圍內,AI軍事使用正在上升,這在烏克蘭和加沙地帶都有所體現。V神還認為,任何即將出臺的AI監管措施很可能都會豁免軍方,這使得軍方成為一個重大威脅。
以太坊聯合創始人進一步概述了他的AI監管計劃。他表示,避免AI風險的第一步是要讓使用者承擔責任。
"雖然模型的開發方式和最終用途之間的聯絡往往不太清楚,但使用者決定了AI的具體使用方式,"V神解釋說,強調了使用者所扮演的角色。
如果責任規則不奏效,下一步就是實施"軟暫停"按鈕,允許AI監管減緩潛在危險進展的步伐。
"目標是能夠在關鍵時期將全球可用計算能力減少約90-99%,持續1-2年,為人類提供更多準備時間。"
他說,這種暫停可以透過AI位置驗證和註冊來實現。
另一種方法是控制AI硬體。V神解釋說,AI硬體可以配備一個晶片來進行控制。
這個晶片將只允許AI系統在每週從三個國際機構獲得簽名後才能執行。他進一步補充說,其中至少一個機構應該是非軍事性質的。
儘管如此,V神承認他的策略存在漏洞,只是"臨時性的緩解措施"。