馬斯克等千人聯名簽署公開信《暫停巨型人工智能實驗》。具體網頁見:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
具有與人類相媲美的智能的人工智能系統,可能對社會和人類產生深遠的風險,這已經得到了大量研究[1]的證實,並得到了頂級AI實驗室的支持[2]。正如廣泛認可的阿西洛馬人工智能原則所述,先進的人工智能可能會給地球生命歷史帶來深刻的變革,因此應該用相應的關注和資源進行規劃和管理。遺憾的是,即使在近幾個月裡,AI實驗室在開發和部署越來越強大的數字智能方面陷入了失控的競賽,而這些數字智能甚至連它們的創造者都無法理解、預測或可靠地控制,這種規劃和管理的水平也沒有得到實現。
當代AI系統現已在通用任務方面具有與人類競爭的能力[3],我們必須問自己:我們是否應該讓機器充斥著我們的信息渠道,傳播宣傳和虛假信息?我們是否應該將所有工作自動化,包括那些有成就感的工作?我們是否應該開發可能最終超越、取代我們的非人類智能?我們是否應該冒著失去對文明的控制的風險?這些決策不能交由未經選舉的科技領袖來做。只有在我們確信AI系統的影響將是積極的,風險將是可控的情況下,才能開發強大的AI系統。這種信心必須有充分的理由,並隨著系統潛在影響的增大而增加。OpenAI最近關於通用人工智能的聲明指出:“在某些時候,可能需要在開始訓練未來系統之前獲得獨立審查,而且各個最先進的系統訓練嘗試,應該就限制用於創建新模型的計算增長速度達成一致意見。”我們同意。那個時候就是現在。
因此,我們呼籲所有AI實驗室立即暫停至少6個月的時間,停止訓練比GPT-4更強大的AI系統。這種暫停應該是公開的、可驗證的,幷包括所有關鍵參與者。如果這樣的暫停無法迅速實施,政府應該介入並實行禁令。
AI實驗室和獨立專家應利用這段暫停時間共同制定並實施一套先進的、共享的AI設計和開發的安全協議,這些協議應由獨立的外部專家嚴格審計和監督。這些協議應確保遵守它們的系統在排除合理懷疑之後是安全的[4]。這並不意味著暫停AI發展,而只是從危險的競賽中退一步,避免發展出具有突現能力的更大、更不可預測的黑箱模型。
AI研究和發展應該重新關注如何使當今強大的、處於技術前沿的系統更加精確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。
與此同時,AI開發者必須與政策制定者合作,大力加快AI治理系統的發展。這些至少應包括:致力於AI的新的、有能力的監管機構;對高能力AI系統和大量計算能力的監督和追蹤;源頭和水印系統,以幫助區分真實與合成以及追蹤模型洩漏;強大的審計和認證生態系統;對AI造成的損害承擔責任;技術AI安全研究的充足公共資金支持;以及應對AI帶來的嚴重經濟和政治顛覆(特別是對民主制度)的有充足資源的機構。
人類可以與AI共享繁榮的未來。在成功創造出強大的AI系統後,我們現在可以享受一個“AI夏天”,在這個時期,我們可以收穫碩果,為所有人帶來明確的利益,讓社會有機會適應。社會已經在其他可能對社會產生災難性影響的技術上按下了暫停鍵[5]。我們在這裡也可以做到。讓我們享受一個漫長的AI夏天,而不是毫無準備地跳入秋天。




