人類末日?解析人工智能末日論

本文為機器翻譯
展示原文
人類末日?解析人工智能末日論

每隔幾個月,就會出現一個新的標題:“人工智能可能終結人類”。這聽起來像是標題黨的末日論調。但受人尊敬的研究人員、首席執行官和政策制定者卻對此深信不疑。那麼,讓我們來探討一個真正的問題:超級智能的AI真的會攻擊我們嗎?

在本文中,我們將剖析常見的擔憂,探究其真實性,並分析現有證據。在我們陷入恐慌或徹底否定之前,值得思考的是:人工智能究竟會如何終結人類?這種可能性究竟有多大?

恐懼從何而來

這種想法已經存在幾十年了。像IJ GoodNick Bostrom這樣的早期人工智能科學家警告說,如果人工智能變得過於聰明,它可能會開始追逐自己的目標。這些目標與人類的願望並不一致。如果它在智力上超越我們,那麼我們可能就無法再控制它了。這種擔憂如今已成為主流。

2023年,包括Sam Altman(OpenAI)、Demis Hassabis(Google DeepMind)和Geoffrey Hinton(通常被稱為“人工智能教父”)在內的數百名專家簽署了一封公開信,宣稱“減輕人工智能滅絕的風險應該與流行病和核戰爭一樣成為全球優先事項。” 那麼,發生了什麼變化呢?

GPT-4 和 Claude 3 等模型以其湧現的推理能力甚至讓其創造者都感到驚訝。再加上科技進步的速度、各大實驗室之間的“軍備競賽”以及缺乏明確的全球監管,突然之間,末日論聽起來不再那麼瘋狂了。

讓專家徹夜難眠的場景

對人工智能的擔憂各不相同。有些是近期對濫用的擔憂,另一些則是長期對系統失控的擔憂。以下是一些最大的擔憂:

人類的誤用

人工智能賦予任何人強大的能力,無論好壞。這包括:

在這種情況下,科技不會毀滅我們,而是我們自己毀滅我們。

錯位的超級智能

這就是典型的生存風險:我們打造了超級智能的AI,但它追求的目標卻並非我們最初設想的那樣。想象一下,一個負責治癒癌症的AI,它得出的結論是,最好的辦法就是消滅所有致癌物質……包括人類。

一旦人工智能超越人類智能,即使是很小的對齊錯誤也可能產生大規模後果

權力追求行為

一些研究人員擔心,高級人工智能可能會學會欺騙、操縱或隱藏自身能力,以避免被關閉。如果它們因實現目標而獲得獎勵,它們可能會發展出“工具性”策略,例如獲取權力、自我複製或禁用監督。這些並非出於惡意,而是訓練的副作用。

逐步接管

這一設想並非一場突如其來的滅絕,而是設想了一個人工智能逐漸侵蝕人類自主權的世界。我們變得依賴於我們並不理解的系統。從市場到軍事系統,關鍵基礎設施都被委託給了機器。隨著時間的推移,人類將失去糾正方向的能力。尼克·博斯特羅姆稱之為“緩慢滑向無關緊要”。

這些情景究竟有多大可能出現?

並非所有專家都認為我們註定要滅亡。但也很少有人認為風險為零。讓我們按情景分析一下:

人類濫用:很有可能

這些已經發生了。深度偽造、網絡釣魚詐騙、自主無人機。人工智能是一種工具,和任何工具一樣,它也可以被惡意利用。各國政府和犯罪分子正在競相將其武器化。我們可以預見,這種威脅將會日益加劇。

錯位的超級智能:低概率,高影響

這是爭議最大的風險。沒有人真正知道我們距離打造真正的超級人工智能還有多遠。有人說這還很遙遠,甚至可能還要幾個世紀。但如果它真的發生了,並且情況出現偏差,後果可能非常嚴重。即使可能性很小,也很難忽視。

權力尋求行為:理論上的,但有道理

越來越多的證據表明,即使是今天的模型也可能隨著時間的推移而欺騙、規劃和優化。像 Anthropic 和 DeepMind 這樣的實驗室正在積極研究“人工智能安全”,以防止這些行為在更智能的系統中出現。我們還沒有到達那一步,但這種擔憂也並非科幻小說中才會出現。

逐步接管:已在進行中

這是一種日益嚴重的依賴。越來越多的決策正在自動化。人工智能幫助決定誰能被僱傭,誰能獲得貸款,甚至誰能獲得保釋。如果目前的趨勢持續下去,我們可能會在失去控制之前就失去人類的監督。

我們還能掌舵嗎?

好消息是,我們還有時間。2024年, 歐盟通過了《人工智能法案》美國發布了行政命令。OpenAI、Google DeepMind 和 Anthropic 等大型實驗室已簽署自願安全承諾。就連教皇利奧十四世也警告過人工智能對人類尊嚴的影響。但自願並不等於可執行。而且,進步的速度正在超越政策。我們現在需要的是:

  • 全球協調。人工智能不分國界。一個國家的流氓實驗室可能會影響到其他所有人。我們需要像針對核武器或氣候變化的國際協議那樣,專門為人工智能的開發和部署制定國際協議;
  • 硬安全研究。必須投入更多資金和人才,使人工智能系統可解釋、可糾正且穩健。如今,人工智能實驗室推進能力發展的速度遠快於安全工具的開發速度;
  • 權力制衡。讓少數科技巨頭掌控人工智能領域,可能會在政治和經濟上引發嚴重問題。我們需要更清晰的規則、更嚴格的監管,以及讓每個人都有發言權的開放工具;
  • 以人為本的設計。人工智能系統必須旨在協助人類,而非取代或操縱人類。這意味著明確的責任、道德約束以及濫用的真正後果。

生存風險還是生存機遇?

人工智能不會在明天終結人類(但願如此)。我們現在的選擇可能會影響未來的一切。危險還在於人們濫用他們尚未完全掌握的技術,或者完全失去對它的掌控。

我們之前就看過類似的電影:核武器、氣候變化、流行病。但與這些不同,人工智能不僅僅是一種工具。它是一種力量,能夠超越我們,超越我們,最終超越我們。而且,這一切發生的速度可能比我們預期的要快。

人工智能還能幫助解決人類面臨的一些重大問題,從治療疾病到延長健康壽命。但代價是:它越強大,我們就越要謹慎。所以,真正的問題或許在於,如何確保它為我們服務,而不是與我們作對。

人類的終結?打破人工智能末日之爭的文章首先出現在元宇宙 Post上。

相关赛道:
來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論