5/30/2023:人工智慧滅絕風險!!??

本文為機器翻譯
展示原文

今天早上,一群著名的 AI 研究人員發表瞭如上所示的聯合宣告。 “減輕人工智慧滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”除了 23 個字的宣告外,沒有其他細節。我希望在發表如此重要的宣告時能給出更多的理由。這是什麼意思?如果我們不處理人工智慧風險,我們可能會死嗎?我們該怎麼辦?

大流行的風險在 COVID-19 之前就已眾所周知,但普通人無能為力。這是一個抽象的想法。即使是現在,它仍然是一個抽象的概念。但至少我們知道大流行病會如何發展。即,人們被某種外來殭屍病毒感染,並迅速傳播導致人們死亡。對於核戰爭,我們可以想象一下,一顆原子彈被投下,瞬間炸死數十萬人,對數百萬人造成輻射傷害。

但是人工智慧滅絕事件意味著什麼?我確定我可以閱讀有關此的科幻小說。不過請大佬們詳細說說好嗎?我能想到一些可能性,但我不確定這是滅絕事件還是更像是人類成為 AI 的奴隸。即人類將像今天的家養動物一樣生活在人工智慧的恐怖之下。目前還不清楚我們是要變成狗/貓還是雞/豬/牛。無論如何,如果要制定更多關於人工智慧滅絕的公共政策,公眾應該得到更多的細節和解釋。

Yann LeCun 和 Andrew Ng 等一些 AI 專家似乎對 AI 超級智慧的想法不屑一顧。我反對 LeCun 博士的論點是,如果我們能弄清楚如何實現狗級別的智慧,我們很快就能弄清楚超級智慧,因為這可能只是擴大同一個系統的問題,我們沒有時間反應。因此,即使概率很小,我也認為忽視風險不是一個好主意。我們需要認真對待它,以防 AI 滅絕風險成為現實。至少,我們需要思考人工智慧最終會如何控制人類的場景。同樣,我們需要更具體的細節。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論