傑弗裡·辛頓,被廣泛稱為"人工智慧之父",在一次新採訪中發出了迄今最嚴厲的警告,警示人工智慧不僅對工作構成威脅,而且對人類整體構成生存風險,因為世界正在朝著超級智慧機器的方向發展。
在"執行長日記"播客中,辛頓勾勒了一幅令人不安的未來圖景,暗示人工智慧最終可能會認為人類本身已經過時。
"如果它想擺脫我們,我們無法阻止,"辛頓說。"我們不習慣思考比我們更聰明的事物。如果你想知道當你不是最高智慧時生活是什麼樣子,就問問一隻雞。"
辛頓表示,這種威脅將呈現兩種截然不同的形式:一種源於人類濫用,如網路攻擊、虛假資訊傳播和自主武器的建立;另一種源於變得完全自主且不可控制的人工智慧系統。
"他們現在可以製造致命的自主武器,我認為所有大型國防部門都在忙於製造這些武器,"他說。"即使它們不比人類更聰明,它們仍然是非常令人討厭和可怕的東西。"
2023年5月,神經網路先驅辛頓在為人工智慧工作十多年後離開了谷歌和多倫多大學,以便能夠自由地談論這項技術的危險。
辛頓的警告發生在人工智慧軍事應用激增的背景下。最近的發展突顯了技術在國防行動中的快速整合,美國在資金和合作夥伴關係方面處於領先地位。
11月,為了增強軍隊的人工智慧和自主武器能力,美國國防部在其2025年預算提案中向國會申請了1430億美元用於研究和開發,其中specifically分配了18億美元用於人工智慧。今年早些時候,軟體開發商Palantir獲得了一份1.75億美元的合同,為美國陸軍開發人工智慧制導系統。3月,五角大樓與Scale AI合作推出了一個名為Thunderforge的AI代理戰場模擬器。
辛頓將當前時刻比作核武器的出現,只是人工智慧更難控制,而且在更多領域都很有用。
"原子彈只對一件事有用,而且它的工作方式非常明顯,"他說。"而對於人工智慧,它對許多、許多事情都有用。"
辛頓解釋說,正是企業利潤動機和國際競爭的結合,導致人工智慧發展不會放緩。
"利潤動機在說:向他們展示能讓他們點選的東西,而能讓他們點選的是越來越極端的東西,確認他們既有的偏見,"他說。"所以你一直在確認自己的偏見。"
人工智慧會如何消滅人類?辛頓表示,超級智慧人工智慧可能會設計新的生物威脅來消滅人類。
"明顯的方式是創造一種討厭的病毒——非常具有傳染性、非常致命且傳播緩慢,以至於在意識到之前每個人都會感染,"他說。"如果超級智慧想擺脫我們,它可能會選擇對自身不會產生影響的生物性威脅。"
儘管前景黯淡,但辛頓並非完全沒有希望。
"我們根本不知道是否能阻止它們不想接管和傷害我們。我不認為這很清楚,所以我認為這可能是無望的,"辛頓說。"但我也認為我們可能能夠做到,如果人類因為不願意嘗試而滅絕,那將是相當瘋狂的。"





