埃裡克·施密特不相信人工智慧的炒作。事實上,他認為人工智慧的炒作還不夠。
在最近的TED演講中,這位前谷歌執行長認為,雖然大多數人專注於人工智慧的語言技能,但他們完全忽視了其快速發展的規劃和戰略能力——這些能力可能會徹底重塑社會。
"你們大多數人認為人工智慧——我就用這個通用術語——就是ChatGPT,"施密特在演講中說。"這還是兩年前的情況。從那以後,在所謂的強化學習方面取得了進展,這是AlphaGo幫助發明的,讓我們能夠進行規劃。"
施密特的觀點出現在公眾對人工智慧的興趣仍然主要集中在文字生成的時候。但他堅持,人工智慧的發展遠遠超出了撰寫巧妙的電子郵件或總結文件,還能幫助在多個層面提高我們的生產力。
"你看到的是從語言到語言的轉變。然後是語言到序列,這就是生物學的工作方式。現在你基本上是在進行規劃和戰略,"施密特解釋道。
"最終的狀態是計算機執行所有業務流程。"
經濟影響可能是巨大的——施密特聲稱當AI代理在全球範圍內被採用時,每天可能會提高30%——但他保證我們普通人仍然有一些用處。"在這個令人難以置信的發現中,人類是不變的。你真的認為我們會擺脫律師嗎?不,他們只會有更復雜的訴訟。你真的認為我們會擺脫政治家嗎?不,他們只會有更多平臺來誤導你,"他打趣道。
當大多數消費者對聊天機器人感到驚歎時,施密特指出了像OpenAI的o3和Deepseek R1這樣的系統,它們展示了複雜的規劃能力——來回推進以解決複雜問題。
這些推理模型和研究代理可以在重大財務決策中發揮重要作用。例如,他解釋了自己如何利用人工智慧來了解太空產業,因為他在這個領域有大量投資。
"在我的情況下,我購買了一家火箭公司,因為它很有趣,這是一個我不是專家但想成為專家的領域,所以我正在使用深度研究,這些系統花15分鐘就能寫出這些深入的論文,"他解釋道。"這太不可思議了。"
施密特的觀點與其他人工智慧專家的看法相似,他們也對公眾對語言模型的狹隘關注提出了類似的擔憂。Meta的首席人工智慧科學家揚·勒昆曾多次表示,當前的大型語言模型缺乏理解物理世界、持久記憶、推理和規劃等基本能力。
然而,勒昆earlier今年預測,在五年內將出現"新的人工智慧架構正規化",更加強調規劃和推理能力。他提出的分層聯合嵌入預測架構(H-JEPA)旨在使人工智慧能夠規劃行動序列以最佳化目標。
專家們認為,當前聊天機器人和真正智慧系統之間的區別在於規劃能力——制定策略、預測後果並相應調整的能力。
除了技術挑戰,施密特將人工智慧發展框定為美國和中國之間的高風險競爭——這可能引發全球衝突。
"西方,尤其是美國和中國之間的競爭將在這一領域起決定性作用,"施密特說。
這場競賽已經開始重塑全球貿易,由美國總統唐納德·特朗普發起的關稅戰影響了關鍵供應鏈。除了關稅,美國限制中國獲取先進晶片,推動中國研究人員轉向演算法效率,並押注於美國已經試圖阻止其他國家使用的本地技術。
施密特堅持這是一個已經在戰爭室中發揮關鍵作用的實際問題。"這些對話正在當今世界的核對手之間發生。有正當理由的人說,這個問題的唯一解決方案是先發制人,"他聲稱。"外交政策制定者還沒有考慮到這一點。這正在來臨(……)可能在5年內。"
儘管存在這些嚴重的擔憂,施密特仍對人工智慧的潛在好處保持謹慎樂觀。
在教育方面,施密特設想為地球上每個人提供個性化的人工智慧導師。他還認為,醫療、物理學、材料科學等領域都將從人工智慧的分析能力中受益,並敦促每個人採用這項技術以保持相關性。
"我給你們的建議是乘風破浪,但要每天都這樣做。不要將其視為偶發事件。"
作為一個老式的科技執行長,這位前谷歌執行長敦促每個人都採用人工智慧。"你們每個人都有使用這項技術的理由。無論你是藝術家、教師、醫生、商人還是技術人員——如果你不使用這項技術,與你的同行和競爭對手相比,你將變得不相關。"
就像OpenAI曾將其產品比作輪子和火等改變生活的發明一樣,施密特保證在未來千年內不會有比人工智慧更重要的東西。
"這種智慧的到來,無論是在人工智慧層面,還是AGI,即通用智慧,然後是超級智慧,都是未來500年,甚至可能是1000年內人類社會最重要的事情。而且這正發生在我們的有生之年,"他如此保證。





