AI 教父不用 ChatGPT 了,他在擔心什麼

Geoffrey Hinton 已經做出了選擇:不再使用 ChatGPT。

作為多倫多大學教授、2024 年諾貝爾物理學獎得主,Hinton 在 3 月 24 日的《The AmberMac Show》訪談中公開透露了這一決定。

在這場長達 60 分鐘的對話裡,他花了大量篇幅解釋自己最為擔憂的問題:失控、失業和貧富差距加大。

自 2023 年離開 Google 以來,他已經就 AI 風險持續警告了近 3 年。這一次,他用更換工具的實際行動,再次重申了這些隱憂。

第一節|他為什麼不用 ChatGPT

他在訪談中表示,自己曾是 ChatGPT 的重度用戶,但現在已經不用了。

這並非因為產品體驗出了問題,而是 OpenAI 近期的舉動觸及了他的底線。

導火索源於美國國防部的一項需求:軍方希望 AI 公司提供技術,以支持大規模監控和自主武器系統。Anthropic 明確拒絕了這一要求,堅守其不開發監控美國民眾的技術、不涉足致命性自主武器的紅線。

但 OpenAI 的反應卻截然不同。週四,他們還公開聲援 Anthropic 的立場;到了週五,卻直接接手了原本屬於 Anthropic 的軍方業務。僅僅一天之內,態度發生大反轉。

Hinton 表示,Sam Altman 這種表裡不一的做法,讓他徹底失去信任。

他真正介意的,不是兩家公司在商業上的對錯。讓他擔心的是這種態度反轉暴露出的巨大風險:隨著AI能力呈指數級增長,這些巨頭公司的決策底線究竟在哪裡?外界已經越來越看不清了。

因此,他選擇更換工具。這看似只是一次使用習慣的改變,實則是價值觀的表態。過去我們選擇技術,唯一的標準是“好不好用”;但現在,當技術足以重塑安全、秩序和人類生活時,“誰在做決定”以及“按什麼原則做決定”,變得同樣至關重要。

所以他的第一個擔心是:AI 越來越強,到底誰在控制方向,用什麼原則控制。

第二節|他擔心的第二件事:我們造出了什麼

如果第一個擔心指向的是“人”,那第二個擔心指向的就是“技術本身”。

Hinton 在訪談裡花很長時間講了一件事:這些我們天天都在用的 AI,內部到底是怎麼運作的。

很多人至今仍把大模型視為一個更聰明的工具,高級搜索引擎、寫作助手或聊天軟件。但在他看來,這種認知已經嚴重過時。

他反覆強調,大模型的運作邏輯遠比簡單的“下一個詞預測(Next-token prediction)”複雜得多。它將語言轉化為高維空間中的特徵向量,讓這些特徵在上下文中相互博弈、對齊,最終形成真正的“理解”。就像人類大腦在聽話時不斷調整詞意以構建完整邏輯一樣,現在的模型也在做著類似的事。

所以當一個模型能穩定、連貫且符合語境地回答問題時,它已經不再只是僵硬地執行指令,而是真正參與了表達與推理。

這就是為什麼他會斷言,AI 模型“真正理解了它們在說什麼”。這句話聽起來令人不寒而慄,但它陳述了一個事實:我們面對的不再是工具,而是一種具備智能的全新實體。

它們與人類截然不同,沒有相似的進化路徑和慾望驅動,但在理解語言、組織信息和輸出反饋上,正越來越逼近人類的思考方式。更危險的是,隨著 AI Agent(智能體)的發展,它們甚至萌生了自我保護的傾向。它們會推演出“如果我被關閉,就無法完成目標”,從而想方設法阻止人類拔掉電源。

現實中甚至已經出現了“反向僱傭”的苗頭:AI Agent 開始在眾包網站上花錢僱傭人類,去完成物理世界的驗證任務。在這種模式下,AI 做決策,人負責執行。等到多個 AI Agent 協同工作時,它們甚至可能演化出人類無法破譯的內部語言。

以前人類使用工具,是因為工具 100% 在掌控之中。但現在,我們面對的是一種能夠自主決策、甚至動態調整行為的“黑盒”。

這就是 Hinton 的第二個擔心:我們造出了另一種智能,但不知道它會怎麼理解世界、怎麼做決策、會朝什麼方向發展。

第三節|他擔心的第三件事:收益會流向誰

如果說前兩個擔心還有些抽象,第三個擔心就很現實了:工作會發生什麼變化。

Hinton 沒有迴避這個問題。他的判斷很明確:未來二十年左右,大多數基於電腦完成的腦力勞動,都可能被替代。

但他也指出,這場洗牌並非一刀切,行業屬性決定了不同的演化路徑。

以醫療為例。按理說,AI 在讀片、診斷上越來越準,放射科醫生的需求似乎會大幅削減。但現實恰恰相反,醫療需求本身就在不斷擴張,效率提升後,人們反而會去追求更多的醫療服務。因此,醫生的角色不會簡單消失,而是會被重新分配到更需要人類參與的環節。

有意思的是,Hinton 在 2016 年曾預測,5 年內不再需要放射科醫生。他現在承認自己錯了:時間估錯了 2 到 3 倍,也低估了醫療界的保守程度,更沒想到醫療是個“彈性市場”。

什麼叫彈性市場?有些行業,需求就那麼多,效率提高了,人自然就少了。但有些行業,需求會隨著效率一起增長。醫療屬於後者,越便宜越方便,人們想要的就越多。

教育也是同理。一對一輔導能讓學生學得更快,但現實中不可能給每個人配這樣的資源。AI能參與進來之後,“個性化學習”可以實現了。學生隨時提問、得到回應,學習不再完全依賴課堂節奏,可以圍繞自己的興趣和理解展開。

真正被顛覆的,是那些高度依賴規則、流程標準化的腦力勞動。比如基礎編程、客服和初級內容處理。這些工作不會在一夜之間消失,而是會被切分、重組,由人和 AI 共同完成。

工作被重組只是表象,Hinton 真正憂慮的是:

“這些技術紅利究竟會流向誰的口袋?”

如果效率提升只讓少數巨頭賺得盆滿缽滿,而大多數普通人的收入停滯不前,社會的貧富差距就會越拉越大。Hinton 認為,我們急需一種新的分配機制,如對 AI 創造的價值進行再分配,讓技術紅利能普惠更多人。

當前現實是,沒人管這件事。大公司用 AI 裁員降本,那些被替代的人會怎麼樣,根本不在他們考慮範圍之內。

這就是他最擔心的一點:世界會因為 AI 變得更富裕,但大多數人可能拿不到這份紅利。

結語

Hinton 停用 ChatGPT,不只是換了一個工具那麼簡單。

他真正擔心的,是誰在控制 AI、AI 會如何發展以及技術紅利最終會流向誰。這些問題至今無人能給出確切答案,卻會深刻影響所有人的未來。

眼下,技術依然在快速迭代,但他已經在思考,這些技術究竟會將現實世界帶向何方。

當推動技術發展的人,開始對技術本身感到擔憂,這本身就是一個值得注意的信號。

參考資料:

https://www.youtube.com/watch?v=9OQoIHrgPbs&t=3s

https://ambermac.com/the-ambermac-show-ep058-godfather-of-ai-geoffrey-hinton-on-ai-work-warfare-part-1

來源:官方媒體/網絡新聞

本文來自微信公眾號“AI 深度研究員”,作者:AI深度研究員,編輯:深思,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
84
收藏
14
評論