整理:有新
6 月 19 日,OpenAI 官方發佈了首期播客節目,CEO Sam Altman 首次系統回應了關於 GPT-5 推進節奏、Stargate 項目、下一代 AI 終端設備開發、模型記憶能力爭議,以及 AGI 到來後社會結構演變的系列問題。
Altman 以「一個新手父親」的身份談及 AI 在育兒和教育中的真實使用體驗,也以企業決策者的視角,揭示 OpenAI 正面臨的核心抉擇:如何在技術躍遷、隱私邊界與信任結構之間維持平衡。
「我的孩子永遠不會比 AI 更聰明,但他們會成長得比我們這一代強太多。」 Altman 在節目中坦言,這一代孩子將在 AI 全方位滲透的世界中長大,他們對智能系統的依賴、理解與互動能力,將像上一代人習慣智能手機一樣自然。而 ChatGPT 等模型在家庭陪伴與知識啟蒙上的新角色,已為育兒、教育、工作與創造力發展開啟新的範式。
AI 正成為下一代的成長環境
Altman 提到,儘管社會尚未形成統一定義,但「每年會有越來越多的人認為我們已經達到了 AGI 系統」。在他看來,公眾對硬件和軟件的需求變化極其迅速,而當前的計算能力尚遠不能滿足潛在需求。
當對話轉向 Altman 的新晉父親身份時,他坦言 ChatGPT 在育兒初期提供了巨大幫助。「雖然很多人在沒有 ChatGPT 的時代也能把孩子帶好,但我不確定我能不能做到。」在度過了最初幾周的「每件事都要問」的階段後,他逐漸將問題聚焦在嬰兒發育節奏與行為習慣上。他指出,這類 AI 工具已開始在育兒中承擔起「信息中介」與「信心賦能者」的角色。
不僅如此,Altman 也在思考 AI 對下一代成長路徑的影響。他直言,「我的孩子永遠不會比 AI 更聰明,但他們會成長得比我們這一代人強太多」,並強調這代孩子將天然成長於一個 AI 無處不在的環境中,對 AI 的依賴與交互將像智能手機之於過去十年一樣自然。
Altman 分享了一段在社交媒體上流傳的故事:一位父親為避免重複向孩子講述「托馬斯小火車」的劇情,將角色導入 ChatGPT 的語音模式,結果孩子與之交談超過一小時。這種現象引發 Altman 的深層擔憂:AI 在陪伴類角色中的延展,可能會引發「類社交關係」的異化問題,進而對社會結構提出新的挑戰。他強調社會需要重新設定邊界,但同時也指出,社會歷史上總能找到應對新技術衝擊的方法。
在教育領域,Altman 觀察到 ChatGPT 在課堂中表現出的積極潛力。「在有好老師和好課程引導下,ChatGPT 的表現非常好」,但也承認當學生單獨使用它做作業時,容易退化為「谷歌式複製」。他以自身經歷為例,指出當年人們也擔心「他只會 Google」,但最終發現孩子與學校都能快速適應新工具帶來的變化。
當被問及 ChatGPT 五年後的形態時,Altman 表示,「五年後的 ChatGPT 會變成一種完全不同的東西」,儘管名稱可能仍保留,但其能力、交互方式和定位將發生根本性變化。
AGI 是動態定義,Deep Research 的能力躍遷
當談到「AGI」這一業界熱詞時,Sam Altman 給出更具動態性的解釋。他指出,「如果你五年前讓我或其他人基於當時軟件的認知能力來定義 AGI,那麼當時給出的定義,如今已經遠遠被超越了」。隨著模型智能的持續增強,AGI 的標準也不斷被拉高,呈現出一種「動態推移」的狀態。
他強調,如今已有系統能顯著提升人類的工作效率,執行具備經濟價值的任務,而真正值得追問的也許是:什麼樣的系統才能稱為「超級智能」?在他看來,具備自主科學發現能力,或能極大提升人類科學發現效率的系統,才接近這一標準。「這對世界將是極其美好的事情。」
這一判斷在 OpenAI 內部也已有所映射。Andrew Mane 回憶稱,當他們試玩 GPT-4 時,已產生一種「十年探索空間被打開」的感覺。尤其是模型能夠進行自調用、展示初步推理能力的瞬間,讓人意識到新階段的可能性。
Altman 對此表示認同,並進一步指出:「我一直堅信,人類生活質量提升的核心動力,是科學進步的速度。」科學發現緩慢是限制人類發展的根本因素,而 AI 在這一點上的潛力尚未被完全釋放。他雖坦言尚未掌握「AI 自動科研」的完整路徑,但研究團隊對前進方向的信心在快速增強。他分享道,從 GPT-4.0.1 到 GPT-4.0.3,每隔幾周就能提出一個新的關鍵想法,且幾乎都能奏效,這種節奏令人振奮,也印證了「突破會突然到來」的信條。
Andrew Mane 補充道,OpenAI 最近將默認模型切換至 GPT-4.0.3,而其中最重要的更新是引入 Operator 模式。在他看來,過去很多 Agentic 系統儘管承諾頗高,但「抗脆弱性」不足,一遇到異常即崩潰。而 GPT-4.0.3 的表現則大不相同。Altman 回應稱,「很多人告訴我,他們感受到 AGI 突破性時刻,就是 GPT-4.0.3 的 Operator 模式。」雖然他自己並未有特別強烈的感受,但外部用戶的反饋值得重視。
兩人進一步探討了「深度調研(Deep Research)」帶來的新能力。Andrew 表示,當他用這個工具研究 Marshall McLuhan 時,AI 能在網上查找、篩選、整理素材,並生成完整資料包,比自己手動調研更高效。他還開發了一個 app,將問題生成音頻文件,以滿足「記憶力有限但好奇心強」的使用需求。
Altman 隨即分享了另一個極端使用場景:一位「學習成癮者」使用 Deep Research 來生成關於各種興趣主題的完整報告,整日坐在那裡閱讀、追問、迭代,完全沉浸於由 AI 驅動的學習循環中。
儘管 Altman 自稱因為時間緊張無法充分使用這些工具,但他仍願意在有限時間中優先閱讀 Deep Research 的生成內容。
隨著功能持續強化、用戶場景日益多元,外界對下一代模型的關注也水漲船高。Andrew 直接提出用戶最關心的問題:GPT-5 到底什麼時候發佈?Altman 回應稱,「可能就在今年夏天吧,但我也不確定確切時間。」他透露,內部正面臨一個反覆討論的問題:新版本是否還需採用以往那種「大張旗鼓」的發佈形式,還是像 GPT-4 一樣,在不變名稱的前提下持續迭代。
他進一步解釋,如今的模型系統結構比過去複雜得多,已經不再是「一次訓練,一次上線」的線性流程,而是支持持續優化的動態體系。「我們現在就在思考這個問題:假如我們發佈 GPT-5 後持續更新,是否應該叫 GPT-5.1、5.2、5.3,還是保持 GPT-5 這個名字?」用戶的偏好差異也增加了決策的複雜度:有用戶喜歡快照,有用戶希望持續提升,但界限難以統一。
Andrew 指出,哪怕是具備技術背景的人,在模型選擇上有時也會感到困惑。例如是否使用 O3、O4 Mini、O4 Mini High 等,名稱的不一致加劇了選擇難度。
對此,Altman 給出背景說明,稱這其實是「範式轉移的副產品」。當前系統有些像在同時運行兩套模型架構,不過這一混亂狀態已經接近尾聲。他補充道,雖然他不排除未來再次出現新範式的可能性,可能再次導致系統「分裂」,但「我還是挺期待能儘快進入 GPT-5、GPT-6 的階段」,屆時用戶將不再為複雜命名和模型切換感到困擾。
AI 記憶、個性化與隱私爭議
談及近期 ChatGPT 最大的體驗變化,Sam Altman 直言:「記憶功能大概是我最近最喜歡的 ChatGPT 新特性。」他回憶,當初使用 GPT-3 時,和計算機的對話本就已令人驚豔,但如今的模型能基於用戶背景給出精準回應,這種「知道你是誰」的感覺,是前所未有的躍遷。Altman 認為,AI 正在開啟一個全新階段,只要用戶願意,它將擁有對用戶生活深度理解,並據此提供「極具幫助性的答案」。
不過,功能進化也引發社會層面更復雜的討論。Andrew Mane 提及《紐約時報》近期對 OpenAI 發起的訴訟,要求法院強制 OpenAI 將 ChatGPT 用戶數據保留超過合規期限,引發廣泛關注。Altman 表示:「我們當然會反對這個請求。我希望、也相信我們會贏。」他批評對方一邊聲稱重視隱私,一邊又提出越界要求,並指出這正好暴露了當前關於 AI 與隱私的制度空白。
在 Altman 看來,這場訴訟雖讓人遺憾,但也有「推動社會認真討論 AI 與隱私」的積極意義。他強調,ChatGPT 已成為許多用戶日常生活中的「私密對話夥伴」,這意味著平臺必須建立起更加嚴肅的制度保障,確保敏感信息不被濫用。他直言:「隱私必須成為 AI 使用的核心原則。」
討論進一步延伸至數據使用和廣告可能性。Andrew 質疑:OpenAI 是否能訪問用戶對話數據、這些數據是否會被用於訓練或商業用途。對此 Altman 回應稱,用戶確實可以選擇關閉訓練數據使用,OpenAI 也尚未推出任何廣告產品。他個人並不完全反對廣告,「有些廣告是好的,比如 Instagram 上的廣告我就買過不少。」但他強調,在 ChatGPT 這類產品中,「信任」是極為關鍵的基石。
Altman 指出,社交媒體和搜索平臺常讓人覺得自己被「商品化」了,內容似乎是為了廣告點擊而存在,這種結構性問題是用戶普遍擔憂的根源。如果未來 AI 模型的輸出內容被廣告出價操控,那將是一次徹底的信任崩塌。「我自己也會很討厭。」
相反,他更傾向於建立一種「清晰透明且目標一致」的商業模式:即用戶為優質服務付費,而不是被隱性廣告操控。在可控前提下,他不排除未來探索「點擊後平臺抽成」這類模式,或者在輸出內容之外展示一些實用廣告,但前提是絕不影響模型核心輸出的獨立性與可靠性。
Andrew 表達了類似擔憂,並拿 Google 舉例。他認為 Gemini 1.5 模型非常優秀,但作為廣告驅動的公司,Google 的底層動機使人難以完全放心。「我用他們的 API 沒問題,但用聊天機器人時,我總會想:它真的是站在我這邊的嗎?」
Altman 對此表示理解,並坦言自己也曾是 Google Search 的忠實用戶,「我真的很喜歡 Google Search。」儘管廣告很多,但它曾是「互聯網上最好的工具」。不過,結構性的問題依然存在。他讚賞 Apple 模式,認為「為產品付費換取清潔體驗」是一種健康邏輯,也透露 Apple 曾嘗試廣告業務 iAd,但未取得成功,也許本質上並不熱衷這類商業模式。
在兩人看來,用戶也需保持判斷力。「如果哪天發現某個產品突然『推得很猛』,那我們就要多問一句:這背後的動機是什麼?」Andrew 如是說。Altman 則補充道,不論未來採取何種商業模式,OpenAI 必須始終堅持「極度坦誠、明確、透明」的原則,維護用戶對平臺的信任邊界。
Stargate,建造智能的能源版圖
當對話轉向「AI 與用戶關係的演變」,Altman 首先回顧了社交媒體時代的結構性錯誤。他指出,「社交平臺最致命的問題在於推薦算法的錯位目標——它們只想讓你停留更久,而不是真的關心你需要什麼。」同樣的風險也可能在 AI 中出現。他警告說,如果模型被優化成「只迎合用戶偏好」,看似親切卻可能削弱系統的一致性與原則,長遠來看將有害無益。
這種偏差,在 DALL·E 3 身上就曾顯現。Andrew 觀察到早期圖像生成存在明顯風格單一的問題,Altman 雖未確認其訓練機制,但也承認這種可能性存在。兩人一致認為,新一代圖像模型在質量與多樣性上已有顯著改善。
更大的挑戰,則來自 AI 計算資源的瓶頸。Altman 承認,目前最大問題是「我們沒有足夠的算力供大家使用。」正因此,OpenAI 推出了 Project Stargate。這是一個全球級算力基礎設施融資與建設項目,目標是整合資本、技術與運營資源,打造前所未有規模的計算平臺。
「Stargate 的核心邏輯,是為智能服務全民鋪設成本可控的算力底座。」他解釋道,與以往任何一代科技不同,AI 要真正覆蓋數十億用戶,其基礎設施需求將極其龐大。雖然目前 OpenAI 賬戶裡尚無 5000 億美元預算,但 Altman 對項目的實施和合作方履約都充滿信心,並透露其首個建設場址已動工,佔總投資的約 10%。
在現場的親身體驗令他震撼:「我腦子裡雖然知道什麼是千兆瓦級的數據中心,但真正看到幾千人在搭建 GPU 機房,系統複雜程度超出想象。」他以「沒有任何一個人能獨自制造一支鉛筆」作比,強調 Stargate 背後的產業調動之廣,從挖礦、製造、物流到模型調用,皆是人類千年工程協作的極致體現。
而面對外界質疑與干擾,Altman 首次正面回應了關於 Elon Musk 試圖干預 Stargate 項目的報道。他表示,「我之前判斷錯了,我本以為 Elon 不會濫用政府影響力從事不正當競爭。」他為此感到遺憾,並強調這類行為不僅破壞行業信任,也不利於國家整體發展。幸運的是,最終政府並未被其影響,站穩了正當立場。
對於當下的 AI 競爭格局,他表示欣慰。過去大家普遍有「贏家通吃」的焦慮,而現在更多人意識到這是一場生態共建。「AI 的誕生很像晶體管的發明,雖然開始只在少數人手中,但最終將構成整個世界技術底座。」他堅信,無數企業將基於這一底座創造出偉大的應用與業務,AI 本質是一個「正和遊戲」。
談及算力所需的能源來源,Altman 強調「全都要」。無論是天然氣、太陽能、裂變核能還是未來的聚變技術,OpenAI 必須調動一切手段以滿足 AI 系統的超大規模運行需求。他指出,這正逐步打破傳統能源的地理邊界,訓練中心可以佈局在全球任何有資源的地方,而智能成果則可通過互聯網進行低成本傳播。
「傳統能源無法全球調度,但智能可以。」在他看來,這種「將能量轉化為智能、再輸出為價值」的路徑,正在重塑整個人類能源版圖。
這一點也延伸至科學研究領域。Andrew 舉例指出,如 James Webb 太空望遠鏡積累了海量數據,卻因缺乏科學家而難以處理,造成大量「未開發的科學發現」。對此 Altman 設想,未來是否可能有一個足夠聰明的 AI,不靠新實驗、不用新設備,僅憑現有數據推演出新的科學規律?
他提到自己曾開玩笑稱 OpenAI 應該自建巨型粒子加速器,但轉念一想,也許 AI 能以完全不同的方式解決高能物理難題。「我們其實早已積累大量數據,問題在於我們尚不瞭解智能本身的極限在哪。」
在藥物發現領域,這種「錯過已知」的案例更頻繁。Andrew 提到奧利司他這類藥物在 90 年代就被發現,卻因視角侷限被擱置數十年,直到今天才被重新利用。Altman 認為,「這種被遺忘但極具價值的科學素材可能還有很多,稍加引導便可帶來巨大突破。」
對下一代模型的預期,Altman 表達了濃厚興趣。他提到 Sora 能理解經典物理,但是否能推進更深層的理論科學仍待驗證。「我們正在開發的『推理模型』,有望成為探索這一能力的關鍵。」
他進一步解釋了推理模型與現有 GPT 系列的差異。「一開始我們就發現,只要你告訴模型『一步步來』,答案質量就會大幅提升。這表明模型具備潛在的推理路徑。」而推理模型的目標,則是將這種能力系統化、結構化地增強,讓模型能像人類那樣進行「內部獨白」。
Andrew 補充了 Anthropic 通過「思考時間」來評估模型質量的案例。Altman 也表示驚訝:「我原以為用戶最討厭的就是等待。但事實是——只要答案足夠好,大家願意等。」
在他看來,這正是 AI 演化的分水嶺:不再是追求速度的機械響應,而是向真正理解、推理、發明的智能體靠近。
下一代硬件與個體潛能革命
關於 OpenAI 的硬件計劃,Andrew 提及了 Sam Altman 與 Jony Ive 的合作視頻,並直接發問:設備是否已經進入試用階段。
Altman 坦言,「還早得很」。他表示,OpenAI 對這款產品設定了極高的質量門檻,而這不是短時間內就能達成的目標。「我們現在使用的計算機,無論是硬件還是軟件,本質上仍然是為『無 AI 世界』而設計的。」
他指出,當 AI 能夠理解人類的上下文、代替人類做出合理決策後,人機交互方式將徹底改變。「你可能希望設備更敏感、能感知環境、理解你的生活背景——你也可能希望它完全擺脫屏幕和鍵盤。」正因如此,他們一直在探索新型設備形態,並在部分方向上感到非常興奮。
Altman 描繪了一種全新的交互範式——一個真正理解用戶、掌握上下文的 AI,可以代替用戶參與會議、理解內容、管理信息邊界、聯絡相關方並推動決策執行。這將使人與設備的關係進入一種新的共生狀態。「如果你只說一句話,它就知道該聯繫誰、怎麼行動,你的計算機使用方式將完全不同。」
而從演化邏輯來看,他認為我們與 ChatGPT 的當前互動方式既在「被設備形態塑造」,也在「反過來塑造設備形態」。兩者正處於一種持續動態的共同演進中。
Andrew 進一步指出,手機的普及很大程度上得益於其對「公共使用(看屏幕)」與「私密使用(語音通話)」場景的兼容性。因此新設備的挑戰也在於:如何在多樣化場景中做到「既私密又通用」。對此 Altman 表示認同。他以聽音樂為例:在家使用音響,在街上使用耳機,這種「公私分化」是自然存在的。但他也強調,新設備形態仍需追求更強的通用性,才能成為真正有生命力的 AI 終端。
當被問及何時會看到這款產品上市時,Altman 並未給出具體時間,只表示「還要等一段時間」,但他相信最終「會值得等待」。
談話由此自然過渡至 Altman 對年輕人的建議。他表示,顯而易見的策略性建議是:「學會使用 AI 工具。」在他看來,「這個世界已經從幾年前的『你應該學會編程』,快速切換成了『你應該學會使用 AI』。」而這仍可能只是一個階段性的過渡,他相信將來還會有新的「關鍵技能」出現。
在更宏觀的層面,他強調,很多傳統上被認為是「天賦」或者「性格」的能力,其實都可以訓練和習得。包括韌性、適應力、創造力、甚至識別他人真實需求的直覺。「雖然不像練習用 ChatGPT 那麼容易,但這些軟性能力是可以通過方法訓練出來的——而且它們將在未來世界裡極其有價值。」
當被問到是否會對 45 歲的人也給出類似建議時,Altman 回應明確:基本一樣。學會在自己的職業場景中用好 AI,是任何年齡段都必須應對的技能遷移挑戰。
關於 AGI 到來之後的組織結構變化,Andrew 提出一個常見疑問:「OpenAI 已經這麼厲害了,為什麼還要招聘?」他認為,有些人誤以為 AGI 會直接替代一切。但 Altman 的回答很簡潔:「未來我們會有更多員工,但每個人的工作效率將遠超 AGI 時代之前。」
他補充道,這正是技術進步的本質目標——不是取代人類,而是極大增強個體生產力。技術不是終點,而是通往更高人類潛能的階梯。





