在 AI 圈,Sam Altman 的每一次發聲都被視為對未來“天氣預報”的更新。
昨晚,Altman 在 X 上發帖稱將舉辦一場線上研討會,希望在開始構建新一代工具之前收集大眾的反饋和意見。
北京時間今早 8 點,這場由 OpenAI CEO Sam Altman 發起的研討會如約而至。來自各行業的創業者、CTO、科學家和開發者社區的代表,圍繞 AI 的未來形態、模型演進、智能體(Agent)、科研自動化以及安全問題,向 Altman 提出了最尖銳、也最現實的問題。
研討會上,這位 OpenAI 的掌舵人不僅勾勒了 GPT-5 及其後續版本的進化藍圖,同時揭示了一個令所有開發者和創業者不得不面對的現實:我們正在進入一個智力成本極低、軟件形態從“靜態”轉向“即時生成”的劇變期。
會談的第一個焦點,落在了 GPT-5 性能表現的“非對稱性”上。有開發者敏銳地察覺到,相較於 GPT-4.5,新版本在邏輯推理和編程上極強,但在文采上似乎略遜一籌。對此,Altman 表現出了極高的坦誠。
他承認,OpenAI 在 GPT-5.2 的研發中確實“搞砸了”寫作能力的優先級,因為團隊將有限的算力資源傾斜在了推理、編碼和工程能力這些硬核智力指標上。
在 Altman 看來,智力是一種“可塑的資源”,當模型具備了頂級的推理引擎,寫作能力的迴歸只是時間問題。這種“偏科”實際上反映了 OpenAI 的某種戰略重心:先通過 Scaling Law(規模定律)攻克人類智力的最高地帶,再回頭去填補審美和表達的細節。這意味著,未來模型的競爭將不再是單一維度的比拼,而是看誰能更早地在全維度上實現“智力平權”。
如果說智力水平決定了天花板,那麼成本和速度則決定了 AI 的滲透率。Altman 在會上給出了一個極具震撼力的承諾:到 2027 年底,GPT-5.2 級別的智力成本將至少下降 100 倍。
然而,這種“廉價到無需計量”的未來並非終點。
Altman 指出,市場正在發生微妙的轉向:開發者對“速度”的渴求正在超越對“成本”的關注。隨著 Agent(智能體)開始處理數十個步驟的長程任務,如果輸出速度不能實現百倍以上的提升,那麼複雜的自主決策將變得毫無實用價值。在這種權衡下,OpenAI 可能會提供兩種路徑:一種是極致廉價的“智力自來水”,另一種則是極速反饋的“智力推進器”。這種對速度的強調,預示著 AI 應用將從簡單的問答,徹底跨入高頻、實時的自動駕駛階段。
在這種智力成本驟降、速度飆升的背景下,傳統軟件的概念正在瓦解。Altman 提出了一個顛覆性的願景:未來的軟件不應該是靜態的。
過去,我們習慣於下載一個通用的 Word 或 Excel;未來,當你遇到一個特定問題時,計算機應該直接為你寫一段代碼,生成一個“即時應用”來解決它。這種“隨需隨生、用完即棄”的模式將徹底重構操作系統。雖然我們可能出於習慣保留一些熟悉的交互按鈕,但背後的邏輯架構將是高度個人定製化的。每個人手中的工具都會隨著其工作流的積累而演化,最終形成一套獨屬於個人的、動態進化的生產力系統。這不僅僅是軟件的定製,更是生產關係的重組。
InfoQ 翻譯並整理了這場研討會的重點內容,以饗讀者:
提問:您如何看待 AI 對未來社會和經濟的影響?
Sam Altman:說實話,要在一年內完全消化這種規模的經濟變革是非常困難的。但我認為這會極大地賦能每一個人:它將帶來大規模的資源富足、門檻降低,以及創造新事物、建立新公司和探索新科學的極低成本。
只要我們在政策上不出大差錯,AI 應該成為社會的一種“平衡力量”,讓那些長期以來未被公正對待的人獲得真正的機會。但我確實擔心,AI 也可能導致權力和財富的高度集中,這必須是政策制訂的核心關注點,我們要堅決避免這種情況發生。
提問:我發現 GPT-4.5 曾是寫作能力的巔峰,但最近 GPT-5 在 ChatGPT 裡的寫作表現似乎有些笨拙、難以閱讀。顯然 GPT-5 在 Agent(智能體)、工具調用和推理上更強,它似乎變得更“偏科”了(比如編程極強,寫作一般)。OpenAI 怎麼看這種能力的失衡?
Sam Altman:坦誠說,寫作這一點確實是我們搞砸了。我們希望未來的 GPT-5.x 版本在寫作上能遠超 4.5。
當時我們決定將大部分精力放在 GPT-5.2 的“智力、推理、編程和工程能力”上,因為資源和帶寬是有限的,有時專注於某一方面就會忽略另一方面。但我堅信未來屬於“通用的高素質模型”。即便你只想讓它寫代碼,它也應該具備良好的溝通和表達能力,能清晰、犀利地與你交流。我們認為“智力”在底層是相通的,我們有能力在一個模型中把這些維度都做到極致。目前我們確實在猛攻“編程智力”,但很快就會在其他領域趕上來。
智能將廉價到無需計量
提問:對於運行數千萬個 Agent 的開發者來說,成本是最大的瓶頸。您如何看待小模型和未來的成本降幅?
Sam Altman:我們的目標是,到 2027 年底,讓 GPT-5.2 級別的智力成本至少降低 100 倍。
但現在有一個新趨勢:隨著模型輸出變得越來越複雜,用戶對“速度”的需求甚至超過了“成本”。OpenAI 非常擅長壓低成本曲線,但過去我們對“極速輸出”的關注不夠。有些場景下,用戶可能願意付高價,只要速度能提升 100 倍。我們需要在“極致廉價”和“極致速度”之間找到平衡,如果市場更渴望低成本,我們會沿著那條曲線走得非常遠。
提問:現在的交互界面並不是為 Agent 設計的。Agent 的普及會加速“微型應用(Micro Apps)”的出現嗎?
Sam Altman:我已經不再把軟件看作是“靜態”的東西了。現在如果我遇到一個小問題,我期望電腦能立刻寫一段代碼幫我解決掉。我認為我們使用電腦和操作系統的方式將發生根本性改變。
雖然你可能每天用同一個文字處理器(因為你需要按鈕留在熟悉的位置),但軟件會根據你的習慣進行極致的定製。你的工具會不斷進化、向你個人的需求收斂。在 OpenAI 內部,大家已經習慣用編程模型(Codex)來定製自己的工作流,每個人的工具用起來都完全不同。軟件“由於我、且為我”而生,這幾乎是必然的趨勢。
給創業者的建議:不要做“模型的小補丁”
提問:當模型更新不斷吞噬創業公司的功能時,創業者該如何建立護城河?有什麼是 OpenAI 承諾不碰的?
Sam Altman:很多人覺得商業的物理定律變了,其實並沒有。現在的改變只是“工作速度變快了”、“開發軟件變快了”。但建立成功初創公司的規則沒變:你依然要解決獲客問題,要建立 GTM(轉市場)策略,要創造粘性,要形成網絡效應或競爭優勢。
我給創業者的建議是:你的公司在面對 GPT-6 的驚人更新時,是感到開心還是難過?你應該去構建那些“模型越強,你的產品就越強”的東西。如果你只是在模型邊緣打個小補丁,那會過得很艱難。
提問:現在的 Agent 執行長流程任務時經常在 5 到 10 步就斷掉了。什麼時候能實現真正長期的自主運行?
Sam Altman:這取決於任務的複雜程度。在 OpenAI 內部,有些通過 SDK 運行的特定任務已經可以近乎永久地運行下去了。
這不再是“何時實現”的問題,而是“應用範圍”的問題。如果你有一個理解非常透徹的特定任務,今天就能嘗試自動化。但如果你想對模型說“去幫我開一家創業公司”,由於反饋環路太長且難以驗證,目前還很難。建議開發者先拆解任務,讓 Agent 能夠自我驗證每一箇中間步驟,再逐步擴大其職責範圍。
AI 能幫人類產生好創意嗎?
提問:現在很多人抱怨 AI 生成的內容是“垃圾(Slop)”,我們該如何利用 AI 提高人類創意的質量?
Sam Altman:雖然人們叫 AI 的輸出為垃圾,但人類產生的廢話也不少。產生真正的新創意是非常難的。我越來越相信,人類的思維邊界取決於工具的邊界。
我希望能開發出幫人產生好創意的工具。當創造的成本驟降,我們可以通過密集的反饋循環快速試錯,從而更早找到好的創意。
想象一下,如果有一個“Paul Graham 機器人”(YC 創始人),他了解你所有的過去、你的代碼和工作,能不斷給你提供頭腦風暴,即便他給出的 100 個主意裡有 95 個是錯的,只要能激發你產生那 5 個天才般的念頭,對世界的貢獻也是巨大的。我們的 GPT-5.2 已經讓內部科學家感受到了非平庸的科學進展,一個能產生科學洞察的模型,沒理由產生不了優秀的產品洞察。
提問:我擔心模型會讓我們困在舊技術裡。現在的模型學習兩年前的新技術都很費勁,以後我們能引導模型學習最新出現的技術嗎?
Sam Altman:這絕對沒問題。從本質上講,模型是一個“通用推理引擎”。雖然現在它們內置了海量的世界知識,但未來幾年的里程碑將是:當你交給模型一個全新的環境、工具或技術,只要解釋一次(或讓它自主探索一次),它就能極其可靠地學會使用。這離我們並不遠。
提問:作為一名科學家,我發現研究靈感是指數級增長的,但人的精力有限。模型會接管整個科研流程嗎?
Sam Altman:實現完全閉環的自主科研還有很長的路要走。雖然數學研究可能不需要實驗室,但頂尖數學家目前仍然需要深度參與,糾正模型的直覺偏差。
這很像國際象棋的歷史:Deep Blue 擊敗卡斯帕羅夫後,曾出現一段“人機協作(半人馬)”強於純 AI 的時期,但很快純 AI 就再次統領了賽場。
現在的 AI 對科學家來說,就像是“無限量的博士後”。它能幫你同時探索 20 個新問題,做廣度搜索。至於物理實驗,我們也在討論是該 OpenAI 自己建自動化實驗室,還是讓全球科研社區貢獻實驗數據。目前看,科研社區對 GPT-5.2 的擁抱讓我們傾向於後者,這會是一個更分佈式、更聰明、更高效的科研生態。
提問: 我更關心的是安全問題,最好是更強的安全性。在 2026 年,AI 有很多可能出問題的方式,其中一個我們非常緊張的方向是生物安全。現在這些模型在生物領域已經相當強了,目前無論是 OpenAI,還是整個世界的總體策略,大多還是試圖 限制誰可以接觸這些模型,並且通過各種分類器,阻止模型幫助人們製造新的病原體。但我不認為這種方式還能持續很久。你怎麼看?
Sam Altman:我認為,世界在 AI 安全,尤其是 AI 生物安全這件事上,需要完成一次根本性的轉變——從“封堵(blocking)”,轉向“韌性(resilience)”。
我一位聯合創始人曾用過一個我非常喜歡的類比:火災安全。火最初為人類社會帶來了巨大的好處,隨後它開始燒燬整座城市。人類最開始的反應,是儘可能去限制火。我最近才知道,“宵禁(curfew)”這個詞,最早就和“晚上不允許生火”有關,因為城市會被燒掉。
後來,我們改變了思路,不再只是試圖禁止火,而是提高對火的韌性:我們制定了消防規範,發明了阻燃材料,建立了一整套體系。現在,作為一個社會,我們在應對火災這件事上已經做得相當不錯了。
我認為,AI 也必須走同樣的路徑。AI 在生物恐怖主義方面會成為一個真實的問題;AI 在網絡安全上也會成為一個真實的問題;但與此同時,AI 也是這些問題的重要解決方案。
因此,我認為這需要的是全社會層面的努力:不是依賴少數“我們信任的實驗室”永遠正確地封堵風險,而是建設一種具有韌性的基礎設施。因為這個世界上,必然會存在大量優秀的模型。我們已經和很多生物研究人員、公司討論過,如何應對“新型病原體”的問題。確實有很多人投入其中,而且也有不少反饋認為,AI 在這方面是有幫助的,但這不會是一個純技術問題,也不會是一個完全靠技術解決的問題。整個世界都需要以一種不同於過去的方式來思考這件事。坦率地說,我對當前的狀態非常緊張。但我也看不到除“以韌性為核心”的路徑之外,還有別的現實選擇。而且,從正面看,AI 確實可以幫助我們更快地建立這種韌性。
不過,如果今年 AI 真的出現一次“明顯、嚴重”的失敗事件,我認為生物安全是一個相當合理的“風險爆點”方向。再往後一年、兩年,你也可以想象,還有很多其他事情可能會出大問題。
AI 學習效率提高後,人與人之間協作還重要嗎?
提問:我的問題和“人類協作”有關。隨著 AI 模型不斷變強,它們在個人學習方面非常高效,比如快速掌握一個新學科。這一點我們在 ChatGPT 和教育實驗中已經看到,也非常認可。但我經常會反覆想到一個問題:當你可以隨時得到答案時,為什麼還要花時間、甚至承受摩擦,去向另一個人提問?你之前也提到,AI 編程工具可以用極快的速度,完成過去需要人類團隊協作才能完成的工作。所以,當我們談“協作、合作、集體智能”時,人類 + AI 是很強的組合,那人類與人類之間的協作會發生什麼變化?
Sam Altman:這裡面有很多層問題。我年紀比在座的大多數人都大一點。但即便如此,Google 出現的時候,我還在上中學。那時老師試圖讓學生承諾“不使用 Google”,因為大家覺得:如果你隨手就能查到一切,那為什麼還要上歷史課?為什麼還要記憶?
在我看來,這種想法完全不可理喻。我當時的感覺是:這會讓我變得更聰明,學到更多東西,能做更多事情,這就是我成年後要長期使用的工具。如果因為它存在,就讓我去學那些已經被淘汰的技能,那反而是瘋狂的。
這就好比:在你明明知道已經有計算器的情況下,卻還強迫我去學算盤——那在當時可能是重要技能,但現在已經沒有價值了。我對 AI 工具的看法是一樣的。我理解,在當前的教育體系下,AI 工具確實成了問題。但這恰恰說明,我們需要改變教育方式,而不是假裝 AI 不存在。
“讓 ChatGPT 幫你寫東西”這件事,就是未來世界的一部分。當然,寫作訓練仍然重要,因為寫作是思考的一部分。但我們教人如何思考、以及如何評估思考能力的方式,必須發生變化,而且我們不應該假裝這種變化不存在。我對此並不悲觀。
那 10% 極端自學能力很強的學習者,已經表現得非常出色了。我們會找到新的方式,重構課程體系,把其他學生一起帶上來。至於你提到的另一點——如何讓這不是一個“你一個人對著電腦變得很厲害”的過程,而是一個協作過程。目前為止,我們並沒有看到 AI 導致人類聯繫減少的證據,這也是我們在持續觀察和測量的事情。
我的直覺恰恰相反:在一個充滿 AI 的世界裡,人與人之間的連接會變得更有價值,而不是更沒價值。我們已經看到一些人開始探索新的界面,來讓協作變得更容易。在我們考慮自研硬件和設備時,甚至一開始就在思考:“多人協作 + AI” 的體驗應該是什麼樣子?
雖然現在還沒有人真正把這件事完全做對,但我認為,AI 會以前所未有的方式,讓這種協作成為可能。你可以想象:五個人圍坐在一張桌子旁,旁邊還有一個 AI 或機器人,整個團隊的生產力會被大幅放大。未來,每一次頭腦風暴、每一次問題解決,AI 都會成為團隊的一部分,幫助整個群體做得更好。
Agent 大規模進入生產系統,最大的被低估風險是什麼?
提問: 隨著 Agent 開始大規模運行、直接操作生產系統,你認為 最被低估的失敗模式 是什麼?是安全、成本、可靠性嗎?以及,哪些“艱難但重要的工作”目前投入還不夠?
Sam Altman:你提到的這些問題,幾乎每一個都成立。有一件事讓我個人、也讓我們很多人都感到意外。我第一次用 Codex 時,非常確信一件事: “我絕對不會給它完全、無人監督的電腦訪問權限。”
我堅持了大概兩個小時。然後我想:它看起來真的在做非常合理的事情;每一步都要我點確認實在太煩了;不如先打開一會兒看看會發生什麼。結果,我從來沒有再把完全訪問權限關掉。我發現,很多人都有類似的經歷。
這讓我真正擔心的是:這些工具的能力和便利性太強了,而它們的失敗概率可能很低,但一旦失敗,後果可能是災難性的。因為失敗發生得不頻繁,人們會慢慢滑入一種狀態:“應該沒事吧。”
但隨著模型變得越來越強、越來越難理解,如果模型內部存在某種微妙的錯位,或者在長時間、複雜使用後出現新的系統性問題,你可能已經在某個系統裡埋下了一個安全漏洞。你可以對“AI 失控”的想象有不同程度的科幻傾向,但我真正擔心的是:人們會被這些工具的強大和愉悅感牽著走,而不再認真思考它們的複雜性。能力會上升得非常快;我們會習慣某個階段的模型行為,並因此信任它; 但卻沒有構建足夠健全的、整體性的安全基礎設施。
於是,我們會在不知不覺中,走向一個危險狀態。
我認為,圍繞這一點,本身就值得誕生一家偉大的公司。
AI 應該如何進入幼兒與基礎教育?
提問:我想回到教育的話題。我在高中時看到身邊的同學用 ChatGPT 寫作文、做作業;現在在大學,我們在 CS、人文等各個領域都在討論 AI 政策。我想問的是:在幼兒園、小學、初中這些塑造思維方式的關鍵階段,你作為一名父親,如何看待 AI 對教育的影響?
Sam Altman:總體來說,我是反對在幼兒園裡使用電腦的。幼兒園應該更多是:在戶外跑來跑去,接觸真實的物體,學習如何與他人互動。所以,不只是 AI,我甚至覺得大多數時候,幼兒園裡連電腦都不應該有。
從發展角度來看,我們仍然沒有完全理解技術對兒童的長期影響。關於社交媒體對青少年的影響,已經有很多研究了,而且結果相當糟糕。我的直覺是:大量技術對更小年齡兒童的影響,可能更糟,但討論得卻少得多。在我們真正理解這些影響之前,我不認為有必要讓幼兒園階段的孩子大量使用 AI。
提問:我們在生物醫藥領域。生成式 AI 在臨床試驗文檔、法規流程等方面已經非常有幫助。現在我們也在嘗試用它做藥物設計,特別是化合物設計。但一個很大的瓶頸是 三維推理能力。你認為這裡會出現一個關鍵拐點嗎?
Sam Altman:這個問題我們一定會解決。我不確定是不是 2026 年就能完成,但這是一個非常普遍、非常高頻的需求。我們大概知道該怎麼做,只是目前還有很多更緊急的方向需要推進。但這件事一定會到來。
參考鏈接:
https://www.youtube.com/watch?v=Wpxv-8nG8ec&t=2s
本文來自微信公眾號“AI前線”,作者:冬梅,36氪經授權發佈。




