6月17日消息,OpenAI首席執行官山姆·奧特曼(Sam Altman)近日首次披露了ChatGPT查詢的具體能耗數據。
他在博文中透露,ChatGPT單次查詢平均耗電0.34瓦時(0.00034千瓦時),用水約0.000085加侖——相當於節能燈泡工作兩分鐘的耗電量,或約1/15茶匙的水量。
作為人工智能行業領軍企業,OpenAI此次公開能耗數據具有標誌性意義,為評估AI技術對環境的影響提供了重要參考,並在業內引發熱議。本文將對這個數據進行剖析,並呈現正反觀點。
0.34瓦時數據是否可信?
支持這一數據的主要依據來自第三方研究的相互印證:
1)獨立研究數據吻合
該數據的可信度首先體現在與第三方研究的高度吻合。知名研究機構Epoch.AI在2025年發佈報告顯示,GPT-4o單次查詢能耗約為0.0003千瓦時,與OpenAI公佈的數據基本一致。
Epoch.AI的測算基於以下假設:OpenAI模型採用“專家混合”架構,擁有1000億個活躍參數,典型響應輸出500個token。不過該研究存在兩個侷限:一是僅計算了GPU服務器的直接能耗,二是未納入數據中心通用的PUE能效評估指標。
同樣在2025年,由尼達爾·傑拉姆(Nidhal Jegham)領銜的學術團隊得出了更具細分性的數據:GPT-4.1 nano單次查詢耗電0.000454千瓦時,推理模型o3功耗增至0.0039千瓦時,而處理長文本任務(約7000詞輸入+1000詞輸出)的GPT-4.5能耗達到0.03千瓦時。
多方獨立研究數據的趨同性表明,至少在模型推理階段,OpenAI公佈的能耗值處於合理範圍。
2)硬件層面數據合理性分析
行業報告顯示,ChatGPT日均查詢量達10億次。若按單次0.34瓦時計算,單日總能耗約340兆瓦時。技術專家據此推算,OpenAI可能需要部署3200臺搭載英偉達DGX A100芯片的服務器集群。這意味著每臺服務器需要每秒處理4.5次查詢。
按照OpenAI的標準換算:每次請求平均生成500個token,約375個單詞,單臺服務器需實現每秒生成2250個token。這聽起來是否現實?
約萬·斯托伊科維奇(Jovan Stojkovic)等學者2024年的實驗顯示,搭載8顆H100 GPU芯片的服務器運行Llama-2-70B模型時,token生成速度可達每秒6000個。但傑拉姆團隊2025年實測OpenAI多個模型時,觀測到的生成速度僅為每秒75到200個token(具體測試條件未詳細說明)。
綜合來看,3200臺服務器支撐10億次日均查詢的理論模型雖存在爭議,但尚不能完全否定其可能性。
為何部分專家持懷疑態度?
儘管有支持證據,但不少專家對OpenAI公佈的能耗數據持保留態度,主要質疑集中在以下方面:
1)OpenAI的數字可能忽略了其他組件能耗
這個數字可能僅涵蓋了GPU服務器本身的能耗,未考慮其他基礎設施的能耗——比如數據存儲、冷卻系統、網絡設備、防火牆、電力轉換損失或備份系統等。
這種情況在科技公司的能耗報告中很常見,例如,Meta公佈的能耗數據同樣存在類似侷限。但在實際數據中心運營中,GPU能耗通常僅佔總能耗的一部分。
2)OpenAI的服務器能耗估算似乎偏低
許多評論員,比如綠色運營倡導者馬克·布徹(Mark Butcher),認為3200臺GPU服務器遠不足以支撐所有ChatGPT用戶的查詢,特別是在考慮到全球用戶量、高可用性以及諸如編程或圖像分析等複雜應用時。
同時,第三方研究報告指出,OpenAI實際部署用於推理的GPU數量可能達到數萬甚至數十萬顆。如果這一數據屬實,那麼其真實能耗水平將遠高於宣傳中單次查詢0.34瓦時的數字。
3)關鍵參數披露不完整
批評者如大衛·米頓(David Mytton)指出,OpenAI的聲明缺乏必要的背景信息。例如:
“平均查詢”具體指的是什麼?是單次提問,還是一次完整的對話?
該數據是僅針對某個特定模型(例如GPT-3.5或GPT-4),還是多個模型的平均值?
這個數據是否包括更復雜的新任務,例如多模態輸入(如PDF文件分析或圖像生成)?
水的使用量是直接用於冷卻服務器,還是包括了電力生產過程中的間接用水?
為何沒有提供碳排放數據?這會根據地區和能源結構有所不同。
沒有這些關鍵信息,難以判斷該數據的可信度,也無法與其他AI系統的能耗進行有效的橫向對比。
科技巨頭終於開始回應公眾訴求了嗎?
OpenAI此次披露能耗數據,恰逢英偉達發佈GPU全生命週期碳排放報告、谷歌發佈TPU硬件環境評估報告之際。
這是否意味著科技巨頭終於開始響應社會對透明度的呼聲?我們是否正見證新時代的曙光?還是奧特曼只是在玩弄話術——畢竟,淡化氣候影響符合它們的商業利益?
推理能耗 vs 訓練能耗:被忽視的長期影響
關於AI能耗的討論通常集中在模型訓練階段。雖然訓練階段的能耗確實驚人,但從長遠來看,處理數十億次查詢(即推理階段)的總能耗可能遠超過訓練階段的能耗。
據估算,GPT-4訓練大約消耗5000萬至6000萬千瓦時的電力。如果以每次查詢消耗0.34瓦時、日均10億次查詢計算,僅需150至200天,推理階段的總能耗就會超越訓練階段。
這也使得推理階段的能耗值得關注,並需要進行詳細的測量。
結論:又一顆“綠色煙霧彈”?
正當人們以為OpenAI的能耗爭議已沒有新意時,這家一向以封閉著稱的公司卻突然公開了具體數據。許多人對其在產品能耗問題上的公開態度表示歡迎,並期待這是科技巨頭開始公開披露資源消耗與氣候影響的轉折點。
然而,質疑的聲音同樣存在,而且有理有據。因為該數據僅作為一篇博客文章的附帶內容,且與文章主題完全無關,缺乏足夠的背景信息。
在OpenAI提供更詳實的數據前,0.34瓦時這個數字應被審慎看待——它或許是新時代的起點,也可能只是又一場精心設計的“綠色煙霧彈”。
本文來自“騰訊科技”,作者:金鹿,36氪經授權發佈。





