Vào ngày 17 tháng 6, Giám đốc điều hành của OpenAI, Sam Altman, đã tiết lộ dữ liệu tiêu thụ năng lượng cụ thể của các truy vấn ChatGPT lần đầu tiên.
Ông tiết lộ trong bài đăng trên blog rằng ChatGPT tiêu thụ trung bình 0,34 watt-giờ (0,00034 kilowatt-giờ) điện và khoảng 0,000085 gallon nước lần truy vấn - tương đương với mức tiêu thụ điện năng của một bóng đèn CFL trong hai phút hoặc khoảng 1/15 thìa cà phê nước.
Là một công ty hàng đầu trong ngành trí tuệ nhân tạo, việc công bố dữ liệu tiêu thụ năng lượng lần OpenAI có ý nghĩa tượng trưng, cung cấp tham khảo quan trọng để đánh giá tác động của công nghệ AI đối với hoàn cảnh và làm dấy lên những cuộc thảo luận sôi nổi trong ngành. Bài viết này sẽ phân tích dữ liệu này và trình bày cả quan điểm tích cực và tiêu cực.
Dữ liệu 0,34 watt-giờ có đáng tin cậy không?
Cơ sở chính để hỗ trợ dữ liệu này xuất phát từ sự xác nhận lẫn nhau của nghiên cứu của bên thứ ba:
1) Dữ liệu nghiên cứu độc lập là nhất quán
Độ tin cậy của dữ liệu này trước tiên được phản ánh ở tính nhất quán cao của nó với nghiên cứu của bên thứ ba. Viện nghiên cứu có tiếng Epoch.AI đã công bố báo cáo vào năm 2025 cho thấy mức tiêu thụ năng lượng của một truy vấn lần của GPT-4o là khoảng 0,0003 kWh, về cơ bản là phù hợp với dữ liệu do OpenAI công bố.
Các tính toán của Epoch.AI dựa trên các giả định sau: mô hình OpenAI sử dụng kiến trúc "lai của các chuyên gia", có 100 tỷ tham số hoạt động và đầu ra phản hồi điển hình là 500 mã thông báo. Tuy nhiên, nghiên cứu này có hai hạn chế: thứ nhất, nó chỉ tính toán mức tiêu thụ năng lượng trực tiếp của máy chủ GPU và thứ hai, nó không bao gồm chỉ báo đánh giá hiệu quả năng lượng PUE thường được sử dụng trong các trung tâm dữ liệu .
Cũng trong năm 2025, một đội ngũ học thuật do Nidhal Jegham đứng đầu đã thu được dữ liệu chi tiết hơn: GPT-4.1 nano tiêu thụ 0,000454 kWh cho một truy vấn lần, mức tiêu thụ điện năng của mô hình suy luận o3 tăng lên 0,0039 kWh và mức tiêu thụ năng lượng của GPT-4.5 để xử lý nhiệm vụ văn bản dài (khoảng 7.000 từ đầu vào + 1.000 từ đầu ra) đạt 0,03 kWh.
Sự hội tụ của dữ liệu nghiên cứu độc lập bên long cho thấy, ít nhất là ở giai đoạn suy luận mô hình, giá trị tiêu thụ năng lượng do OpenAI công bố nằm trong phạm vi hợp lý.
2) Phân tích tính hợp lý của dữ liệu ở cấp độ phần cứng
Báo cáo trong ngành cho thấy ChatGPT có khối lượng truy vấn trung bình hàng ngày là 1 lần. Nếu tính theo 0,34 watt-giờ cho mỗi lần, tổng mức tiêu thụ năng lượng hàng ngày là khoảng 340 megawatt-giờ. Dựa trên điều này, các chuyên gia kỹ thuật đã tính toán rằng OpenAI có thể cần triển khai một cụm máy chủ gồm 3.200 máy chủ được trang bị chip Nvidia DGX A100. Điều này có nghĩa là mỗi máy chủ cần xử lý lần truy vấn mỗi giây.
Theo cách chuyển đổi chuẩn của OpenAI: lần yêu cầu tạo ra trung bình 500 token, khoảng 375 từ và một máy chủ duy nhất cần tạo ra 2250 token mỗi giây. Điều này có thực tế không?
Theo các thí nghiệm do Jovan Stojkovic và các học giả khác thực hiện vào năm 2024, khi một máy chủ được trang bị tám chip GPU H100 chạy mô hình Llama-2-70B, tốc độ tạo token có thể đạt tới 6.000 mỗi giây. Tuy nhiên, khi đội ngũ của Jerram thử nghiệm nhiều mô hình OpenAI vào năm 2025, tốc độ tạo token quan sát được chỉ là 75 đến 200 token mỗi giây (các điều kiện thử nghiệm cụ thể không được nêu chi tiết).
Nhìn chung, mặc dù mô hình lý thuyết về 3.200 máy chủ hỗ trợ 1 tỷ truy vấn lần còn gây tranh cãi, nhưng không thể hoàn toàn phủ nhận khả năng của nó.
Tại sao một số chuyên gia lại hoài nghi?
Bất chấp những bằng chứng hỗ trợ, nhiều chuyên gia vẫn còn nghi ngờ về dữ liệu tiêu thụ năng lượng do OpenAI công bố, trong đó những nghi ngờ chính tập trung vào các khía cạnh sau:
1) Các con số của OpenAI có thể bỏ qua mức tiêu thụ năng lượng của các thành phần khác
Con số này có thể chỉ bao gồm mức tiêu thụ năng lượng của chính các máy chủ GPU và không tính đến mức tiêu thụ năng lượng của các cơ sở hạ tầng khác - chẳng hạn như lưu trữ dữ liệu, hệ thống làm mát, thiết bị mạng, tường lửa, tổn thất chuyển đổi nguồn điện hoặc hệ thống sao lưu.
Điều này thường thấy trong báo cáo về mức tiêu thụ năng lượng của các công ty công nghệ. Ví dụ, dữ liệu về mức tiêu thụ năng lượng do Meta công bố cũng có những hạn chế tương tự. Tuy nhiên, trong các hoạt động thực tế của trung tâm dữ liệu, mức tiêu thụ năng lượng của GPU thường chỉ chiếm một phần trong tổng mức tiêu thụ năng lượng.
2) Ước tính mức tiêu thụ năng lượng của máy chủ OpenAI có vẻ thấp
Nhiều nhà bình luận, chẳng hạn như người ủng hộ hoạt động xanh Mark Butcher, cho rằng 3.200 máy chủ GPU là không đủ để hỗ trợ tất cả các truy vấn của người dùng ChatGPT, đặc biệt khi xét đến khối lượng người dùng toàn cầu, tính khả dụng cao và các ứng dụng phức tạp như lập trình hoặc phân tích hình ảnh.
Đồng thời, một báo cáo nghiên cứu của bên thứ ba chỉ ra rằng số lượng GPU thực sự được OpenAI triển khai để suy luận có thể lên tới hàng chục nghìn hoặc thậm chí hàng trăm nghìn. Nếu dữ liệu này là đúng, thì mức tiêu thụ năng lượng thực tế của nó sẽ cao hơn nhiều so với con số được quảng cáo là 0,34 watt-giờ lần truy vấn.
3) Tiết lộ không đầy đủ các thông số chính
Những nhà phê bình như David Mytton đã chỉ ra rằng thông báo của OpenAI thiếu bối cảnh cần thiết. Ví dụ:
"Câu hỏi trung bình" thực sự có nghĩa là gì? Đó là một câu hỏi lần hay một cuộc trò chuyện đầy đủ?
Dữ liệu này chỉ dành cho một mô hình cụ thể (ví dụ: GPT-3.5 hoặc GPT-4) hay là dữ liệu trung bình của nhiều mô hình?
Dữ liệu này có bao gồm nhiệm vụ mới, phức tạp hơn như đầu vào đa phương thức (như phân tích tệp PDF hoặc tạo hình ảnh) không?
Nước được sử dụng trực tiếp để làm mát máy chủ hay bao gồm cả việc sử dụng nước gián tiếp trong quá trình sản xuất điện?
Tại sao không có dữ liệu phát thải carbon? Điều này thay đổi tùy theo khu vực và hỗn hợp năng lượng.
Nếu không có thông tin quan trọng này, sẽ rất khó để đánh giá độ tin cậy của dữ liệu và không thể thực hiện so sánh theo chiều ngang hiệu quả với mức tiêu thụ năng lượng của các hệ thống AI khác.
Liệu các gã khổng lồ công nghệ có đáp ứng được nhu cầu của công chúng?
Lần OpenAI tiết lộ dữ liệu tiêu thụ năng lượng trùng với thời điểm công bố báo cáo phát thải carbon trong toàn bộ vòng đời của GPU của Nvidia và báo cáo đánh giá hoàn cảnh phần cứng TPU của Google.
Điều này có nghĩa là những gã khổng lồ công nghệ cuối cùng cũng đáp lại lời kêu gọi minh bạch của xã hội? Chúng ta có đang chứng kiến sự khởi đầu của một kỷ nguyên mới không? Hay Altman chỉ đang nói suông – xét cho cùng, việc hạ thấp tác động của biến đổi khí hậu là vì lợi ích kinh doanh của họ?
Tiêu thụ năng lượng suy luận so với tiêu thụ năng lượng đào tạo: tác động lâu dài bị bỏ qua
Các cuộc thảo luận về mức tiêu thụ năng lượng của AI thường tập trung vào giai đoạn đào tạo mô hình. Mặc dù mức tiêu thụ năng lượng của giai đoạn đào tạo thực sự đáng kinh ngạc, nhưng về lâu dài, tổng mức tiêu thụ năng lượng để xử lý hàng lần truy vấn (tức là giai đoạn suy luận) có thể vượt xa mức tiêu thụ năng lượng của giai đoạn đào tạo.
Người ta ước tính rằng đào tạo GPT-4 tiêu thụ khoảng 50 đến 60 triệu kilowatt-giờ điện. Nếu lần truy vấn tiêu thụ 0,34 watt-giờ và trung bình 1 tỷ lần mỗi ngày, thì chỉ mất 150 đến 200 ngày để tổng mức tiêu thụ năng lượng của giai đoạn suy luận vượt qua giai đoạn đào tạo.
Điều này cũng làm cho mức tiêu thụ năng lượng của giai đoạn suy luận đáng được chú ý và đòi hỏi phải đo lường chi tiết.
Kết luận: Một “quả bom khói xanh” khác?
Đúng lúc mọi người nghĩ rằng tranh cãi về mức tiêu thụ năng lượng của OpenAI không có gì mới, công ty này, vốn luôn được biết đến với sự khép kín, đột nhiên công khai dữ liệu cụ thể của mình. Nhiều người hoan nghênh thái độ cởi mở của công ty đối với mức tiêu thụ năng lượng của sản phẩm và hy vọng rằng đây là bước ngoặt để các công ty công nghệ lớn bắt đầu công khai mức tiêu thụ tài nguyên và tác động của khí hậu.
Tuy nhiên, cũng có những ý kiến nghi ngờ và chúng có cơ sở vì dữ liệu chỉ là sản phẩm phụ của một bài đăng trên blog và hoàn toàn không liên quan đến chủ đề của bài viết cũng như thiếu thông tin bối cảnh.
Trước khi OpenAI cung cấp dữ liệu chi tiết hơn, con số 0,34 watt-giờ cần được ứng xử một cách thận trọng - nó có thể là điểm khởi đầu của một kỷ nguyên mới hoặc chỉ là một "quả bom khói xanh" được thiết kế cẩn thận khác.
Bài viết này trích từ "Tencent Technology" , tác giả: Jinlu và được 36Kr cấp phép xuất bản.





