NVIDIA dự đoán điểm nghẽn của máy chủ AI chính là bộ nhớ, và nhu cầu về DRAM và NAND dự kiến sẽ tăng mạnh.

Bài viết này được dịch máy
Xem bản gốc

Với việc NVIDIA xác định "sức mạnh xử lý bộ nhớ" là nút thắt cổ chai quan trọng trong kiến trúc máy chủ AI, nhu cầu đối với các chất bán dẫn bộ nhớ hiện có, chẳng hạn như DRAM tiêu chuẩn và bộ nhớ flash NAND, cũng có khả năng tăng lên. Các nhà phân tích ngành dự đoán rằng nhu cầu tính toán bùng nổ của các tác vụ suy luận AI đang thúc đẩy sự chuyển dịch sang các kiến trúc yêu cầu hoạt động tích hợp của nhiều tài nguyên bộ nhớ khác nhau, ngoài bộ nhớ băng thông cao (HBM).

Đánh giá này dựa trên những nhận xét của CEO NVIDIA, Jensen Huang, trong bài phát biểu quan trọng của ông tại CES 2026 ở Las Vegas. Ông Huang dự đoán rằng ngành công nghiệp AI sẽ tiếp tục tăng trưởng mạnh mẽ đến năm 2026, viện dẫn sự thiếu hụt dung lượng bộ nhớ và băng thông là những nút thắt công nghệ. Điều này cho thấy rằng kiến trúc máy chủ, vốn trước đây tập trung vào GPU (bộ xử lý đồ họa), đang mở rộng để bao gồm nhiều lớp bộ nhớ đa dạng, bao gồm DRAM và NAND.

Samsung Securities giải thích rằng "Trí tuệ nhân tạo tác nhân" (Agent AI) là cốt lõi của sự thay đổi này. Agent AI là công nghệ cho phép trí tuệ nhân tạo đưa ra phán đoán độc lập và phản ứng với các tình huống trong nhiều môi trường khác nhau. Điều này đòi hỏi xử lý lượng dữ liệu lớn hơn đáng kể và nhanh hơn so với các mô hình hiện có. Do đó, số lượng lệnh gọi tính toán và độ dài chuỗi dữ liệu trong giai đoạn suy luận của các mô hình AI đã tăng nhanh chóng, khiến băng thông và dung lượng bộ nhớ đủ lớn trở nên cần thiết để đáp ứng nhu cầu này.

Phản ánh xu hướng này, NVIDIA đã giới thiệu một kiến trúc bộ nhớ lưu trữ mới bao gồm bộ xử lý dữ liệu (DPU) BlueField-4 trong hệ thống máy chủ AI của mình. Kiến trúc này không chỉ sử dụng bộ nhớ băng thông cao (HBM), mà còn cả DRAM công suất thấp (LPDDR) và thậm chí cả NAND dung lượng cao dựa trên NVMe làm bộ nhớ đệm phân cấp. Đặc biệt, trọng tâm là tăng đáng kể hiệu quả tổng thể của hệ thống bằng cách vận hành cấu trúc xử lý tính toán được gọi là "KV Cache" (Bộ nhớ đệm Khóa-Giá trị) dưới dạng kết nối trực tiếp với GPU.

Dự kiến dung lượng bộ nhớ và lưu trữ được cài đặt trong một máy chủ AI duy nhất sẽ còn tăng hơn nữa trong tương lai. Điều này có nghĩa là nhu cầu về dung lượng bộ nhớ có thể tăng nhanh hơn tốc độ tăng trưởng hiệu năng tính toán của GPU. Thông điệp của NVIDIA nhấn mạnh rằng cốt lõi của kiến trúc tính toán AI không chỉ nằm ở bản thân GPU, mà còn ở sự tích hợp hài hòa giữa các tài nguyên bộ nhớ và lưu trữ.

Những thay đổi này có tiềm năng làm biến đổi bức tranh nhu cầu cấu trúc của ngành công nghiệp bán dẫn trong trung và dài hạn. Bên cạnh nhu cầu hiện tại tập trung vào bộ nhớ hiệu năng cao, một loạt các sản phẩm bộ nhớ rộng hơn, bao gồm DRAM thông thường và bộ nhớ flash NAND dung lượng cao, có thể cùng tăng trưởng. Điều này được kỳ vọng sẽ tác động tích cực đến ngành công nghiệp bán dẫn bộ nhớ trong nước.

Nhận tin tức cập nhật liên tục... Tham gia nhóm Telegram của TokenPost

Bản quyền © TokenPost. Nghiêm cấm sao chép và phân phối lại trái phép.

Yêu cầu quảng cáo | Gửi bài viết | Thông cáo báo chí
#NVIDIA #AIServer #MemorySemiconductor #HBM #AgentAI #SamsungSecurities

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
89
Thêm vào Yêu thích
19
Bình luận