英偉達已將“內存處理能力”認定為人工智能服務器架構的關鍵瓶頸,因此,對現有內存半導體(例如標準DRAM和NAND閃存)的需求也可能隨之增長。行業分析師預測,人工智能推理任務爆炸式增長的計算需求正在推動架構向需要集成多種內存資源(包括高帶寬內存(HBM))的架構轉變。
此評估基於英偉達首席執行官黃仁勳在2026年拉斯維加斯消費電子展(CES)主題演講中的發言。黃仁勳預測,人工智能行業將在2026年之前繼續保持強勁增長,並指出內存容量和帶寬短缺是技術瓶頸。這表明,曾經以GPU(圖形處理器)為中心的服務器架構正在擴展,涵蓋包括DRAM和NAND在內的多種內存層。
三星證券解釋說,“智能體人工智能”(Agent AI)是這一變革的核心。智能體人工智能是一種使人工智能能夠在各種環境中獨立判斷並做出反應的技術。這需要比現有模型更快地處理海量數據。因此,人工智能模型推理階段的計算調用次數和數據序列長度迅速增加,充足的內存帶寬和容量對於滿足這一需求至關重要。
為了順應這一趨勢,NVIDIA 推出了一種全新的存儲內存架構,該架構在其 AI 服務器系統中集成了 BlueField-4 DPU(數據處理單元)。該架構不僅採用了高帶寬內存 (HBM),還利用了低功耗 DRAM (LPDDR) 甚至基於 NVMe 的大容量 NAND 作為分層緩存。尤其值得一提的是,該架構的重點在於通過將名為“KV Cache”(鍵值緩存)的計算處理結構直接連接到 GPU,從而顯著提升系統整體效率。
未來,單個AI服務器的內存和存儲容量預計將進一步增加。這意味著內存需求增長速度可能超過GPU計算性能的增長速度。NVIDIA的聲明最終強調,AI計算架構的核心不僅在於GPU本身,還在於內存和存儲資源的協調整合。
這些變化有可能在中長期內改變半導體行業的結構性需求格局。除了目前以高性能存儲器為中心的需求外,包括通用DRAM和大容量NAND閃存在內的更廣泛的存儲器產品也可能同步增長。預計這將對國內存儲器半導體產業產生積極影響。
獲取實時新聞……請前往 TokenPost Telegram 頻道
版權所有 © TokenPost。未經授權,禁止複製和傳播。




