英伟达预测,AI 服务器的瓶颈在于内存,预计对 DRAM 和 NAND 的需求将激增。

本文为机器翻译
展示原文

英伟达已将“内存处理能力”认定为人工智能服务器架构的关键瓶颈,因此,对现有内存半导体(例如标准DRAM和NAND闪存)的需求也可能随之增长。行业分析师预测,人工智能推理任务爆炸式增长的计算需求正在推动架构向需要集成多种内存资源(包括高带宽内存(HBM))的架构转变。

此评估基于英伟达首席执行官黄仁勋在2026年拉斯维加斯消费电子展(CES)主题演讲中的发言。黄仁勋预测,人工智能行业将在2026年之前继续保持强劲增长,并指出内存容量和带宽短缺是技术瓶颈。这表明,曾经以GPU(图形处理器)为中心的服务器架构正在扩展,涵盖包括DRAM和NAND在内的多种内存层。

三星证券解释说,“智能体人工智能”(Agent AI)是这一变革的核心。智能体人工智能是一种使人工智能能够在各种环境中独立判断并做出反应的技术。这需要比现有模型更快地处理海量数据。因此,人工智能模型推理阶段的计算调用次数和数据序列长度迅速增加,充足的内存带宽和容量对于满足这一需求至关重要。

为了顺应这一趋势,NVIDIA 推出了一种全新的存储内存架构,该架构在其 AI 服务器系统中集成了 BlueField-4 DPU(数据处理单元)。该架构不仅采用了高带宽内存 (HBM),还利用了低功耗 DRAM (LPDDR) 甚至基于 NVMe 的大容量 NAND 作为分层缓存。尤其值得一提的是,该架构的重点在于通过将名为“KV Cache”(键值缓存)的计算处理结构直接连接到 GPU,从而显著提升系统整体效率。

未来,单个AI服务器的内存和存储容量预计将进一步增加。这意味着内存需求增长速度可能超过GPU计算性能的增长速度。NVIDIA的声明最终强调,AI计算架构的核心不仅在于GPU本身,还在于内存和存储资源的协调整合。

这些变化有可能在中长期内改变半导体行业的结构性需求格局。除了目前以高性能存储器为中心的需求外,包括通用DRAM和大容量NAND闪存在内的更广泛的存储器产品也可能同步增长。预计这将对国内存储器半导体产业产生积极影响。

获取实时新闻……请前往 TokenPost Telegram 频道

版权所有 © TokenPost。未经授权,禁止复制和传播。

#NVIDIA #AI服务器#内存半导体#HBM #AgentAI #三星证券

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
89
收藏
19
评论