记忆力:简介。为什么现在要讲?

本文为机器翻译
展示原文

感觉内存股每天都在上涨。美光科技(Micron)是最大的内存厂商之一,仅去年一年股价就上涨了近三倍。许多投资者眼睁睁地看着类似的股票日复一日地上涨,等待回调的到来。然而,他们却未能真正了解这些产品究竟是什么。

在这篇文章中,我和尼古拉斯将用通俗易懂的方式,为大家解读眼前的机遇。让我们开始吧。

引言

那么,记忆是什么?它为什么如此重要?

内存使计算机或设备能够在执行临时计算时存储信息。这主要通过读写操作来实现。内存的​​每一层在读写速度、成本和容量方面都有不同的特性。

在人工智能领域,内存变得更加重要,因为模型需要同时处理海量数据。当我们使用聊天机器人、图像生成器或推荐算法等工具时,内存会不断地以高带宽进出庞大的数据集。

人工智能模型越智能、功能越强大,就需要越多的内存才能有效运行。如果没有强大的内存系统,大型语言模型和机器学习应用领域的进步就会停滞不前。

内存层次结构(存储层与工作层)

为了更好地理解记忆,我们首先需要分解记忆的各个层次。

计算机将内存分为工作内存(系统执行计算时使用)和存储内存(用于长期保存数据,但读写速度较慢)。这种划分的原因是,高带宽(读写速度快)的内存价格昂贵,而价格低廉的长期存储内存带宽较低(读写速度快)。

许多与内存相关的概念都可以归结为芯片与处理单元之间的距离。距离越远,吞吐量越慢。


1. 处理器寄存器和 CPU 高速缓存(SRAM):

它是什么:这通常是整个系统中吞吐量最高的内存,因为它位于 XPU(XPU 指 CPU 或 GPU)内部或紧邻其旁。它存储处理器当前所需的少量数据。

它由以下部分组成: SRAM(直接构建在逻辑硅上的静态存储器)。

成本和尺寸:每比特成本极高,容量极小。

制造地点:与 CPU 在同一芯片上。

主要厂商:英特尔、AMD、苹果


2. 物理内存(DRAM/RAM)

指定随机存取存储器/随机存取存储器

这是什么:这是计算机的主工作内存,是运行程序所在的区域。这里需要很高的吞吐量,因为任何延迟都会导致计算队列的建立。

它由以下部分组成: DRAM 单元(每个比特一个晶体管 + 一个电容器)。

成本和大小:价格略贵,中等容量(GB)。

产地:主要产自韩国、台湾和美国

主要制造商: SK海力士、三星电子、美光科技


3. 高带宽内存(HBM)

专用DRAM

简单来说,它是一种超高速的垂直堆叠式DRAM,放置在AI芯片旁边。由于HBM的垂直堆叠特性,它具有更高的吞吐量,但同时也增加了制造工艺的复杂性。

它由以下部分组成:堆叠有硅通孔 (TSV) 的 DRAM 芯片。

成本和尺寸:非常昂贵,容量比 DRAM 小,但速度比 DRAM 快得多。

产地:台湾和韩国,因为对包装技术有较高要求(实物垂直整合)。

主要制造商: SK海力士、三星、美光

4. 固态存储(NAND/SSD)

NAND 是一种非易失性闪存,无需电源即可存储数据,用于 SSD、U盘和存储卡等高密度存储设备。

它是什么(简单来说):断电时对文件、应用程序和数据进行长期存储。

它由什么构成:存储电荷的 NAND 闪存单元。

成本和尺寸:每 GB 价格低廉,容量大(数百 GB 到 TB),吞吐量低于 HBM 和 DRAM,但通常足以满足对延迟要求不高的计算工作负载。

产地:主要在亚洲(韩国、中国、日本)。

主要制造商:三星、SK海力士、闪迪、美光、铠侠


5. 硬盘驱动器 (HDD)

它是什么(简单来说):用于廉价大容量存储的传统旋转磁盘。

它由以下部分组成:磁性转盘和机械部件。

成本和尺寸:非常便宜,体积庞大,吞吐量慢。

产地:亚洲

主要厂商:希捷、西部数据、东芝

内存距离处理器越近,速度就越快,体积就越小,价格也就越贵。人工智能将需求推向了金字塔顶端。这是因为GPU具有极强的并行计算能力,每秒可执行数万亿次计算

HBM 和 NAND

HBM 是最关键的内存层,因为它直接位于 AI GPU 旁边,而 NAND 是“仓库”存储,用于保存数据集、模型检查点和日志。

在人工智能数据中心,基于NAND闪存的固态硬盘(SSD)将数据传输到DRAM/HBM,然后HBM再以足够快的速度将数据提供给GPU,以确保计算的持续进行。LLM模型利用这种分层内存架构来确保所有存储层得到最有效的利用。然而,最佳方案始终是尽可能地将计算任务放在靠近GPU的位置。

在过去几年人工智能建设中,两者都面临着前所未有的需求。由于带宽​​成为瓶颈,HBM 的需求呈爆炸式增长;而 SSD 的需求也在上升,因为数据输入和输出(训练数据、检索、推理日志)持续增长。关于内存需求,一个常被忽视的事实是,智能体工作流具有递归特性,它们在调用其他智能体的过程中会消耗计算资源,而这些智能体又会调用更多智能体。因此,智能体活动可能导致需求规模超出人类预期的情况。

从历史上看,DRAM 和 NAND 一直被投资者和整个市场视为大宗商品。这意味着供应受到严格监控,并根据需求进行调整。产能过剩会带来严重后果,因为半导体晶圆厂的启动成本高昂,持续运营成本也很高。正因如此,市场供应会逐步增加,以避免产能过剩。然而,随着人工智能需求的爆炸式增长,各种形式的存储器突然成为关键瓶颈,赋予存储器厂商对客户巨大的定价优势。这种定价优势使他们能够获得巨额利润,因为他们是人工智能供应链中的关键瓶颈。没有内存的 GPU 将无法使用。没有内存,任何计算都无法进行。为了理解他们为何以及如何保持定价优势,下一节将探讨他们所拥有的技术护城河。

记忆的辩护能力

存储器厂商之所以能从商品供应商跃升为人工智能领域的霸主,关键在于它们在半导体制造工艺方面的先进技术。这些工艺可以分解为三个关键要素:

护城河在于如何在极小的利润空间内,以极高的可靠性大规模生产数十亿个微型单元。具体到HBM,则需要先进的DRAM技术和复杂的3D堆叠/封装工艺(包括TSV、散热片和中介层),而只有少数厂商能够以高良率完成这些工艺,并且客户必须在漫长的周期内对产品进行验证。

正因如此,只有三家公司有资格参与这场竞争。当一家供应商率先推出下一代堆栈时,领导地位的转变至关重要,因为这会使其在完善下一代产品的制造工艺方面获得显著优势。此外,由于HBM与处理器共同封装,且不像前几代DRAM(属于“商品”)那样是同质化的,因此其价格也高于标准DRAM。

要打造一家能够与现有厂商规模相匹敌的存储器公司,需要超过二十年的专业经验和超过500亿美元的投资。中国的长江存储(YMTC)在传统DRAM制造工艺方面已经迎头赶上,但在缺乏政府支持的情况下,难以实现高良率。此外,由于美国对材料和技术出口的限制,长江存储也无法获得更先进的半导体制造能力。而且,尽管存储器属于“硬件”,但其内部仍然包含芯片固件形式的软件链,需要深度集成。中国或其他任何国有企业除了要应对其他挑战外,还必须克服软件深度锁定问题。正因如此,存储器公司在其生命周期的这个阶段比其他任何阶段都更具防御优势。

结束

原始计算能力的增长速度已经超过了内存传输数据的速度,这就是所谓的“内存墙”。芯片的运算速度可以快得惊人,但如果数据无法及时到达,它们就会停滞不前。

大量的时间和精力都花在了在内存和计算之间传输模型权重和激活值上,而不是数学运算本身,因此带宽成为了限制因素。

HBM 是目前最好的解决方案,因为它将宽而快的内存直接放置在 GPU 旁边,但它的容量和供应受到限制,因此内存最终决定了 AI 系统扩展的速度。

我们现在所看到的,是只有不到 10 家公司拥有制造专业技术,可以开发为人工智能未来提供动力的存储芯片。这不仅关乎生产力,而且随着这些芯片能够使下一代战争得以进行,国家安全也正逐渐成为问题。

如果你相信:
a) 人工智能已成为我们生活的一部分,并将长期存在。

b) 随着时间的推移,人工智能的需求只会不断增加。

那么,未来就属于那些已有四五十年历史、生产“大宗商品”的公司,而这些大宗商品如今却成了人工智能构建的核心瓶颈。它们强大的定价权已经使它们能够开始敲诈供应链下游的许多公司,我们相信这种趋势还会继续下去,最终影响到客户的利润率。

世界正处于结构性变革的时期,而记忆很可能是这种新世界秩序最早的标志之一。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
71
收藏
11
评论