AI如何重塑存储业态?除了DRAM“三巨头”的HBM竞赛

科技动态 2024-04-10 09:53 阅读:

存储“卡住”GPU的脖子,这并不夸张。过去一年间,大模型带来的算力需求爆发,使英伟达GPU愈加依赖HBM(高带宽存储器)的高带宽。这颗由多个DRAM(动态随机存储器)堆叠而成的芯片,旨在解决传统冯·诺依曼架构中处理器与内存之间的数据传输问题,在大算力场景几乎无可替代。

AI需求也在带动存储芯片行情回暖。经历疫情扰动下长达两年的下行周期,DRAM被HBM率先带动复苏,DRAM “三巨头”SK海力士、三星、美光进入新一轮HBM竞赛。AI对存储芯片市场的影响不止于此。DRAM解决的主要是计算时数据传输的问题,巨量数据保存则需依靠NAND Flash(一种非易失性存储介质)制成的SSD(固态硬盘)、嵌入式存储等。

AI对HBM的需求可见一斑,即便这颗芯片价格高昂。据市场调查机构Yole数据,HBM今年以来平均售价是普通DRAM的5倍。此前有GPU业内人士向媒体介绍HBM成本“差不多1GB要20美元”。AI对HBM的需求,正在改变存储芯片产业结构。据市场调研机构集邦咨询统计,去年HBM占DRAM产业营收8.4%,今年将达20.1%。

AI还在如何重塑存储业态?除了DRAM“三巨头”的HBM竞赛外,NAND Flash或SSD厂商也开始在容量和功耗上适应AI训练和推理的需求。硬件之外,软件层面的存储基础架构也在适应AI时代的要求。不少大模型训练和数据存储在云服务器上进行,云存储厂商的对象存储、文件存储等技术正在针对AI训练进行调整,同样解决大模型训练效率和宕机保存问题。

AI如何适应存储?算力和存力紧密相关,特别是在数据、算力、算法驱动的大模型训练过程中。存储产品形态正在改变,以适应AI时代的需求。AI应用最大功耗还是来自GPU、CPU和HBM三大件,作为SSD,长期而言需要发力低功耗、省电。存储产品满足性能需求前提下,功耗能省一点是一点,不仅是省电,也是省散热的预算。少一点热量,GPU就能多一些功率去做计算,更快计算出结果。同时,还要把密度做上去,密度越高产品就可以越小,用户就越有空间去部署GPU。

AI如何重塑存储业态?除了DRAM“三巨头”的HBM竞赛外,NAND Flash或SSD厂商也开始在容量和功耗上适应AI训练和推理的需求。存储产品形态正在改变,以适应AI时代的需求。硬件之外,软件层面的存储基础架构也在适应AI时代的要求。不少大模型训练和数据存储在云服务器上进行,云存储厂商的对象存储、文件存储等技术正在针对AI训练进行调整,同样解决大模型训练效率和宕机保存问题。