深圳市百诺芯科技有限公司

(非本站正式会员)

深圳市百诺芯科技有限公司

营业执照:已审核经营模式:贸易/代理/分销所在地区:广东 深圳

收藏本公司 人气:105234

企业档案

  • 相关证件:营业执照已审核 
  • 会员类型:普通会员
  •  
  • 张先生 QQ:1296701637
  • 电话:18576232501
  • 手机:18929337441
  • 张先生 QQ:1034259340
  • 电话:18929337441
  • 手机:18576232501

您的当前位置:

深圳市百诺芯科技有限公司 > 新闻动态 > AI训练不可或缺的存储,HBM3 DRAM再升级

AI训练不可或缺的存储,HBM3 DRAM再升级

发布时间: 2023/4/24 9:24:11 | 134 次阅读

SK海力士近日发布quan球首次实现垂直堆叠12个单品DRAM芯片,成功开发出zui高容量24GB的HBM3 DRAM新产品。


图源:SK海力士

目前已向数多quan球客户公司提供了24GB HBM3 DRAM样品正在进行性能验证,预计从今年下半年起将其推向市场。而现有HBM3 DRAM的zui大容量是垂直堆叠8个单品DRAM芯片的16GB。无论是堆叠数量还是容量上,此次发布的新品都有显著提升。

HBM(高带宽存储器)是高价值、高性能存储器,垂直互连多个DRAM芯片。目前SK海力士在HBM市场处于ling先地位,约有60%-70%的份额。


图源:SK海力士


SK海力士于2013年首次开发HBM DRAM(di一代)产品,随后以HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)的顺序开发。早在去年6月,SK海力士宣布其HBM3将与NVIDIA H100Tensor CoreGPU结合用于加速计算,SK hynix于2022年第三季度开始发货。今年年初随着ChatGPT的huo爆,HBM订单激增。那么SK海力士有哪些技术来提升HBM的性能呢,以下结合SK海力士多位技术zhuan家的分享进行一些解读。

训练计算需匹配高性能存储

训练GPT-3、Megatron-Turing NLG 530B等超大语言模型所要求的算力提升速度呈数倍到数百倍的增长。尤其是ChatGPT的训练,ChatGPT人工智能语言模型的背后就是Transformer架构。这个架构突破了传统的循环神经网络(RNN)和长短时记忆网络(LSTM)的局限性,能够在大规模数据集上进行高效训练。为了实现高效训练计算,就需要有与之匹配的高性能存储。


图源:SK海力士


SK海力士于2021年10月推出quan球首款HBM3,并在2022年6月实现量产。据介绍,该款HBM3每个引脚传输速率达6.4Gbps,1024位宽接口,zui高带宽可达819GB/s,较HBM2E(460GB/s)高约78%。16Gb内核密度、jian端的TSV垂直堆叠技术,满足了系统对更高密度的要求,该技术可实现12层堆叠内存立方体,从而实现zui大24GB封装密度。HBM3配备On-die ECC(纠错码)可靠性功能,可自我检测和纠正数据错误,从而在SoC和DRAM之间实时传输海量数据。


图源:SK海力士

先进的封装技术

此次新产品采用了先进(Advanced)MR-MUF和TSV技术。SK海力士表示,通过先进MR-MUF技术加强了工艺效率和产品性能的稳定性,又利用TSV技术将12个比现有芯片薄40%的单品DRAM芯片垂直堆叠,实现了与16GB产品相同的高度。这两项技术也是SK海力士先进封装技术的重要组成。

首先来看先进MR-MUF技术。根据SK海力士的guan方资料,MR-MUF(Mass Reflow Molded Underfill, 批量回流模制底部填充)将半导体芯片贴附在电路上,并在堆叠芯片时使用“EMC (Epoxy Molding Compound, 液态环氧树脂模塑料”填充芯片之间或芯片与凸块之间间隙的工艺。这种新的工艺主要是比之前的NCF技术工艺有了很大提升。此前的NCF技术是在芯片之间使用薄膜进行堆叠。与NCF相比,MR-MUF导热率高出两倍左右,工艺速度和良率都有提升。

图源:SK海力士

另一个是TSV(Through Silicon Via, 硅通孔技术)。TSV技术是在DRAM芯片打上数千个细微的孔,并通过垂直贯通的电极连接上下芯片的先进封装技术。这种技术已经成为一种提升DRAM性能和密度的重要手段,可以应用于3D-TSV DRAM和HBM。

图源:SK海力士

HBM主要用于弥补SoC高带宽需求与主存储器zui大带宽供应能力之间的带宽缺口。SK海力士zhuan家表示,特别是在AI应用中,每个SoC的带宽需求可能都会超过几TB/s,这是常规主存储器无法满足的。例如具有3200Mbps DDR4 DIMM的单个主存储器通道只能提供25.6GB/s的带宽。即使是具有8个存储器通道的CPU平台,其速度也只能达到204.8GB/s。而围绕单个SoC的4个HBM2堆叠可提供大于1TB/s的带宽。根据不同的应用程序,HBM既可以单独用作缓存,也可以用作两层存储中的di一层。

图源:SK海力士

实际上除了GPU搭载了HBM之外,CPU也实现了封装HBM。去年底,英特尔就正式推出了quan球首款配备 HBM 内存的 x86 CPU——Intel Xeon Max 系列。根据下图介绍,它具有64 GB的HBM2e 内存,分为4个16 GB的集群,总内存带宽为1 TB / s,每个内核的HBM都超过1 GB。


图源:Intel

当前HBM的技术方向主要是在速度、密度、功耗、占板空间等方面的提升。SK海力士通过提高引脚数据速率、I/O总线位宽等方式提升速率;通过扩展Die堆叠层数和物理堆叠高度,以及增加he心Die密度以优化堆叠密度。通过评估内存结构和操作方案,zui大限度地降低每带宽扩展的jue对功耗;为了实现总内存Die尺寸zui小化,则是通过在不扩大现有物理尺寸的情况下增加存储单元数量和功能。

小结

显然,人工智能、数据中心的应用还将拉动HBM的需求,但从成本来看,HBM的平均售价至少是DRAM的三倍,前不久受ChatGPT的拉动,HBM的价格更是水涨船高,消息人士称,与性能zui高的DRAM相比HBM3的价格上涨了五倍。不过,这一市场前景也正是DRAM存储厂商投入技术和产品的动力。