9月26日,韩国存储芯片大厂SK海力士宣布,率先业界开始量产12层堆叠的HBM3E內存,达成了现有HBM产品中最大36GB容量的目标。
SK海力士表示,高带宽內存(HBM)是一种高附加值、高性能的內存。与现有的DRAM产品相比,通过垂直互联多个DRAM芯片,使数据处理速度显著提高。该产品按照HBM第1代(HBM)-第2代(HBM2)-第3代(HBM2E)-第4代(HBM3)-第5代(HBM3E)的顺序开发,HBM3E是HBM3的扩展版。
SK海力士指出,现有的HBM3E最大容量为24GB,由8颗3GB DRAM芯片垂直堆叠而成,公司将在2024年底前向客户提供相关产品,这是继2024年3月在业界率先向客户供应8层堆叠HBM3E內存之后,仅时隔6个月再次展现出其压倒性的技术实力。SK海力士强调,自2013年全球首次推出第一代HBM(HBM1)內存,到先前推出第五代HBM(HBM3E)之后,公司是唯一一家开发完成,并能向市场供应全系列HBM产品的企业。SK海力士率先成功量产12层堆叠的产品,在针对AI的內存所需要的速度、容量、稳定性等所有方面都已达到全球最高水准,不仅满足了AI企业日益发展的需求,同时也进一步巩固了SK海力士在针对AI的內存市场的领导者地位。
SK海力士进一步指出,该新产品的运行速度提高至现有內存的最高速度9.6Gbps,其是在以搭载四个HBM的单个GPU运行大型语言模型(LLM)Llama 3 70B时,每秒可读取35次700亿个整体参数的水准。而堆叠12颗3GB DRAM芯片,达成与现有的8层堆叠产品相同的厚度,同时容量提升50%。为此,SK海力士还将单个DRAM芯片制造得比以前薄40%,并采用硅通孔技术(TSV)技术垂直堆叠。
此外,SK海力士也解决了在将变薄的芯片堆叠更多时产生的结构性问题。公司将其核心技术先进MR-MUF技术应用到此次产品中,放热性能较上前一代提升了10%,并增强了控制翘曲问题,从而确保了稳定性和可靠性。
SK海力士AI Infra业务社长金柱善表示,“我们再次突破了技术壁垒,证明了我们在面向AI的內存市场中独一无二的主导地位。为了迎接AI时代的挑战,我们将稳步准备下一代內存产品,以巩固全球顶级针对AI的內存供应商的地位。”
编辑:芯智讯-林子