巨头将于四季度推出重磅芯片,内存带宽提高一倍,效能提升1.3倍,这类产品可以加快AI数据处理速度,是AI时代的必需品。这家公司相关材料已通过客户验证。
资讯获悉,AMD首席执行官苏姿丰在台北国际电脑展(COMPUTEX)发表开幕主题演讲时表示,现在只是AI十年超级循环的开端,并且发表未来的产品规划,今年将推出采用第四代高带宽内存(HBM)HBM3E的MI 325X芯片,内存带宽提高一倍,效能提升1.3倍,且基础设施与MI 300X相同,客户易于过渡。她说,明年推出采用CDNA 4架构的MI 350X芯片,以先进3纳米晶片制程生产,号称AI效能跃进幅度为AMD史上最大,2026年将推出MIX 400X系列芯片。
一、AI算力需求有望进入快速增长期
HBM即高带宽存储器,是AI时代的必需品。主要生产流程是通过3D封装进行DRAM IC堆叠,再通过2.5D封装将堆叠DRAM IC与GPU芯片进行集成,主要应用于搭载GPU的AI服务器上。HBM具有稀缺性,与传统DRAM相比,HBM具备高带宽、高容量、低延时与低功耗等优势,可以加快AI数据处理速度,更适用于AI服务器等高性能计算场景。据TrendForce预测,2026年全球HBM需求量有望达到386.2亿美元。
AI算力需求有望进入快速增长期。根据IDC数据,预计到2027年将达到1117.4EFLOPS(基于FP16计算),2022-2027年期间中国智能算力规模年复合增长率达33.9%。三大运营商大额招标彰显行业景气度。根据中国移动2023年至2024年新型智算中心(试验网)采购项目、中国移动2024-2025年新型智算中心集采项目、中国联通2024年人工智能服务器集中采购项目以及中国电信AI算力服务器(2023-2024年)集中采购项目,三大运营商共有超1.7万台的AI服务器采购计划;根据已经公布的招标计划,截至2024年5月,AI服务器的采购规模已经达到300亿元。
二、HBM相关产业链公司有望加速发展
国金证券认为,23年是AI训练的元年,24年将是AI推理的元年,主要归因于海外有望持续推出包括Sora在内的AI应用产品,叠加国内国央企发力AI应用,这将有力带动AI推理的需求。芯片领域,算力和存储是两个率先受益的领域,特别是在当前国产大趋势下,算力和存储将决定未来十年AI胜负的关键,国产HBM未来有较大的需求空间,国内与HBM相关产业链的公司有望加速发展。
三、相关上市公司:华海诚科、江波龙、香农芯
华海诚科颗粒状环氧塑封料(GMC)可以用于HBM的封装,相关产品已通过客户验证。
江波龙子公司元成苏州具备晶圆高堆叠封装(HBM技术涉及到的一部分)的量产能力。
香农芯创作为SK海力士分销商之一具有HBM代理资质。
免责声明及风险提示:以上分享素材,内容大部分来源于互联网公开渠道,版权归原作者所有(文章内容如涉及作品内容、版权图片、侵权、谣言或其它问题,请及时与我联系删除,第一时间保障您的权益),分享内容仅供参考学习,不保证该信息的准确性和完整性,不作为指导依据,不构成任何投资建议!!!
投资者据此操作,风险自担。 股市有风险,投资需谨慎 !!! !!