摘要
·HBM是限制当前算力卡性能的关健因素,海力士、三星、美光正加大研发投入和资本开支,大力扩产并快迷选代HBM,预计2024年HBM3e 24GB/36GB版本将量产/发布,内存性能进一步提高。HBM供需将持续紧俏,市场规模高速增长。通过分析生产工艺(TSV、键合等)和技术演进方向(先进制程、叠层),我们认为封装测试、前道和后道先进封装的设备和材料将是HBM主要受益方向。
·HBM是当前算力的内存瓶颈。存储性能是当下制约高性能计算的关键因素,从存储器到处理器,数据搬运会面临带宽和功耗的问题。为解决传统DRAM带宽较低的问题,本质上需要对单I/O数据违率和位宽进行提升。HBM由于采用了TSV、微凸块等技术,DRAM裸片、计算核心间实现了较短的信号传输路径、较高的I/O数据速率、高位宽和较低的I/O电压,因此具备高带宽、高存储密度、低功耗等优势。即便如此,当前HBM的性能仍然跟不上算力卡的需求。
·三大原厂持续加大研发投入,HBM性能倍数级提升。随着技术的迭代,HBM的层数、容量、带宽指标不断升级,目前最先进的HBM3c版本,理论上可实现16层堆叠、64GB容量和1.2TB/s的带宽,分别为初
代HBM的2倍、9.6倍和4倍。从Trendforce公布的HBM Roadmap来看,2024年上半年,海力士、三星、美光均会推出24GB容量的HBM3e,均为8层堆叠。2024年下半年,三家厂商将推出36GB版本的HBM3e,或为12层堆叠。此外,HBM4有望于2026年推出。
·HBM制造集成前道工艺与先进封装,TSV、EMC、健合工艺是关健。HBM制造的关键在于TSV DRAM,以及每层TSV DRAM之间的连接方式。目前主流的HBM制造工艺是TSV+Micro bumping+TCB,例如三星的TC-NCF工艺,而SK海力士则采用改进的MR-MUF工艺,在键合应力、散热性能、堆叠层数方面更有优势。目前的TCB工艺可支撑最多16层的HBM生产,随着HBM堆叠层数增加,以及HBM对速率、散热等性能要求的提升,HBM4开始可能引入混合键合工艺,对应的,TSV、GMC/IMC的要求也将提高。·AI刺激服务器存储容量扩充,HBM需求强劲。随着云计算厂商将更多资本开支投入AI基础设施,AI服务器ODM对2024年展望乐观,预计2024年AI服务器出货量继续大幅增长。相较于一般服务器而言,AI服务器多增加GPGPU的使用,以NVIDIA A100/H10080GB配置8张计算,HBM用量约为640GB,超越常规服务器的内存条容量,H200、B100等算力卡将搭载更高容量、更高迷率HBM。我们测算,随着算力卡单卡HBM容量提升、算力卡出货量提升、技术迭代带来单GB HBM单价提升,2023年HBM市场规模为40亿美元,预计2024年增长至148亿美元,2026年增长至242亿美元,2023~2026年CAGR为82%
·目前HBM供应链以海外厂商为主,部分国内厂商打入了海外存储/HBM供应链。国产HBM正处于0到1的突破期,HBM供应主要为韩系、美系厂商,国内能获得的HBM责源校少。随着国产算力卡需求快速增长,对于算力卡性能至关重要的HBM也有强烈的供应保障诉求和国产化诉求。建议关注:封测、设备、材料等环节。
·相关标的:
√封测:通富微电、长电科技、深科技;
√设备:中微公司、北方华创、拓荆科技、芯源微、赛腾股份、华海清科、精智达、新益昌;
√材料:雅克科技、联瑞新材、华海诚科、强力新材、天承科技、飞凯材料、壹石通、兴森科技;
√代理:香农芯创。
·风险提示:AI技术落地不及预期;国际环境变化影响;宏观环境的不利因素;市场竞争加剧风险。
本文来自知之小站
PDF报告已分享至知识星球,微信扫码加入立享3万+精选资料,年更新1万+精选报告
(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)