1. 首页>>财经头条

存储霸主三星“踏空”人工智能热潮? 业绩预告令市场大失所望

韩国科技巨头、全球最大规模存储芯片制造商三星电子(Samsung Electronics)公布的最新业绩预告显示,第三季度利润规模低于市场普遍预期。在周二发布的一份业绩预告中,这家全球顶级存储芯片制造商表示,截至9月份的最新季度营业利润预计约为9.10万亿韩元,相比于去年的2.43万亿韩元激增274%。然而,这一数字没有达到LSEG所汇编的经济学家普遍预期。在近期韩国芯片出口规模激增以及芯片库存骤降因全球AI热潮带来的存储需求激增背景下,三星营业利润预期可谓令分析师以及芯片股投资者们感到非常失望。

据了解,LSEG所覆盖的分析师们普遍预计,三星电子截至9月30 日的季度营业利润大约为 11.456 万亿韩元(约77 亿美元),由于三星业绩多个季度显示出HBM以及数据中心DRAM和NAND未能像竞争对手SK海力士以及美光那样斩获庞大利润增量,一些分析师怀疑三星未能赶上这波史无前例的AI热潮。根据LSEG汇编的分析师预期,三星这一季度的总营收规模预计将达到大约81.96万亿韩元(大约610亿美元)。

三星副董事长、设备解决方案部门新任负责人Jun Young-hyun甚至在业绩预告发布后罕见地发表了致歉声明,并且表示正在努力解决与HBM等人工智能芯片产品相关的重大问题。三星在一份声明中表示:“包含HBM以及企业级SSD的三星存储芯片业务的业绩因‘一次性成本和巨大的负面影响’而下降,其中包括移动端客户的库存调整和亚洲其他的存储芯片公司传统存储产品的供应增加。”

韩国是世界上最大规模两家存储芯片生产商——SK海力士与三星的所在地,三星是存储芯片的全球领先制造商也是全球最大规模存储芯片制造商,存储芯片用于笔记本电脑和服务器等设备。三星电子也是世界第二大智能手机市场参与者。此外,三星近期在力争成为英伟达需求最强大的Hopper架构以及最新Blackwell架构AI GPU的最新一代HBM3E供应商之一。

自从2023年以来席卷全球企业的AI热潮已带动AI服务器需求激增,戴尔以及超微电脑等全球顶级数据中心服务器制造商在其企业级AI服务器中通常使用三星与美光数据中心DDR系列产品,以及NAND存储主流应用之一的三星/美光SSD则大量用于计算系统的服务器主存储体系,而SK海力士HBM存储系统则与英伟达AI GPU全面绑定在一起。这也是HBM存储系统,以及整个DRAM与NAND存储需求激增的重要逻辑。

从韩国芯片出口数据以及芯片库存数据来看,存储芯片劲爆需求显得更加清晰明了。韩国政府公布的数据显示,尽管增速放缓,但9月份半导体出口量仍同比大幅增长37%,连续11个月增长,略弱于8月份38.8%的涨幅。

image.png

8月,韩国芯片产品库存以 2009 年以来最快的速度减少,表明对人工智能开发使用的高性能存储芯片的需求持续存在。数据显示,韩国芯片库存较上年同期下降 42.6%,降幅高于7月份报告的 34.3%。产量和出货量分别增长 10.3% 和 16.1%,这进一步表明全球芯片行业繁荣周期在第三季度的大部分时间里持续。

关于对人工智能大模型训练/推理以及英伟达H100、H200以及最新Blackwell架构AI GPU硬件体系而言至关重要的HBM存储系统,该公司补充表示,向主要大客户(大概率是英伟达与AMD)运送高带宽内存“HBM3E”存储系统也出现意外延迟,进一步验证了市场猜测——即最大规模存储芯片制造商目前没有能拿得出手的HBM拳头产品,三星可能未能踏上这波HBM需求激增热潮。

HBM存储系统与AI芯片霸主英伟达所提供的核心硬件——H100/H200/GB200 AI GPU配合搭载使用,HBM以及AI GPU对于驱动ChatGPT以及Sora等重磅人工智能应用可谓必不可少。由于市场对英伟达全线AI GPU产品需求几乎永无止境,英伟达已成为全球市值最高的芯片公司。HBM存储系统可以更快地提供信息,帮助计算系统开发和运行人工智能大模型。

英伟达H200 AI GPU以及最新款基于Blackwell架构的B200/GB200 AI GPU的HBM搭载SK海力士所生产的最新一代HBM存储系统——HBM3E,另一大HBM3E供应商则是来自美国的存储巨头美光,美光HBM3E大概率将搭载英伟达H200以及最新推出的性能无比强劲的B200/GB200 AI GPU。

HBM是一种高带宽、低能耗的存储技术,专门用于高性能计算和图形处理领域。HBM通过3D堆叠存储技术,将堆叠的多个DRAM芯片全面连接在一起,通过微细的Through-Silicon Vias(TSVs)进行数据传输,从而实现高速高带宽的数据传输。HBM通过3D堆叠技术,将多个存储芯片堆叠在一起,不仅大幅减少了存储体系空间占比,也大幅降低了数据传输的能耗,高带宽则能够显著提升数据传输效率,使得AI大模型能够24小时不间断地更高效地运行。

尤其是HBM存储系统还具有强大的低延迟特性,能够快速响应数据访问请求。GPT-4等生成式AI大模型通常需要频繁访问大数据集以及进行无比繁重的大模型推理工作负载,强大的低延迟特性能够极大程度提高AI系统的整体效率和响应速度。在AI基础设施领域,HBM存储系统全面绑定英伟达H100 /H200 AI GPU服务器系统,以及全面绑定即将批量开启交付的英伟达B200和GB200等AI GPU服务器系统。

“好吧,让我们看看这个数字——确实非常令人失望,”来自韩国 Yuanta Securities的全球资产配置主管Daniel Yoo表示。他还指出,三星所依赖的PC和智能手机中使用的传统存储芯片的需求在全球范围内并没有显著增加。

“三星并没有像我们过去看到的那样积极抢占存储需求最强劲的新兴领域——AI基础设施领域的存储芯片市场份额。我认为这是我们看到的大问题,”Yoo补充道。

“公司需要保持其存储产品供应体系控制的灵活性,因为聚焦个人产品的传统DRAM市场衰落可能会对三星造成比其规模较小的竞争对手更大的伤害。”来自麦格理证券的分析师们在最近的一份报告中表示。DRAM通常用于智能手机以及个人电脑,企业级别的传统DRAM则用于企业服务器等领域。

有媒体在9 月份援引两位知情人士的话报道称,三星已指示其全球子公司将某些部门的员工减少大约30%,三星此举目的在于为成功推出更高性能以及符合英伟达旗舰AI GPU供应资质的HBM,以及需求比消费电子端更强劲的企业级SSD等产品提供充沛的现金流支持。甚至有媒体报道称,为加快HBM研发以及生产制造和全方位测试等核心技术工作,三星高层甚至强行要求存储线员工参与加班。

LSEG 统计数据显示,三星电子在韩国证券交易所上市的股票价格今年迄今已下跌22%。该公司将于本月晚些时候公布详细的第三季度业绩。三星电子股价在发布指引后下跌0.98%。


本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://ylfx.com/toutiao/7939.html