AI产业加速发展,算力需求推动产业链变革
AI导读:
东北证券研报指出,AI将迎来加速发展元年,算力需求推动产业链各环节连接方式重塑,云厂商将更多采用自研ASIC芯片,光模块等连接环节迎来变化,中国AI产业崛起,液冷成为AI数据中心未来必选项。
财中社12月31日电东北证券最新研报指出,AI领域即将迎来加速发展的元年,其背后的核心驱动力在于推理兴起导致的产业链各环节连接方式重塑。据TIRIASresearch预测,未来推理算力将占据主导地位,占比高达95%,而训练算力仅占5%。IDC则预计,未来五年内,国内训练与推理算力的年复合增速将分别达到50%和190%,到2028年,推理算力的规模将超过训练算力。这一转变将促使云厂商更多地采用自研ASIC芯片,提升自主采购需求及自组网占比,从而引发光模块、AEC、PCIE等连接环节的一系列变革。同时,中国AI产业的崛起也标志着国产算力军备竞赛的正式开始。
随着云厂商自主采购需求的提升,光模块市场有望在2025年继续保持高速增长。据LC数据显示,2024年,AI集群用以太网光模块市场规模将实现翻倍,2025年和2026年也将保持强劲的增长势头。预计到2026年,4×100G光模块市场规模将达到40亿美元,而8×100G光模块市场规模则将超过70亿美元。到2029年,1.6T、3.2T、LPO及CPO等产品的合计销售规模有望达到100亿美元。随着推理需求的增长,谷歌、Meta、亚马逊等CSP厂商将不再受英伟达打包方案的限制,从2025年开始,其独立采购需求将显著增长,B300的推出同样释放了极大的采购自主权,使得客户能够以相同的资金购买更多的算力。
在推理自组网需求增加的背景下,Scale Out网络的AEC用量以及Scale Up网络的PCIe应用都将有所增加。推理追求低延迟和高吞吐,因此CSP自组网趋势下,以UALink为代表的Scale Up协议(基于PCIE)和以UEC为代表的Scale Out协议(以太网)的渗透速度正在加快。私有协议(如IB、NVLink)正在向更开放的协议(如以太网、PCIE)转变,客户的采购自主权得到提升(包括交换机、光模块、铜缆等)。在第一层互连场景下,通过增加retimer芯片扩展传输距离的AEC凭借其高可靠性和稳定性、低功耗及低成本等优势,有望被广泛使用。在柜内连接方面,PCIE有望成为NVLink及NVSwitch的替代品。
东北证券认为,随着AI数据中心算力需求的不断增长,面对能耗攀升与热量管理的要求,液冷凭借其出色的热控效能和巨大的节能潜力,将成为AI数据中心未来的必然选择。液冷渗透率的提升将同步带动UQD快接头市场的增长。预计2023年至2025年,我国IDC液冷连接器市场的规模将分别达到1.08亿元、2.05亿元和4.37亿元。未来,随着液冷系统渗透率的持续提升,UQD市场规模有望实现快速增长。在电源方面,AI服务器的功率及电源需求远高于普通服务器,要求具备高功率密度和高转换率。目前,台湾厂商凭借先发优势占据了大部分市场份额,但大陆电源厂商凭借成本控制和服务能力优势,有望在未来迅速抢占市场份额。
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

