AI导读:

2025中国算力大会期间,国产算力生态链通过产业聚合寻求高效解法,大模型厂商加速应用落地。国产算力产业链正形成跨领域协作,开放协议与聚合生态成重要方向,推动技术螺旋上升与系统进化。

Deepseek主动拥抱国产芯片生态,到一批国产超节点服务器陆续登场,国产算力产业链的合纵连横大时代正在开启。在2025中国算力大会期间,21世纪经济报道记者多方走访发现,国产算力生态链正通过产业聚合方式,在芯片到服务器再到智算集群的路径上寻求更高效的解法,同时大模型厂商和平台型厂商也在加速推动应用落地(国产算力,算力生态)。

一名芯片公司高管对21世纪经济报道记者指出,“UE8M0 FP8路线被DeepSeek投入应用,这让我们国产芯片厂商有更多机会与模型厂商协同,共同提升计算效率(计算效率,协同作用)。”联想集团副总裁陈振宽接受采访时指出,超节点技术属于Scale up范畴,联想已投入资源开发相关技术,重点研发互联网络技术;在Scale out集群上,联想重点投入推理场景下的PD分离技术,助力算力集群的Token生产效率(超节点技术,Token生产效率)。

大会期间发布的“年度重大突破成果”,凸显出国内计算、通信、电力行业龙头在大模型时代联手解决跨域训练、落地难、耗电量高等问题。这不仅是技术攻关,更是一次围绕算力自主的体系性跃迁(算力自主,体系性跃迁)。

一条算力产业链的拉通,涉及从底层芯片到软件生态、服务器整机、智算集群等多个环节,彼此开源/开放是破局关键路径之一。近期DeepSeek的一句话引发市场关注,前述芯片公司高管分析,UE8MO能够帮助恢复计算精度,提高计算效率,同时减少存储和数据传输的开销(算力产业链,计算精度)。

该名高管指出,对于芯片公司来说,一方面会沿着DeepSeek的精益求精路线推进计算实现,另一方面仍不可忽视OpenAI“大力出奇迹”的路线。他认为两条路线都应重视,只有基础设施能力到一定高度后,才能吸引终端应用和生态在芯片平台上开发并促成具体实现(基础设施能力,终端应用)。

在算力大会期间,中国移动、之江实验室、百度等数十家企业、科研院所共同启动智算开放互联OISA生态共建战略合作,并发布OISA 2.0协议。OISA技术体系主要为GPU卡间互联提供高性能方案,支撑超节点智算集群的scale up路线。该体系目前正在联合GPU、Switch、整机等伙伴推动研发,进而推动规模落地(OISA生态,GPU卡间互联)。

相较于OISA 1.1版本,OISA 2.0将支持的AI芯片数量提升至1024张,带宽突破TB/s级别,AI芯片互联时延缩短至数百纳秒。此外,中国移动还原创了全调度以太网(GSE)技术体系,已发布全套技术标准,完成中试验证,发布首套支持千卡级组网能力的商用产品(全调度以太网,千卡级组网)。

同泰怡产品中心总经理马泽表示,公司作为服务器厂商,针对多元化的算力需求做了诸多布局。他指出,国际GPU芯片主要是英伟达,同泰怡是英伟达的OEM合作伙伴。对于国产GPU企业而言,更大挑战来自生态构建,国产GPU在生态建设上还处于起步阶段,缺乏成熟的软件工具和开发者支持,限制了市场拓展能力。国产GPU企业需要积极与产业链上下游企业合作,通过开放平台等方式吸引开发者加入,形成良性循环(国产GPU,生态构建)。

当前市场正面临多类型、多厂商AI芯片并存的局面,如何针对异构计算能力进行兼容优化并落地行业应用是重要命题。陈振宽分析,融合调度机制是实现超智融合过程中最需要首先解决的问题。联想通过“一横五纵”战略框架构建了覆盖通用、科学、AI算力的异构智算平台——联想万全异构智算平台(异构计算,超智融合)。

算力大会期间发布的《2025智算服务发展报告》指出,智算中心建设面临基础设施规划建设、大模型开发效能优化以及产业应用深度贯通等挑战。报告提出,智算中心服务需重点推进四大举措:推进全流程标准体系建设;强化基础设施层智能调度、模型层自动化调优、应用层AI智能体等核心技术自主创新;建立“政产学研用”协同生态,打通全链条;面向重点领域开展专项行动,培育算力服务商突破落地瓶颈(智算中心,核心技术自主创新)。

除了云端的大规模集群训练推理之外,一体机品类更适合端侧推理需求强的行业或场景。马泽表示,DeepSeek与行业大模型的结合,本质是通过“通用基座+垂直增强”的模式,实现技术能力与行业需求的精准匹配。在落地应用过程中,需要一体机提供商结合行业用户的具体业务场景,针对性去做模型适配、参数调优、性能测试等工作(一体机,模型适配)。

据悉,同泰怡构建了覆盖“轻量化”至“满血版”大模型的全栈解决方案矩阵,并与行业客户开展POC测试,在教育、能源、电网、政务、医疗等行业实现了方案落地,助力客户应用升级优化(全栈解决方案,应用升级)。

对于智算中心建设本身来说,也面临如何更好推进能效优化的命题。马泽表示,目前主流的液冷技术包括冷板式液冷和浸没式液冷,其中冷板式液冷改造起来更快,浸没式液冷部署时技术复杂度更高。目前客户对风冷散热技术的关注度依然较高,但液冷技术能大幅降低能耗,提升算力密度,从长周期看,配备液冷散热技术的数据中心长期TCO优势更显著(液冷技术,能效优化)。

中国信通院发布的《智算中心液冷产业全景研究报告(2025年)》提到,当芯片功率超过300W时,传统风冷系统散热能力失效,芯片热失控风险急剧升高。液冷技术利用液体比热容高于空气的优势,通过与发热元器件紧密结合,实现对芯片精准散热,芯片结温可降低约15°C至25°C,充分满足了高密部署场景下的芯片散热需求(芯片散热,液冷技术)。

陈振宽透露,联想在和清华大学合作开发双循环的浸没式液冷技术,对产品有很高适应性,非常匹配目前灵活变化的AI算力需求。联想正推动低成本冷板方案的应用,实现风液同价目标;此外联想也已着手研发相变冷板,以应对未来更高功耗芯片的散热需求。此次算力大会期间,联想展示了今年推出的“双循环”相变浸没制冷系统,实际落地PUE值达1.035(相变浸没制冷,PUE值)。

当前,国产算力产业链正以高度协同的态势,形成跨领域、多层次的产业协作,开放协议、聚合生态是重要方向。这不仅会推动国内算力产业角色的技术螺旋上升,更是一场面向未来的系统进化(国产算力,系统进化)。

(文章来源:21世纪经济报道)