华为‘超节点+集群’创新:突破算力瓶颈,引领AI新未来
AI导读:
本文聚焦华为在华为全联接大会2025上发布的‘超节点+集群’算力解决方案,该方案通过整合算力芯片资源,提高算力利用效率,支撑大规模模型训练推理,并同步发布全球最强算力集群,为中国AI算力提供可持续支撑,引领AI算力创新之路。
算力是数字经济时代的发动机,也是人工智能发展的核心资源。从大模型掀起新一轮人工智能浪潮以来,算力不再只是产业背后的技术细节,而一跃成为社会数智化转型中不可或缺的核心资源。截至今年6月底,我国在用算力中心机架总规模达到1085万标准机架,智能算力规模达到788EFlops(EFlops指每秒百亿亿次浮点运算),位居全球前列。然而,随着AI快速迭代,算力不足的隐忧仍如影随形,算力发展已成为产业焦点。
“算力过去是,未来也将继续是人工智能的关键,更是中国人工智能的关键。”在日前举行的华为全联接大会2025上,华为副董事长、轮值董事长徐直军说,要迈向真正的AGI(通用人工智能),走向物理AI、世界模型,需要海量算力作支撑。他强调,基于中国可获得的芯片制造工艺,华为努力打造‘超节点+集群’算力解决方案,来满足持续增长的算力需求,这不仅是华为自身的发展目标,更是对产业、对国家的长期承诺。
差异化路径突破外部限制
面对持续攀升的算力需求以及芯片制造工艺的外部限制,华为选择了一条差异化路径:以“超节点+集群”构建全新的算力供给体系。“我们换条路走。”徐直军直言,“只有依靠超节点和集群,才能规避中国在芯片制造工艺上受到的限制,为中国AI算力提供源源不断的算力支持和供给。”超节点通过整合算力芯片资源,在一个超节点内构建低延迟、高带宽的算力实体,让单个超节点尽可能大地释放算力,提高算力利用效率,支撑千亿乃至万亿参数模型的训练和推理。
徐直军进一步解释,超节点虽然在物理上由多机柜、数千甚至上万张AI计算卡连接组成,但在逻辑上却能像一台计算机一样工作、学习、思考、推理。集群则将多个超节点通过高速网络互联,再通过软件层统一调度,让多台服务器如同云服务一般灵活可用。此次会上,华为推出最新超节点产品Atlas 950 SuperPoD和Atlas 960 SuperPoD超节点,分别支持8192张、15488张昇腾卡。基于超节点,华为同步发布全新超节点集群——Atlas 950 SuperCluster和Atlas 960 SuperCluster,算力规模分别突破50万卡和达到百万卡,是目前全球最强算力集群。
“‘超节点+集群’是华为在极限制裁下被逼出来的创新,是华为在计算上的核心战略。”徐直军表示,此次发布的超节点产品在卡规模、总算力、内存容量、互联带宽等多项关键指标上领先,并且这些优势将长期保持。华为计划以几乎一年一代、每代算力规模翻倍的速度,向更易用、更多数据格式、更高带宽等算力演进方向前进。根据中国电信研究院的预测,到2035年,AI将为我国GDP贡献超过11万亿元。徐直军表示,华为希望用“超节点+集群”的系统性创新,为中国人工智能提供可持续、可拓展的算力底座,走出一条中国自己的AI算力创新之路。
构筑开源开放算力底座
值得一提的是,华为还通过系统性创新,突破大规模超节点互联的技术瓶颈,发布了面向超节点的互联协议——灵衢(UnifiedBus)。华为全联接大会2025上,灵衢2.0技术规范正式开放,以便产业界共同研发相关产品和部件,共建灵衢开放生态。在8月召开的昇腾计算产业发展峰会上,华为已经宣布全面开源开放昇腾硬件使能CANN,加速开发者创新,共建昇腾生态。“捂在身上干什么?开源开放,用多了就有生态,用少了生态就跑了。”徐直军说,开源正在成为信息技术生态构建的主流趋势。中国信息通信研究院人工智能研究所所长魏凯说,“开放智算生态”“开源成标配”均已成为2025年人工智能产业关键词。
在算力层面,开源开放对生态共建具有关键作用。中国通信企业协会云数据专业委员会秘书长郑宏认为,开源技术不仅通过创新解决方案降低算力成本,更推动AI开发模式从单一模型研发转向覆盖硬件适配、算法优化、场景应用的全系统创新。当前,我国正积极强化开源布局,出台《关于推动未来产业创新发展的实施意见》《国家人工智能产业综合标准化体系建设指南(2024版)》《中小企业数字化赋能专项行动方案(2025—2027年)》等相关文件,为开源生态厚植政策“土壤”。
(文章来源:科技日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

