AI算力需求激增,华为昇腾384超节点引领算力集群优化
AI导读:
2025年AI算力需求激增,英伟达GTC开发者大会上指出AI推理成为算力需求增长主力。华为宣布其昇腾384超节点为业内最大算力集群超节点,实现大规模算力优化。全球算力基建扩张加速,国产厂商亦加快建设步伐。
2025年是AI行业公认的“推理之年”,AI算力需求迎来了爆发式增长。
在英伟达的GTC开发者大会上,黄仁勋指出,随着OpenAI o1、Deepseek R1等推理模型的推广应用,市场算力需求急剧上升,AI推理已成为推动算力需求增长的主要动力,其规模增长预计远超去年预估的100倍。
然而,受到美国对华芯片禁令及国产GPU性能差距的限制,国内厂商采用集群化路线来满足算力需求,即通过特定技术将多个芯片整合成单个“超节点”。在数据中心内部,多个超节点形成集群系统,以应对大规模算力需求。
在华为鲲鹏昇腾开发者大会上,华为宣布其“昇腾384超节点”为业内最大规模的算力集群超节点。该超节点利用华为高速互联总线技术,连接384张昇腾AI GPU芯片,并在内存带宽、存储容量、高速互联网络等方面进行优化。
华为云进一步推出CloudMatrix 384,单集群算力达300 PFlops,与英伟达NVL72相当。据华为昇腾计算业务总裁张迪煊介绍,基于昇腾384超节点的Atlas A3模型训练性能较上一代提升3倍,通信带宽提升15倍,通信时延降低10倍。
随着AI推理在算力需求中占比增大,算力集群针对推理的优化变得愈发重要。AI模型需处理更复杂任务,需要更长时间和复杂计算过程,因此实现“更大吞吐量”和“更低延迟”成为行业关键。
DeepSeek带火的MOE(混合专家)架构已成为主流,MOE包含上百个专家网络的调度,实现大规模专家并行是解决AI模型吞吐量和延迟问题的核心。昇腾384节点针对MOE优化设计,实现“一卡一专家”,达到15ms低时延,单卡吞吐量是业界集群的4倍以上。
全球算力基建扩张加速。英伟达、AMD与沙特公司达成百亿美元大单,建设人工智能数据中心工厂,涉及数十万张GPU卡规模的算力集群。Meta、特斯拉、微软、谷歌也在建设新的十万卡规模数据中心。国产厂商亦加快建设步伐,华为已支持10万卡集群的算力需求。
(文章来源:界面新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

