AI导读:

2025年AI算力需求激增,英伟达GTC开发者大会上指出AI推理成为算力需求增长主力。华为宣布其昇腾384超节点为业内最大算力集群超节点,实现大规模算力优化。全球算力基建扩张加速,国产厂商亦加快建设步伐。

  2025年是AI行业公认的“推理之年”,AI算力需求迎来了爆发式增长。

  在英伟达的GTC开发者大会上,黄仁勋指出,随着OpenAI o1、Deepseek R1等推理模型的推广应用,市场算力需求急剧上升,AI推理已成为推动算力需求增长的主要动力,其规模增长预计远超去年预估的100倍。

  然而,受到美国对华芯片禁令及国产GPU性能差距的限制,国内厂商采用集群化路线来满足算力需求,即通过特定技术将多个芯片整合成单个“超节点”。在数据中心内部,多个超节点形成集群系统,以应对大规模算力需求。

  在华为鲲鹏昇腾开发者大会上,华为宣布其“昇腾384超节点”为业内最大规模的算力集群超节点。该超节点利用华为高速互联总线技术,连接384张昇腾AI GPU芯片,并在内存带宽、存储容量、高速互联网络等方面进行优化。

  华为云进一步推出CloudMatrix 384,单集群算力达300 PFlops,与英伟达NVL72相当。据华为昇腾计算业务总裁张迪煊介绍,基于昇腾384超节点的Atlas A3模型训练性能较上一代提升3倍,通信带宽提升15倍,通信时延降低10倍。

  随着AI推理在算力需求中占比增大,算力集群针对推理的优化变得愈发重要。AI模型需处理更复杂任务,需要更长时间和复杂计算过程,因此实现“更大吞吐量”和“更低延迟”成为行业关键。

  DeepSeek带火的MOE(混合专家)架构已成为主流,MOE包含上百个专家网络的调度,实现大规模专家并行是解决AI模型吞吐量和延迟问题的核心。昇腾384节点针对MOE优化设计,实现“一卡一专家”,达到15ms低时延,单卡吞吐量是业界集群的4倍以上。

  全球算力基建扩张加速。英伟达、AMD与沙特公司达成百亿美元大单,建设人工智能数据中心工厂,涉及数十万张GPU卡规模的算力集群。Meta、特斯拉、微软、谷歌也在建设新的十万卡规模数据中心。国产厂商亦加快建设步伐,华为已支持10万卡集群的算力需求。

(文章来源:界面新闻)