AI大模型耗电惊人:液冷技术成数据中心散热新趋势
AI导读:
AI大模型耗电惊人!经济合作组织(OECD)与电气电子工程师学会(IEEE)联合发布的报告揭示AI大模型全生命周期的能耗问题。液冷技术凭借其高效散热、节能降耗等优势正成为数据中心温控系统演进的必然趋势。报告还提到中国企业在液冷领域的快速发展和全球千亿级赛道的机遇。
近日,经济合作组织(OECD)与电气电子工程师学会(IEEE)联合发布的《人工智能的隐性成本》研究报告显示,AI大模型全生命周期的能耗呈现“滚雪球”效应。以GPT-4为代表的千亿参数大模型,单次训练耗电量2.4亿度,相当于3000户家庭的年用电量;而推理阶段的持续能耗可能达到训练阶段的10倍,导致数据中心整体功耗呈指数增长。根据国际能源署(IEA)的预测,2026年全球数据中心总用电量将翻一番。传统风冷散热方式面临瓶颈,液冷技术凭借其高效散热、节能降耗、优化空间等优势,正成为数据中心温控系统演进的必然趋势。
多位业内人士在接受《中国经营报》记者采访时表示,液冷技术不仅能有效应对AI算力爆发带来的散热挑战,还能显著降低数据中心的PUE(电源使用效率)值,助力企业实现绿色低碳转型。随着全球数据中心对算力需求的持续攀升,液冷市场正迎来前所未有的发展机遇,中国企业凭借在液冷领域的深厚积累和持续创新,正加速构建从核心零部件到整体解决方案的全产业链布局,力求在全球千亿级赛道中占据领先地位。
液冷成数据中心 “必然选择”
随着数据中心的增加,能耗也随之增加,据北京理工大学今年发布的《数据中心综合能耗及其灵活性预测报告》,到2030年,我国数据中心用电负荷将达1.05亿千瓦,全国数据中心总用电量约为5257.6亿千瓦时,用电量将占到全社会总用电量的4.8%。
面对如此庞大的能耗压力,各地不得不严格控制能效标准的严苛化。国家发改委此前公布了数据中心绿色低碳发展专项行动计划,其中指出,到 2025 年年底,全国数据中心布局更加合理,整体上架率不低于60%,平均电能利用效率降至1.5以下,可再生能源利用率年均增长 10%,平均单位算力能效和碳效显著提高。
地方的政策也趋严。其中,上海市通信管理局、上海市数据局等11个部门在日前联合印发了《上海市智能算力基础设施高质量发展“算力浦江”智算行动实施方案(2024—2025年)》,要求到2025年,上海市新建智算中心PUE值达到1.25以下,存量改造智算中心PUE值达到1.4以下,智算中心内绿色能源使用占比超过20%,液冷机柜数量占比超过50%。
深圳市工业和信息化局此前印发的《深圳市算力基础设施高质量发展行动计划(2024—2025)》也提出要求,到2025年,新建数据中心电能利用效率 (PUE) 降低到1.25以下,绿色低碳等级达到4A级以上。
“现在不是选不选液冷的问题,而是怎么选、选哪种。”贵州一智算中心的负责人告诉记者,传统风冷技术 PUE 普遍在 1.5 以上,高密度场景甚至超过 2.0,已无法跨越政策红线。反观液冷技术,冷板式 PUE 可低于 1.2,浸没式更是能稳定控制在 1.1 以下,成为唯一符合政策要求的解决方案。
不仅是政策趋严,成本的压力也让行业全面拥抱液冷技术成为一种必然。
上述负责人说道:“以一个 10 万台服务器规模的智算中心为例,采用液冷技术每年可节省电费超亿元。同时,液冷系统无须高耗能的压缩机、风机,仅需少量设备,可进一步降低运维成本。”
高盛所发布的研究报告显示,截至2030年,数据中心的电力需求预计将增长165%,且AI推理的能源消耗在运营支出中所占比例已逾20%。由此可推断出,能源效率每提高1%,便能够为企业节省数亿美元的长期成本。
实际上,近两年全球的AI巨头已开始拥抱液冷。以英伟达为例...
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

