算力需求激增 AI产业加速走向普惠
AI导读:
随着AI大模型向普惠化、低成本方向发展,部署成本显著下降。当前智算算力需求非常旺盛,‘AI PC’概念加速走向现实。业内通过‘公共数据共享存储’和‘CPU+GPU’协同方案解决算力浪费和成本问题。政策层面系统性布局为AI产业变革筑牢根基。
“个人级推理设备(AI PC)将从概念走向现实。”12月30日,第三届全国先进计算技术创新大赛在成都举行,中国工程院院士、清华大学计算机系教授郑纬民在现场分享中提到,随着AI大模型向普惠化、低成本方向发展,部署成本显著下降,让边缘侧、端侧的低成本大模型应用从构想变成现实。
沿着这一思路,与会学界、企业及机构代表聚焦“成本普惠化”“应用垂直化”“产业生态化”等方向,探讨AI如何与千行百业深度融合,并推动算力价值转化为现实生产力。
一个越来越明显的共识是,AI产业正从早期的技术模型探索,进入以“应用创新”“产业深耕”为核心的新阶段,深度赋能政务、医疗、工业制造、交通、能源等关键领域,持续催生新业态、新模式。
破解算力难题 “AI PC”加速走进现实
“现在智算算力需求非常旺盛,租GPU做AI推理,得提前两个星期排队预约。”郑纬民表示,曾经由“模型训练”主导的算力需求,如今已经转向“推理”,简单说就是AI从“学习成长”阶段,进入了“给人干活”的实用阶段,而这也催生出爆发式的算力缺口。
要让AI高效“干活”,选对芯片是关键。相较于CPU,更擅长高效矩阵运算和高速数据读写的GPU脱颖而出。
不过高效的GPU也面临“烦恼”,其内存主要用于存储两类数据,一是训练所得的模型参数,二是推理过程中产生的中间结果。随着Kimi等支持数百万字上下文的模型走红,AI大模型趋向“数据更多、模型更大、上下文更长”,但这也带来了极高的推理负载,导致用户量激增时频繁宕机。
郑纬民以热门论文的推理需求为例,“十万个用户同时查询,如果每个用户都单独存储文章原文和推理中间结果,AI必然不堪重负。”
郑纬民提到,业内的破解思路是“公共数据共享存储”,即将重复出现的公共数据和推理中间结果仅存储一份,让所有用户共用。通过“缓存复用”“以存换算”大幅减少算力浪费,从而缓解大模型AI宕机问题。
郑纬民透露,该技术开源后获得行业广泛认可,英伟达、华为、阿里等国内外头部企业都在采用。
除了存储问题,公共算力“不够用”也是一大行业痛点。
“我经常清晨五点半起来用AI查论文,往往问三次就会‘流量超限’。要是等到高峰期,可能问完一个问题,AI就会提示我‘休息一会’。其实不是我累了,是它忙不过来了。”
郑纬民拿亲身体验举例,大家常用的DeepSeek大模型,背后是由6000多块芯片组成、耗资20多亿元的“超级芯片”,但即便如此,高峰时段还是扛不住频繁的用户查询需求。
郑纬民介绍,针对企业部署本地推理的高成本问题,业内一项解决办法是“CPU+GPU”协同的“性价比”方案。具体来说,就是把AI最需要快速运算的核心参数放在GPU里,把占比更高、不那么急的普通参数放在CPU里。这样一来,只用一套更低成本的设备,就能让大模型“满血”运行。
郑纬民透露,现在这个方案已经被多家大模型企业采用,相当于给企业提供了“平价解决方案”。
而这两项技术创新,正让AI PC概念加速走向现实。
“有可能过两年,在座各位都会用上AI PC。”郑纬民预判,就像当年计算机普及一样,AI技术有望从“集群级服务”向“个人级应用”发展,这也是当下AI行业最值得关注的趋势。
产业价值兑现 AI重构千行百业
如果说前几年是AI的技术竞赛,今年则是产业场景中的价值兑现。
政策层面的系统性布局,为这场变革筑牢了根基。国家层面早已按下加速键。今年8月,国务院发布《关于深入实施“人工智能+”行动的意见》,明确提出到2027年,率先实现人工智能与6大重点领域广泛深度融合...
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

