AI导读:

火山引擎总裁谭待谈2025年AI Agent爆发元年,火山引擎重点关注模型能力,推出AI云原生架构支持多元模型生态,预测未来2-3年模型能力将取得突破。

  如果说2024年被视作AI应用爆发元年,那么2025年则被视为AI Agent(智能体)的爆发元年。随着大模型技术从感知、生成向任务执行跃迁,AI正从“工具”升级为“助手”,甚至“代理人”。

  在这一背景下,火山引擎总裁谭待4月17日下午在杭州接受媒体群访时,回答了AI技术演进趋势、商业化路径及行业竞争等问题。AI Agent的崛起标志着AI技术的新阶段,火山引擎重点关注模型能力,尤其是深度思考和多模态支持。

  谭待表示,模型竞争本质上是能力竞争。如果现在的AI发展是一场马拉松,我们可能才跑了500米。业界正处于你追我赶的状态,模型能否做好是竞争的关键,与开源闭源关系不大。

  过去一年,豆包大模型的日均token调用量从4万亿飙升至12.7万亿,增长超106倍。这一数据的背后是模型能力的多次跃迁:从基础对话到深度思考,从文本处理到多模态推理。

  谭待举例称,豆包深度思考模型在数学推理(AIME 2024)、编程竞赛(Codeforces)等专业测试中已接近全球第一梯队水平,而多模态深度思考能力更使其能精准完成“看图点餐”“项目管理流程图解析”等相对复杂的任务。每一次模型突破都会解锁新场景,如深度思考功能上线后,企业客户开始用大模型处理财报分析、研究报告等长链条任务。

  谈及开源闭源之争,谭待直言:“火山引擎适配Deepseek的速度和效果是行业最优的。”他透露,第三方使用DeepSeek的云服务中,火山引擎的占比最高。这反而证明了我们的技术实力。

  谭待强调,火山引擎的定位是“AI时代最好的云”,通过AI云原生架构支持多元模型生态。AI云原生是智能时代的“新基建”,涵盖算力调度、开发工具、安全组件等,火山引擎推出ServingKit推理套件,优化GPU推理效率,降低企业成本。

  Agent被视为AI的下一站,开发复杂度远超单点应用。火山引擎推出OS Agent解决方案,整合了豆包UI-Tars模型、Sandbox沙箱环境、veFaaS无服务架构三大核心组件。

  谭待预测,未来2-3年,模型能力若在视觉推理、Agent协作等领域取得突破,token调用量或再现百倍增长。AI云原生不仅是算力池,更是智能时代的“水电煤”。对于行业热议的“AI下半场”说法,谭待并不认同,认为现在连上半场都没打完。

(文章来源:21世纪经济报道)