AI导读:

火山引擎发布豆包大模型系列更新,包括支持多种思考长度的1.6版本及lite等新模型。日均tokens调用量突破30万亿,市场占比领先。新模型平衡效果、时延、成本,满足企业多样化需求。

  近日,火山引擎发布豆包大模型的系列更新,包括豆包大模型1.6原生支持多种思考长度,并推出豆包大模型1.6lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。这一系列更新在AI产业加速落地的背景下显得尤为重要,截至今年9月底,豆包大模型日均tokens(词元)调用量已突破30万亿,相比5月底增长超80%,展示了其强大的市场影响力和应用潜力。

  随着AI技术的不断进步,企业市场对大模型的需求日益增长。IDC报告显示,2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一,这进一步证明了火山引擎在AI领域的领先地位。在火山引擎总裁谭待看来,全球AI大模型正在深度思考与多模态融合、视频图像语音模型生产级化、企业级复杂Agent成熟化三个方向上快速发展。

  在服务企业用户的过程中,火山引擎发现深度思考模式虽能提升模型效果,但会增加模型延迟和使用成本,导致实际应用中深度思考模式的使用占比仅有18%。针对这一痛点,豆包大模型1.6全新升级,提供四种思考长度,平衡企业在不同场景下对模型效果、时延、成本的不同需求,并进一步提升思考效率,这也是国内首个原生支持“分档调节思考长度”的模型。

  为进一步满足企业的多样化需求,火山引擎还推出了更轻量、推理速度更快的豆包大模型1.6lite。该模型在企业级场景测评中较豆包1.5pro提升14%,在使用量最大的0—32k输入区间里,综合使用成本较豆包1.5pro降低53.3%,为企业提供了更加经济高效的解决方案。此外,火山引擎还发布了智能模型路由,这是国内首个针对模型智能选择的解决方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解。

(文章来源:科技日报)