AI导读:

阿里云宣布通义千问视觉理解模型全线降价超80%,Qwen-VL-Plus和Qwen-VL-Max价格大幅降低,降价主要得益于阿里云基础设施和模型结构的持续优化。

  大模型价格战再度白热化。

  继字节跳动旗下豆包视觉理解模型于12月18日将价格大幅下调至0.003元/千Tokens后,阿里云于12月31日也紧跟步伐,宣布通义千问视觉理解模型全系列降价超过80%,且即刻生效!这一举措无疑为市场再添一把火。

  这已经是阿里云在2024年内对大模型价格的第三轮调整,前两次分别在5月和9月。此番降价后,Qwen-VL-Plus的价格直降81%,仅需0.0015元/千tokens,刷新全网最低价;而高性能版Qwen-VL-Max也降至0.003元/千tokens,降幅高达85%。

  根据阿里云降价后的最新价格计算,用户现在只需1元钱,即可处理约600张720P图片或1700张480P图片,相较于豆包大模型降价后的处理能力有了显著提升,豆包大模型降价后1元钱仅可处理284张720P的图片。

  Qwen-VL作为开源社区备受青睐的多模态大模型,以其强大的视觉推理能力著称。它不仅能识别各种分辨率和长宽比的图片,还能理解长达20分钟以上的长视频,并具备自主操作手机和机器人的视觉智能体能力,广泛应用于手机、汽车等终端的视觉识别场景。

  阿里云百炼团队负责人透露,此次降价主要归因于阿里云基础设施和模型结构的持续优化,以及大模型调用量的指数级增长所带来的规模效应。阿里云希望借此机会,将技术进步的红利迅速传递给所有用户。

  在提升推理效率方面,阿里云构建了高度弹性的AI算力调度系统,并结合百炼分布式推理加速引擎,显著降低了模型推理成本,同时加快了推理速度。

  2024年以来,随着通义千问团队不断优化视觉理解效果,Qwen-VL已成为百炼平台上增长最快的模型之一。

  为了进一步降低用户在使用文本大模型API时的成本,阿里云百炼还推出了全新的KV Cache计费模式。该模式通过自动缓存上下文,避免了重复计算,从而进一步降低了模型调用成本,特别适用于长文本、代码补全、多轮对话、特定文本摘要等场景。