AI导读:

阿里云宣布通义千问视觉理解模型全线降价超80%,Qwen-VL-Plus价格创全网最低,阿里云希望通过降价将技术红利传递给用户,同时推出全新KV Cache计费模式降低模型调用成本。

  大模型价格战再度白热化。

  字节跳动旗下豆包视觉理解模型于12月18日率先发难,将价格大幅下调至0.003元/千Tokens。紧随其后,阿里云在12月31日宣布,其通义千问视觉理解模型全线降价超过80%,降价措施即刻生效!

  这是阿里云在2024年内继5月和9月两次降价后的第三轮大动作。Qwen-VL-Plus模型降价幅度高达81%,其输入价格仅为0.0015元/千tokens,刷新了全网最低价格记录;而高性能版本的Qwen-VL-Max价格则降至0.003元/千tokens,降价幅度同样惊人,达到了85%。

  根据阿里云降价后的最新价格计算,1元钱可以处理约600张720P分辨率的图片,或高达1700张480P分辨率的图片。相比之下,豆包大模型降价后的处理能力为1元钱处理284张720P图片。

  Qwen-VL作为开源社区中最受欢迎的多模态大模型之一,以其强大的视觉推理能力著称。它能识别并处理各种分辨率和长宽比的图片,还能理解长达20分钟以上的长视频内容。此外,Qwen-VL还具备自主操作手机和机器人的视觉智能体能力,可广泛应用于手机、汽车等终端设备的视觉识别场景。

  阿里云百炼团队的相关负责人表示:“此次降价主要得益于我们在基础设施和模型结构方面的持续优化,以及大模型调用量指数型增长所带来的规模效应。我们希望通过这次降价,将技术红利及时传递给所有用户。”

  在推理效率方面,阿里云构建了弹性十足的AI算力调度系统,并结合百炼分布式推理加速引擎,大幅降低了模型推理成本,同时提升了推理速度。

  自2024年以来,随着通义千问团队不断优化视觉理解效果,Qwen-VL已成为百炼平台上增长最快的模型之一。

  为了进一步降低用户使用文本大模型API的成本,阿里云百炼还推出了全新的KV Cache计费模式。该模式通过自动缓存上下文来避免重复计算,从而进一步降低了模型调用成本。这一新模式特别适用于长文本处理、代码补全、多轮对话以及特定文本摘要等场景。

(文章来源:中国基金报,经授权转载)