AI导读:

阿里云宣布通义千问视觉理解模型全线降价超80%,Qwen-VL-Plus和Qwen-VL-Max价格大幅下降,创下全网最低价。降价得益于阿里云基础设施和模型结构的持续优化,以及大模型调用量的增长。

  大模型价格战再度升级,科技巨头竞相降价。

  继字节跳动旗下豆包视觉理解模型于12月18日大幅降价至0.003元/千Tokens后,阿里云于12月31日宣布,其通义千问视觉理解模型全线降价超过80%,降价措施即刻生效!这一举措标志着阿里云在2024年内已完成了三轮大模型降价。

  在阿里云的降价策略下,Qwen-VL-Plus价格直降81%,输入价格低至0.0015元/千tokens,刷新全网最低价;而高性能版本的Qwen-VL-Max也降至0.003元/千tokens,降幅高达85%。

  根据阿里云降价后的最新价格计算,1元钱足以处理约600张720P图片或高达1700张480P图片,这一处理能力远超此前豆包大模型降价后的标准,后者1元钱仅能处理284张720P图片。

  Qwen-VL作为开源社区中备受欢迎的多模态大模型,凭借其卓越的视觉推理能力,不仅能识别不同分辨率和长宽比的图片,还能理解超过20分钟的长视频。此外,它还具有自主操作手机和机器人的视觉智能体能力,适用于手机、汽车等多种终端的视觉识别场景。

  阿里云百炼团队的相关负责人表示:“此次降价主要得益于阿里云在基础设施和模型结构上的持续优化,以及大模型调用量指数型增长带来的规模效应。我们致力于将技术红利第一时间传递给所有用户。”

  在提升推理效率方面,阿里云构建了弹性十足的AI算力调度系统,并结合百炼分布式推理加速引擎,显著降低了模型推理成本,并加快了推理速度。

  自2024年以来,随着通义千问团队不断优化视觉理解效果,Qwen-VL已成为百炼平台上增长最快的模型。

  为进一步减轻用户在使用文本大模型API时的成本负担,阿里云百炼还推出了创新的KV Cache计费模式。该模式通过自动缓存上下文来避免重复计算,从而进一步降低模型调用成本,尤其适用于长文本处理、代码补全、多轮对话以及特定文本摘要等场景。