AI导读:

阿里云宣布通义千问视觉理解模型全面降价超过80%,Qwen-VL-Plus和Qwen-VL-Max价格大幅下调,创下全网最低价,进一步推动大模型市场的价格竞争。

  大模型市场的价格战再度升级。

  继字节跳动旗下豆包视觉理解模型于12月18日将价格大幅下调至0.003元/千Tokens后,阿里云于12月31日震撼宣布,其通义千问视觉理解模型全面降价超过80%,降价即刻生效!

  这是阿里云在2024年继5月和9月两次降价之后,迎来的第三轮大模型降价风暴。

  具体降价情况为,Qwen-VL-Plus降价幅度高达81%,其输入价格低至0.0015元/千tokens,创造了全网最低价;而高性能版本的Qwen-VL-Max价格也下调至0.003元/千tokens,降价幅度更是达到了惊人的85%。

  根据阿里云此次降价后的最新价格计算,用户现在使用1元钱可以处理最多约600张720P分辨率的图片,或者高达1700张480P分辨率的图片。

  相比之下,按照豆包大模型此前降价后的价格,1元钱仅能处理284张720P分辨率的图片。

  据悉,Qwen-VL作为开源社区中最受欢迎的多模态大模型,拥有卓越的视觉推理能力。它能够识别各种分辨率和长宽比的图片,理解长达20分钟以上的长视频,并具备自主操作手机和机器人的视觉智能体能力。这使得Qwen-VL能够广泛应用于手机、汽车等各类终端的视觉识别场景。

  阿里云百炼团队的相关负责人表示:“此次降价主要得益于阿里云在基础设施和模型结构上的持续优化,以及大模型调用量指数级增长所带来的规模效应。我们希望能够将技术红利第一时间传递给所有用户。”

  在推理效率方面,阿里云构建了弹性极强的AI算力调度系统,并结合百炼分布式推理加速引擎,显著降低了模型推理的成本,并大幅提升了推理速度。

  自2024年以来,随着通义千问团队不断对视觉理解效果进行优化,Qwen-VL已成为百炼平台上增长最为迅速的模型。

  为了进一步降低用户使用文本大模型API的成本,阿里云百炼还推出了全新的KV Cache计费模式。该模式通过自动缓存上下文来避免重复计算,从而进一步降低了模型调用的成本。这一新模式特别适用于长文本、代码补全、多轮对话、特定文本摘要等场景。

(文章来源:中国基金报)