AI导读:

阿里云宣布通义千问视觉理解模型降价超80%,Qwen-VL-Plus和Qwen-VL-Max价格大幅下调,降价后1元钱可处理数百张图片,阿里云百炼还推出全新KV Cache计费模式降低使用成本。

大模型价格战再次掀起波澜。

近日,字节跳动旗下豆包视觉理解模型率先将价格大幅下调至0.003元/千Tokens,随后,阿里云于12月31日宣布,其通义千问视觉理解模型全面降价超过80%,且降价措施立即生效!

这是阿里云在2024年继5月和9月两轮降价后,推出的第三轮大模型降价举措。

具体而言,Qwen-VL-Plus降价幅度达到81%,输入价格低至0.0015元/千tokens,创下了全网最低价格记录;而高性能版的Qwen-VL-Max也降至0.003元/千tokens,降价幅度高达85%。

按照阿里云此次降价后的最新价格计算,用户花费1元钱可以处理大约600张720P分辨率的图片,或者1700张480P分辨率的图片,相较于豆包大模型降价后的处理能力,这一数字有了显著提升。

Qwen-VL作为开源社区中备受欢迎的多模态大模型,具备出色的视觉推理能力,能够识别多种分辨率和长宽比的图片,理解长达20分钟以上的长视频,并具备自主操作手机和机器人的视觉智能能力,可广泛应用于手机、汽车等终端设备的视觉识别场景。

阿里云百炼团队的相关负责人表示,此次降价主要得益于阿里云在基础设施和模型结构方面的持续优化,以及大模型调用量指数型增长所带来的规模效应。阿里云希望将这一技术红利尽快传递给所有用户。

在推理效率方面,阿里云构建了弹性高效的AI算力调度系统,并结合百炼分布式推理加速引擎,显著降低了模型推理成本,同时加快了模型推理速度。

自2024年以来,随着通义千问团队不断优化视觉理解效果,Qwen-VL已成为百炼平台上增长最快的模型之一。

为了进一步降低用户使用文本大模型API的成本,阿里云百炼还推出了全新的KV Cache计费模式。该模式通过自动缓存上下文信息,避免了重复计算,从而进一步降低了模型调用成本,特别适用于长文本处理、代码补全、多轮对话以及特定文本摘要等场景。

(文章来源:中国基金报)