AI导读:

本文介绍了国内外主流大模型再次降价的现象,DeepSeek-V3和伯克利大学NovaSky团队的开源模型引发了行业对性价比的关注。训练成本的降低将加快大模型的应用落地,但也对大模型创业公司提出了挑战。文章还讨论了行业效率与成本并重的发展趋势。

新华财经上海1月15日电(记者杜康、朱程)岁末年初,国内外主流大模型再度掀起降价风暴。Deepseek-V3凭借极低的训练成本,不仅在国内引起热议,也引发了国际行业的广泛关注,促使业界开始反思:是否无限追求更大的算力集群和更多的数据量,才是大模型优化的唯一途径。与此同时,伯克利大学NovaSky团队发布的Sky-T1-32B-Preview开源模型,再次证明了高水平的AI研发并不需要天价预算,进一步推动了行业从单一的性能竞争向性能与实用性并重的发展态势转变。

训练成本的显著降低,无疑将加速大模型在各场景的应用落地。然而,这也给大模型创业公司带来了新的挑战。在与大型科技公司的“价格战”中,创业公司往往处于劣势,亟需找到一条差异化的发展道路,以避免被大型科技公司的市场影响力所覆盖。

训练成本骤降,效率成行业焦点

近期,DeepSeek-V3凭借其极低的训练成本,迅速成为行业热议的话题。根据DeepSeek-V3发布的技术报告,其完整训练过程仅需2.788M H800 GPU小时,包括预训练、上下文长度外推和后训练。若以每GPU小时2美元的租金计算,其总训练成本仅为557万美元。值得注意的是,这一成本还未包括与架构、算法或数据相关的前期研究或精简实验的成本。

相比之下,美国人工智能公司Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o等类似模型的训练成本高达约1亿美元。这意味着DeepSeek-V3的训练成本仅为GPT-4o的1/20。

在大幅降低训练成本的同时,DeepSeek-V3依然保持了高性能。据其公告显示,DeepSeek-V3在多项评测中的表现超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上与世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不相上下。

Gartner研究总监闫斌表示,DeepSeek-V3的成功,得益于其从端到端都进行了工程优化,包括模型架构、基础设施优化和数据优化等。他强调,大模型进入公众视野的时间尚短,仅两年多。在此期间,行业模型训练相对粗放,主要通过收集更多数据、建设更大的数据中心来获取更好的训练结果,这一过程也被行业总结为“Scaling Law”。闫斌认为,DeepSeek-V3证明了通过更好的工程化能力,即使使用相对较少的算力资源和较小的模型,也能达到不错的训练效果。

此外,伯克利大学NovaSky团队发布的Sky-T1-32B-Preview开源模型,在常见的推理和编码基准测试中,与OpenAI的o1-preview表现相当。据称,其训练成本不到450美元,展示了以经济高效的方式复制高水平推理能力的可能性。NovaSky团队通过使用数据筛选机制,如通过QwQ-32B-Preview生成初始数据,通过GPT-4o-mini重写数据格式等,以及选择Qwen2.5-32B-Instruct作为基础模型进行训练,成功实现了低成本的模型训练。

瑞银证券中国软件分析师张维璇表示,效率将是2025年大模型行业的关键词之一。她认为,除了少数公司有能力继续追求顶级大模型外,大多数公司未来将需要降本增效。优化注意力机制、采用MOE架构、降低模型激活的参数量等,都已经成为主流的降本方式。这将有助于降低AI门槛,推动技术的普及化。

行业降价潮,大模型创业公司面临冲击

随着训练成本的降低,DeepSeek-V3的API价格也随之调整。目前,其API价格为每百万输入tokens 0.5元(缓存命中)/ 2元(缓存未命中),每百万输出tokens 8元。同时,DeepSeek还提供了45天的优惠价格体验期,在2025年2月8日之前,所有用户使用DeepSeek-V3 API的价格分别下降了80%(输入命中)、50%(输入未命中)、75%(输出)。

事实上,DeepSeek正是2024年上半年中国大模型“价格战”的发起者。2024年5月,DeepSeek率先宣布降价,其发布的第二代MoE大模型DeepSeek-V2的输入价格为0.001元/千tokens,输出价格为0.002元/千tokens。随后,国内主要大模型厂商如智谱AI、火山引擎、阿里云、百度、科大讯飞、腾讯云等迅速跟进。DeepSeek甚至因此获得了一个新称号——AI界“拼多多”。

2024年年底,除了DeepSeek-V3新版本的推出以及API价格调整外,国内其他大模型厂商也在纷纷降价。例如,阿里云在2024年12月31日宣布了2024年度第三轮大模型降价,其中Qwen-VL-Plus直降81%,更高性能的Qwen-VL-Max降幅高达85%。此前,在12月18日举办的火山引擎Force大会上,字节跳动推出的豆包视觉理解模型也宣布进行降价。

MiniMax副总裁刘华表示,大模型的降价无疑有利于吸引更多企业使用新技术,为大模型创业公司提供了更大的市场。但同时,这也对大模型创业公司构成了挑战。创业公司不仅需要提升大模型能力,还需要不断优化算法,快速降低模型的推理成本。只有为用户提供更有性价比的大模型服务,才能赢得市场份额。

经过一年多的行业竞争,中国人工智能大模型的行业格局逐渐清晰。主要玩家从“百模大战”时代不断收敛,形成了包括MiniMax、智谱AI、百川智能、月之暗面、阶跃星辰、零一万物在内的6家行业“独角兽”企业,以及幻方、面壁智能和互联网大厂中的字节、阿里、百度和腾讯等十余家主要玩家。

API接口调用付费是大模型企业B端重要的商业化实现路径之一。然而,在ToB业务中,由于互联网大厂可以将AI功能绑定算力和云服务业务,因此在商业推广上效率更高。因此,在“价格战”中,大厂因业务复合、资金雄厚而更具优势。面对这一压力,创业公司只能加快迭代模型、不断优化算法以寻找解决方案。

行业人士建议,大模型创业公司可以聚焦在提供个性化服务上,如提供情感类大模型的API接口等,以避开与大型科技公司的直接竞争。

“独角兽”需差异化发展,寻找新增长点

随着大模型训练成本和推理成本的下降,行业场景应用落地将进一步加快。然而,寻找更合适的大规模落地场景和更好的商业闭环模式,已成为大模型企业下一阶段发展的当务之急。

多位行业人士表示,目前“大模型六小虎”已经开始出现分化,并有独角兽企业出现“掉队”的势头。这反映了大模型行业发展遇到了瓶颈。闫斌指出,从全球来看,大模型企业都面临一定的融资压力。随着行业预期的回调和融资热度的降低,单纯通过讲故事已经很难找到投资人。

从B端应用来看,Gartner的最新调研结果显示,截至2024年6月,只有8%的中国企业将生成式人工智能部署在生产环境中。闫斌认为,目前大模型在中国企业生产场景中的小规模落地已出现,但大规模企业落地仍然较为少见。他强调,大模型能力、数据、工程化、产品设计将是决定大模型最终落地应用的关键因素。

在C端落地方面,根据AI产品榜数据,目前用户量排名靠前的应用分别为抖音的豆包、MiniMax的Talkie AI、月之暗面的Kimi智能助手、百度的文小言等。然而,与大型科技公司相比,创业公司在C端应用推广上仍面临流量和资本方面的巨大挑战。随着大型科技公司的下场,创业公司通过投流买量迅速扩大用户量的做法已变得不再划算。

刘华强调,目前国内大模型企业的C端产品存在“同质化”问题。各家企业需要基于大模型能力的提升趋势,去探索新的AI产品形态,以满足客户尚未被满足的需求。尤其是创业公司,更需要把资源聚焦于技术和产品的创新上,而不是陷入“红海”竞争。

(文章来源:新华财经,图片来源网络)