从“龙虾”到“爱马仕”,Agent越能干Token越费钱
AI导读:
从初代Manus到爆款OpenClaw(行业简称其为龙虾),再到如今的Hermes(简称爱马仕),AI智能体迭代一路刷屏。名字换了一轮又一轮,相关争议话题一茬又一茬,核心却始终没变:让AI直接接管系统、自主跑通复杂任务,成为真正能干活的智
从初代Manus到爆款OpenClaw(行业简称其为龙虾),再到如今的Hermes(简称爱马仕),AI智能体迭代一路刷屏。名字换了一轮又一轮,相关争议话题一茬又一茬,核心却始终没变:让AI直接接管系统、自主跑通复杂任务,成为真正能干活的智能体。
2026年,Agent赛道的热度被大厂的跟进拔高到新高度。北京时间4月17日,OpenAI对旗下AI编程智能体平台Codex进行升级,使其能够在后台控制MacOS应用程序,运行多个Agent以执行测试和前端开发等任务,并集成了包括JIRA和GitHub在内的90多个插件。
OpenAI之外,多家厂商在Agent领域持续更新迭代,包括Anthropic Claude、字节跳动豆包、阿里千问、智谱GLM系列等。行业逐渐达成共识:模型能力再强也需要具备落地执行任务的能力,目前这个能力的最佳载体便是智能体。
Agent技术持续迭代
初代Agent有热度、但未能实现大规模破圈传播应用,核心原因便是当时的产品存在易失忆、易半途中断等问题。稳定性不足的缺陷,直接导致智能体无法真正替代人工完成复杂工作。
OpenClaw阶段引入混合记忆,初步解决上下文丢失;Hermes构建分层持久记忆与主动检索,实现长期记忆不丢失;Harness进一步强化状态持久化与错误恢复机制,并补齐任务拆解、执行、校验、修正全流程闭环。三者共同解决了“上下文焦虑”与执行稳定性问题,使Agent业态从“能跑”逐步进化到“越跑越稳”。
此次Codex也在记忆问题与系统级原生操作方面进行强化。据官方披露,Codex新功能包括根据提示生成图像、学习用户偏好的记忆功能以及来自Slack等应用程序的主动建议。
官方演示显示,Codex可以构建和调试井字棋游戏或创建汉堡店的视觉效果,每周为超过300万用户提供服务,其需求已远远超出编程范畴。此次升级首先在MacOS上推出,Windows版本即将推出。
对于近几个月Agent行业的迭代,澜舟科技创始人兼CEO周明对第一财经记者表示,智能体的核心发展逻辑从过去“一问一答”的单轮交互进化为“全链路端到端自主执行”的生产力工具,两个关键词定义了这一变革:一是“全链路”,任务执行过程中无需人工干预或仅需极少介入;二是“自主性”,在安全边界内可自主决策、解决执行中的问题,无需人类逐一指导。
这一突破在2024—2025年并未完全实现,直到“龙虾”的出现才让行业眼前一亮。周明表示,“龙虾”系列首次验证了AI自主拆解任务、调度工具、闭环完成的可行性。但随之而来的是“自主过度”的隐患:任务执行偏航、结果自洽但不符合实际需求、长时任务记忆冗余等问题。而后续的“驾驭工程(Harness Engineering)”正是针对性解决方案:通过动态纠偏机制修正执行偏差,通过记忆蒸馏(提炼关键信息而非全量保留)优化长时任务效率,最终实现“自主且可信”的核心目标。
整体来看,周明认为,从OpenClaw到Hermes的迭代,本质是一条大模型、智能、自主、可信的完整AGI发展路径。如今,智能体已能自主完成编程、跨工具协作等复杂任务:人类只需提出需求,它就能自动拆解任务、调度不同规模的子智能体或第三方工具,拼接成完整解决方案。
Token暴增背后的算力压力
在OpenAI Codex工程负责人Tibo打出“提升计算效率、解决硬核工程”的广告语后,OpenAI CEO山姆·奥尔特曼回应称:很高兴大家都在转向Codex,但如果Tibo你开始限速或提供更差的模型…
有网友在评论区调侃称:一家估值8000亿美元的CEO公开担心自己产品的调用速率被限制,这等于公开暴露了它的单位经济模型有多糟糕。每次Codex调用都要消耗OpenAI真实的GPU算力,如果他们连公司头号人物(CEO)都无法享有无限调用,说明规模化后单条请求仍将是负利润。
亏损是目前大模型厂商面临的主要挑战,在此背景下的Token调用量大幅提升显得令人兴奋又紧张。为应对Token需求暴增,厂商通过提价、优化工程等方式进行缓解。
以智谱GLM为例,作为国产大模型Codling领域的头部代表,智谱模型持续提价,近期更因海内外订阅价格不同,同模型、同配额的海外订阅/API价格几乎是国内版本的2–3.5倍,被海外用户称为“西方税/护照税”。行业内,国内大模型普遍“国内低价、海外溢价”,但智谱因编程场景刚需、海外爆款,争议最为突出。
智谱CEO张鹏此前公开回应涨价问题时表示,复杂任务的推理链路更长、需写代码与底层交互并持续调试,完成任务的Token用量是简单问答的十至百倍,价格调整是成本变化的自然结果。一位行业人士向记者表示,国产大模型厂商本轮提价,前提是此前行业普遍陷入价格战。至于智谱这类大幅提价是否会影响用户留存,该人士认为,这属于企业在综合权衡成本、市场与盈利能力后做出的商业决策。
值得警惕的是,Agent需求带动下的Token暴增,很大一部分属于资源浪费,甚至被戏称为“代码垃圾”,业内至今无法精准计算高额AI Coding的实际ROI(投入产出比)。此前火山引擎总裁谭待也认为,很多用户反馈Token消耗快,核心问题是“龙虾”类产品完成任务时有很多无效尝试,因为它没有限制,能尝试各种方法,会有惊艳解法,也会有大量无效沟通。
当前,人工智能已从大模型技术竞赛转向AI原生应用落地阶段。2026年起,大模型落地能力成为决胜关键,Token使用效率也变得更为重要。
周明对记者表示,以Hermes为例,它通过工具集拆分、按需加载等方式降低消耗。未来更核心的路径将是“云边端协同+大小模型编排”,用云端大模型负责任务规划,边缘端/终端的轻量化开源模型执行特定单点任务,避免大模型全程介入。此外,企业OS、Token网关配额管理等方式也在落地,实现成本透明化管控。
接下来,周明认为智能体的自主能力将持续“沸腾”,但成本控制将成为核心竞争力,这一双向博弈将推动行业从追求能力上限向平衡能力与成本转型。
(文章来源:第一财经)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

