AI导读:

百度李彦宏在Create2025开发者大会上发布MCP,引发关注。MCP即模型上下文协议,旨在打造通用接口,加速AI智能体发展。国内外AI巨头纷纷入局,中金公司指出MCP生态处于红利期。

  AI智能体2025年的第二把火,烧在了“MCP”上。

  4月25日,在Create2025百度AI开发者大会上,李彦宏重磅发布了包括算力支出、AI大模型、工具链在内的九大AI产品。其中,MCP成为发布会的重头戏——首个电商交易MCP、搜索MCP,以及“全面拥抱MCP”的提法,都引发了外界对这个略显生僻词汇的关注。MCP(Model Context Protocol),即“模型上下文协议”,旨在打造软件与大模型之间的通用接口,让AI模型有效控制计算机各类软件,实现“AI智能体”功能。

  简而言之,MCP类似AI智能体领域的“书同文,车同轨”。李彦宏表示,基于MCP开发智能体,就像2010年开发移动APP。除了李彦宏,今年以来,阿里、腾讯、字节等互联网巨头也纷纷入局MCP,这一概念逐渐升温。

  AI智能体协议领域竞争激烈。全华班AI智能体公司Monica采用了与MCP差异较大的“虚拟机+云计算”模式驱动Manus AI。哪种方式会成为AI智能体的终极解,目前尚不确定。

  MCP的火爆表明,AI智能体这一新兴概念已成为各大势力AI军备竞赛的焦点。如果说上世纪70年代的“TCP/IP协议”是全球互联网的基石,那么MCP正越来越接近成为AI智能体时代的“TCP/IP协议”。

  知名大模型Claude系列的开发公司Anthropic于2024年11月首次提出MCP,旨在打通大模型与外部工具、数据源的开放标准。随着Cursor、VSCode、Cline等AI智能体先后宣布支持MCP,以及Manus AI的出现,AI智能体已成为全球互联网和AI企业竞相瞄准的关键赛道。Anthropic因其MCP完全开源,吸引了全球AI大厂的主动适配。

  今年3月,OpenAI发布了新版AI智能体SDK,首次深度整合MCP协议,使开发者能通过统一接口快速接入网络搜索、数据库查询、本地文件处理等工具。谷歌也宣布为旗下Gemini模型添加MCP支持,并推出A2A协议,与MCP形成互补。微软则考虑借MCP为云计算引流,推出了基于云计算业务生态的MCP服务(MCP Server)。短短一个季度,海外AI巨头已就MCP达成共识,国内头部AI玩家也纷纷跟进。

  MCP的火爆加速了AI大模型、AI智能体及云计算的发展。MCP与“大厂”的关系,就像高铁与城市的关系。MCP负责建设铁轨,并指导每个城市如何建设高铁站适配铁路。大厂可以制作“MCP服务器”,围绕高铁站建立高效交通枢纽网络,对接服务与云计算资源。城市间存在竞争,希望尽快建设自己的“高铁站”,吸引更多用户。

  AI智能体像铁轨上的火车,带领用户探索城市资源。MCP连接资源,避免大厂因商业机密无法采用通用网络,使AI智能体畅通无阻调用资源。值得注意的是,大火的Manus并未使用MCP协议,而是构建了基于Linux的沙盒化虚拟机环境,集成浏览器、代码编辑器、运行环境工具等,解决AI智能体任务。但相比MCP的开放生态,Manus功能受限,更像定制化工具。MCP则形成开放式生态,加速AI世界形成。

  中金公司研报指出,MCP生态处于“协议红利期”,早期参与者可通过定义接口标准、积累AI工具资产、构建开发者社区形成优势。拥抱MCP的厂商将享受架构升级红利,未来甲方在业务选型中也会重视MCP兼容能力。

(文章来源:21世纪经济报道)