AI导读:

2025年,新一轮AI浪潮来袭。博鳌亚洲论坛年会多场分论坛聚焦人工智能,专家探讨AI新变化、应用与治理平衡。AI加速进化,提高效率,但也存在风险。如何平衡发展与安全,成为热议话题。

  聊天机器人Deepseek迅速走红、智能体AI产品Manus“一码难求”、宇树科技引发具身智能关注浪潮……2025年,人工智能的新浪潮正汹涌而来。

  在3月26日博鳌亚洲论坛年会中,多场分论坛聚焦人工智能,展开热烈讨论。不少场次前排起长队“限流”,场内更是座无虚席。

  今年AI领域有哪些新变化?如何平衡推进应用与治理?多位参会嘉宾、受访者在博鳌论坛上各抒己见。

  “最担忧的是,某强国开发出超级智能,用以影响全球经济,引发全球灾难性风险。”中国科学院研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能高层顾问机构专家曾毅对第一财经记者表示,在AI推动经济、金融领域发展过程中,可能对经济不同层面产生影响,因此风险管控至关重要。

  “解决此类风险,政策是保障,技术更是关键。”曾毅强调。

  AI加速进化

  近一年来,人工智能领域加速进化,涌现出DeepSeek、Manus等诸多新产品,宇树科技机器人备受瞩目。

  “今年之前,我们未曾料到会有如此巨变。”中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤在博鳌论坛上分享了最新观察。

  人工智能行业的发展,正从生成式人工智能,迈向Agent智能,从信息智能,拓展至物理智能(如自动驾驶、机器人)和生物智能(如脑机接口)。

  张亚勤认为,无人驾驶作为具身智能的最大应用,将是首个真正落地的具身智能。

  “从经济学角度看,DeepSeek的最大成功在于成本降低,预训练成本降至以往的1%,推理成本更是降至1/20。”上海科学智能研究院首席战略官、复旦大学教授杨燕青指出,只有成本足够低,社会才能广泛应用。

  曾毅还介绍了AI行业研究的最新进展。以往,人工智能发展的符号主义与连接主义路径难以融合。然而今年,基于生成式人工智能神经网络的推理,实现了推理能力与人工神经网络编码的深度融合,为不同技术路线在工程应用中的结合创造了有利条件。

  “人工智能的不同发展路径正走向融合,为用户带来前所未有的体验。”曾毅表示,新算法通过路由机制,在处理特定任务时仅需部分生成网络参与,无须更新整个生物神经网络的权重,这不仅大幅降低了算力需求,还与人类大脑丘脑的路由机制相似。

  提高效率

  人工智能的快速发展,对社会产生了深远影响。

  中国社科院大学教授、国务院原副秘书长江小涓认为,从经济学角度看DeepSeek,最重要的是从垄断转变为真正竞争的产业。以往只有寡头能做AI,如今已成为普遍性竞争,从技术能力转变为产业能力,形成了传统市场经济中的竞争格局。

  谈及影响时,“提高效率”成为与会专家、业内人士的高频词。

  “效率是满足需求的速度。”百度集团执行副总裁沈抖认为,如果所有人需求相同,满足起来很容易。但真实需求多元。人工智能将打开人类需求,带来需求爆发。需求爆发后,就需要人工智能来高效满足。

  “人工智能是节约能源、节省人力的一种工具,与起重机、汽车、飞机性质相同,只是人工智能节省的是脑力。”清华大学公共管理学院院长朱旭峰比喻道。这种工具将导致两大变化:一是节省大量人力,导致企业转型,对就业市场造成冲击;二是人工智能是另一种形式的全球化。企业需要决策,是用机器替代人力,还是将企业搬迁至人力成本更低的发展中国家。

  “人工智能不仅提高了速度,还能提升满足需求的质量,比如能否满足情绪需求。”贝宝(PayPal)高级副总裁兼中国区首席执行官邱寒在论坛中提到。

  风险与解法

  DeepSeek的开源模式降低了AI训练和推理成本,推动技术普及与竞争,但也加剧了安全担忧。多位与会专家认为,人工智能的快速发展背后存在风险。

  “广泛应用智能体后,风险至少增加一倍。”张亚勤认为,智能体本身带来巨大风险,存在很多未知因素。因为中间路径不可控,智能算法并非完全黑盒子,但很多机理我们并不清楚,因此带来风险。一种是可控风险,一种是被恶意利用的风险。因此,使用智能体时需设置红线,如智能体不能自我复制。

  江小涓认为,技术是否被接受只有两个标准:一是能否提高生产力,创造更多财富;二是发展结果能否公平分享。AI符合第一个标准,但第二个标准需观察就业是否充分、分配是否公平。如果这两个问题不能解决,如就业受到冲击,应有新的社会保障政策。

  “人工智能已从‘安全’概念转变为‘安全性’概念。”vivo首席安全官鲁京辉认为,安全性问题不能仅通过制定法律或规则解决,需形成共识,但技术共识无法消除政治分歧。

  在此背景下,如何平衡推进应用与治理?

  技术不断发展,制定红线与边界的重要性日益凸显。“若无边界,仅谈大原则和具体方案,较为困难。”张亚勤建议,一方面通过算法优化提升AI的可控性与可信度;另一方面,严守现有法律框架,AI无需创造新价值,它是人类代理,必须遵守版权、专利等既有规则。

  英国励讯集团公共事务总裁、爱思唯尔董事长池永硕也认为,人工智能需要人类监督。他指出,人类使用人工智能需解决现实世界的问题,因此要确保大模型不会继承人类固有偏见。人工智能的运行必须透明,从而让用户了解其得出结论的过程。为实现这些目标,就需人类监督。

  不过,监管角色也可进一步“弱化”。市场的力量可自发解决效率问题,也能解决安全问题。江小涓分享了自己的经验,在实际生活中,科学论文需严格溯源,娱乐内容则可包容虚构。DeepSeek可标注文献来源,正属于市场自发的“局部治理”。

  鲁京辉认为,从产业实践角度看,全球对“安全性”定义尚未统一。欧洲注重合规,美国注重发展,中国寻求平衡,并无标准答案。企业需要更动态、更敏捷的新治理模式,平衡发展与安全,由政府、企业、学界共建量化指标。

  以色列民主研究所高级研究员特希拉·施瓦茨·阿尔特舒勒认为,在AI领域,不能制定“一刀切”的解决方案。各国需根据国情、挑战,建立自己的方案,并深入研究这些可能性。

(文章来源:第一财经)