AI导读:

中国科学院自动化研究所研究员曾毅在2025中关村论坛年会上表示,当前的人工智能大模型虽看似智能,但仍会犯下人类不会犯的错误。他强调,人工智能的发展需构建伦理安全的护栏,确保其输出不对人类社会产生负面影响,同时要用人工智能技术解决其自身的安全隐患。

  在使用AI工具的过程中,我们常常会发现AI的回答虽具逻辑性,但准确性却有待提高。这是否意味着我们对人工智能的期望过于理想化?

  今日,2025中关村论坛年会迎来了一位重量级嘉宾——中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅。在接受红星资本局的专访时,他深入探讨了人工智能的信任问题。

主办方供图

  曾毅指出,当前的人工智能大模型虽看似智能,实则仅为统计模型,尚不具备大规模知识验证与合理性推理的能力,因此仍会犯下人类不会犯的错误。

  “它从海量数据中学习统计显著性表达,但机制缺陷导致其生成的内容常含‘大模型幻觉’,即‘一本正经的胡说八道’,这是人类所不会犯的错误。”

  然而,曾毅认为,近期人工智能推理能力的发展为解决此类问题提供了契机。但仍有两大问题亟待解决:一是如何应对互联网上已存在的幻觉信息,二是如何鉴别由人工智能构造的虚假信息。这两点在未来均需依赖人工智能技术去鉴别。

  曾毅强调,若人工智能被滥用以构造虚假信息,则“魔高一尺”,我们必须发展相应的人工智能技术以应对,使向善的人工智能“道高一丈”。

  “作为工具的人工智能,无人能确保其不犯错。”曾毅表示,令人欣慰的是,人工智能每天都在进步,拥有更可靠的数据与更强大的推理模型,正逐步从信息处理工具向自动化理解发展。但无论其发展至何种程度,我们都需为其构建伦理安全的护栏,确保其输出不对人类社会产生负面影响。

  “没有绝对安全的人工智能,但安全应成为其发展的首要原则,不可违背。”曾毅呼吁,在人工智能的发展过程中,我们需具备安全意识,以“以技制技”的方式,用人工智能技术解决其自身的安全隐患。只要人工智能在社会中存在,就需人工智能与人类共同治理其生态。

  “我们不应完全依赖人工智能,更不应盲目接受其输出。人类决策仍需自主,对人工智能的输出应持审慎态度。”曾毅总结道。

(文章来源:红星资本局)