专家解读AI信任问题:人工智能仍需伦理安全护栏
AI导读:
中国科学院自动化研究所研究员曾毅在2025中关村论坛年会上表示,当前的人工智能大模型虽看似智能,但仍会犯下人类不会犯的错误。他强调,人工智能的发展需构建伦理安全的护栏,确保其输出不对人类社会产生负面影响,同时要用人工智能技术解决其自身的安全隐患。
在使用AI工具的过程中,我们常常会发现AI的回答虽具逻辑性,但准确性却有待提高。这是否意味着我们对人工智能的期望过于理想化?
今日,2025中关村论坛年会迎来了一位重量级嘉宾——中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅。在接受红星资本局的专访时,他深入探讨了人工智能的信任问题。
主办方供图
曾毅指出,当前的人工智能大模型虽看似智能,实则仅为统计模型,尚不具备大规模知识验证与合理性推理的能力,因此仍会犯下人类不会犯的错误。
“它从海量数据中学习统计显著性表达,但机制缺陷导致其生成的内容常含‘大模型幻觉’,即‘一本正经的胡说八道’,这是人类所不会犯的错误。”
然而,曾毅认为,近期人工智能推理能力的发展为解决此类问题提供了契机。但仍有两大问题亟待解决:一是如何应对互联网上已存在的幻觉信息,二是如何鉴别由人工智能构造的虚假信息。这两点在未来均需依赖人工智能技术去鉴别。
曾毅强调,若人工智能被滥用以构造虚假信息,则“魔高一尺”,我们必须发展相应的人工智能技术以应对,使向善的人工智能“道高一丈”。
“作为工具的人工智能,无人能确保其不犯错。”曾毅表示,令人欣慰的是,人工智能每天都在进步,拥有更可靠的数据与更强大的推理模型,正逐步从信息处理工具向自动化理解发展。但无论其发展至何种程度,我们都需为其构建伦理安全的护栏,确保其输出不对人类社会产生负面影响。
“没有绝对安全的人工智能,但安全应成为其发展的首要原则,不可违背。”曾毅呼吁,在人工智能的发展过程中,我们需具备安全意识,以“以技制技”的方式,用人工智能技术解决其自身的安全隐患。只要人工智能在社会中存在,就需人工智能与人类共同治理其生态。
“我们不应完全依赖人工智能,更不应盲目接受其输出。人类决策仍需自主,对人工智能的输出应持审慎态度。”曾毅总结道。
(文章来源:红星资本局)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

