AI安全与治理:构建安全护栏与灵活立法是关键
AI导读:
AI安全议题逐渐边缘化,但AI越强,治理和安全更加重要。中国科学院研究员曾毅提出,AI治理是引导其正确发展的“方向盘”。同时,应在构建AI安全护栏的同时不损害大模型能力,灵活监管模式有利于AI产业发展。
“AI的每一个进展都如此激动人心,但大家对AI安全和治理的讨论反而降温了。”3月26日,博鳌亚洲论坛一场分论坛上,复旦大学经济学教授杨燕青感慨,“当AI越来越强,AI的治理和安全实际上更加重要。”
AI安全议题被弱化,在今年3月巴黎AI行动峰会上便已凸显。张鹏是多场AI行动峰会的亲历者,他注意到,2023年英国布莱切利AI峰会和2024年首尔峰会都围绕AI安全风险展开,而巴黎峰会的主基调已从AI安全转向AI创新与发展。“安全还是个议题,但很大程度上被边缘化了”。
隐藏在其后的冲突点在于,AI的监管与创新是否不可调和?中国科学院研究员、联合国人工智能高层顾问机构专家曾毅接受采访时说,AI治理不是阻碍AI行业发展的“缰绳”,而是引导其正确发展方向的“方向盘”。

中国科学院研究员、联合国人工智能高层顾问机构专家曾毅在博鳌论坛发表观点。图:杨柳
“安全护栏”能否不减损模型性能?
早在2023年3月,非营利组织未来生命研究所呼吁暂停研发比GPT-4更强大的人工智能系统至少6个月。曾毅解释说,很多人误解了这项倡议,以为是不要推进AI的研究。事实上,这项倡议旨在提醒公众,构建AI“安全护栏”的速度没能跟上AI发展的步伐。此前,全世界的科学家不清楚如何构建“安全护栏”,但经过一段时间的探索,学界已经有了初步的答案。
曾毅介绍,最新的技术进展表明,可以在构建“AI安全护栏”的同时,不损害大模型的能力。他提到自己今年在AI机器学习顶会上发表的一项研究,将十几款大模型的安全能力提升百分之二三十,对模型的问题求解能力的影响几乎可以忽略不计。这证明在极小代价的情况下,生成式AI仍能稳健发展。
“当然,这项探索还很初步,不是所有的安全问题都可以被解决掉。”曾毅认为,对于已知风险,可以在大模型提供上线服务前,用标准化的方式去解决;对于未知的风险,则需要积极进行战略性研判。
大而全的AI立法等不及
为应对生成式AI浪潮,《人工智能法草案》被列入2023年和2024年的国务院立法工作计划。学术界也给出多个版本的AI法律示范版本。尤其是欧盟和韩国相继通过一部《人工智能基本法》后,大而全的统一AI立法不乏赞同声,但也面临较大争议。
近期一场关于AI立法的研讨会上,中国政法大学比较法学研究院教授刘文杰认为,目前人工智能还处于飞速发展阶段,其将对人类生活及国际竞争产生的长远影响,仍待观察。同时,目前我国行政主管部门通过规章、规范性文件等多种方式对人工智能产业进行监管,可根据实际情况及时调整监管力度。这种灵活监管模式有利于产业发展。
曾毅同样秉持“小步快跑”的AI立法策略。他说,相较于推出一部覆盖全面的人工智能法律,更有效的做法是针对AI新兴和垂直领域,优先采用部门监管制度和标准的形式,解决短期内最关键、最紧迫的问题。
“不要让AI代替人类决策”
曾毅在受访中反复强调:“不要让人工智能完全代替人的决策,一定要把决策权掌握在人类手中。”他举例说明,在医疗领域,AI系统可用于大规模疾病筛查,但在药物治疗决策方面则应由医生负责。“AI永远不应该代替医生做决策,否则在一些情况下可能产生灾难性后果”。
(文章来源:南方都市报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

