AI导读:

5月18日,央行金融研究所副所长莫万贵在2025清华五道口全球金融论坛上指出,生成式AI在金融应用中面临多重风险,需构建治理闭环防范市场共振风险。他强调AI与金融深度融合的双重挑战,提出六大主体治理闭环,并讨论宏观审慎监管体系。

  5月18日,在2025清华五道口全球金融论坛上,中国人民银行金融研究所副所长莫万贵就数字金融与人工智能相关话题发表讨论。他指出,生成式AI在金融应用中面临模型幻觉、算法黑箱、科技公司依赖等多个风险,需构建涵盖金融机构、监管部门、科技公司等六大主体的“治理闭环”,以防范人工智能大模型带来的市场共振风险,并建立相应的预防机制和预案。

  论AI风险:依赖少数科技公司

  莫万贵强调,AI技术与金融行业的深度融合正面临技术风险与系统性风险的双重挑战。模型幻觉对数据要求高,特别是金融领域对精准性、专业性、一致性、稳定性要求严格,存在幻觉则某些领域不可用;算法黑箱可能无法满足穿透式监管要求,不利于风险管理溯源和责任认定。

  莫万贵认为,AI大模型应用可能放大传统风险,包括顺周期风险、对大型科技公司依赖加强的风险,以及技术平权带来的未知效应。此外,大型科技公司演变为金融基础设施,可能进一步放大风险。

  论治理闭环:AI业务场景适配性

  针对上述风险,莫万贵提出构建AI金融治理闭环,涉及金融机构、金融消费者、科技公司、行业治理组织、监管部门及从业人员六大主体。金融机构需审慎选择业务场景与技术适配,减少对大型科技公司的依赖,开发个性化技术,并注重人机协同和业务流程再造。

  监管部门应包容审慎,深化金融科技创新监管工具应用,支持金融机构和科技公司在风险可控情况下先行先试。同时,分级分类管理,加强监管科技建设,提升金融管理能力。

  论宏观审慎监管:加强跨领域风险监测

  莫万贵还指出,AI驱动的金融创新可能带来系统性风险新型形态,需构建适应AI时代的宏观审慎监管体系。加强跨机构、跨市场传染风险的防范,对系统重要性金融机构实施额外监管要求,如个性化模型压力测试、更高资本充足率和流动性管理门槛等。

  此外,新一代人工智能技术使跨市场、跨机构、跨产品联动变得更加容易,跨领域风险加剧。因此,加强跨领域风险监测分析、信息共享、风险情报交互、监管协作及预案制定尤为重要。

(文章来源:北京商报)