AI+金融场景落地,监管如何平衡创新与风险?
AI导读:
近期,国务院发布“人工智能+金融”行动意见,上海提出建金融科技中心。在“AI+金融”场景落地当下,监管面临“问题新、风险大、监管难”挑战。专家提出需综合手段应对,包括制定人工智能法等。同时,AI在金融业有四大核心监管问题,需守住底线并给予引导。
近期,《国务院关于深入实施“人工智能+金融”行动的意见》正式发布,上海也明确提出,要在三到五年内建成具有全球影响力的金融科技中心,正以开放姿态打造AI与金融结合的“试验田”和“示范区”,这一金融科技趋势备受关注。
那么,在“AI+金融”场景密集落地的当下,监管如何既设“边界”又装“导航”?9月10日,由上海交通大学上海高级金融学院主办的“AI落地金融之路”——“2025 Inclusion·外滩大会”见解论坛召开,探索技术创新与风险管控平衡之道,助力构建AI金融生态,成为金融科技领域焦点。
在圆桌讨论中,华东政法大学国际金融法律学院教授徐明指出,AI作为新事物,当前主要面临“问题新、风险大、监管难”三大挑战,是金融科技监管新课题。
其中,在“监管难”方面,徐明认为主要体现在三方面。首先,现在的法律制度和监管制度还没有完全跟上,如何设计一个宽严相济的法律制度是个挑战。其次,AI无所不在,已深入百姓的寻常生活,涉及很多范围、领域和部门,需要监管部门之间彼此协调,协调存在难度,协调也需要成本。最后,AI科技属性很强、迭代更新很快,涉及大量新的技术和新的知识,监管者是否能及时跟进学习是监管者面临的难题。
针对这些挑战,徐明提出,需用综合手段,在法律、监管、技术等方面统筹应对。宏观上,要抓紧制定人工智能法,加快立法速度,明确责任主体、明确责任边界、严格责任落实,实现宽严相济;微观层面,要细化各种技术标准、安全标准、监管标准,使人工智能在探索和实践中可操作、可执行,要发挥行业、监管及相关部门的力量,主动应对人工智能带来的挑战。
联和金融人工智能业务负责人、杭州海茵斯科技创始人聂金则梳理了AI在金融业的四大核心监管问题。一是数据隐含歧视风险。AI做决策是由数据驱动,但数据中如果纯数据有可能会隐含一些歧视问题,有可能推动社会的不平等,很有可能对公司主体有法律风险。二是AI决策的黑箱难题。2025年各国出台的监管条例显示,金融机构一旦开始使用AI模型或AI提供服务,模型所做出决策的可解释性必须出具审计报告。三是隐私问题。聂金指出,为了增强AI模型的性能,打破数据孤岛是非常重要的,打破的过程中如果用到很多数据,可能会模糊主体边界,对用户信息的隐私保护有一个比较大的挑战,而这个挑战如果放到跨国场景里就非常严重,会上升成安全问题。四是问责机制,AI可以作出决策,但这当中整个链条从训练、测试到应用,应该有一个合理的问责机制。
“我觉得监管上一是守住底线;二是给予比较好的引导,为AI在金融大规模承制式应用铺平道路。”针对这些挑战,聂金说道。
恒生电子首席科学家、研究院院长白硕则从AI落地实施的实际问题出发,探讨边界问题。“人工智能可以了解你的客户,了解到比你还了解,它可以做到千人一面,但生成出来的东西最后一道关还要是人,这种场景是人最后兜底。”白硕指出,“这个边界目前看还要持续相当一段时间”。
(文章来源:澎湃新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

