金融监管总局强化数字金融政策研究,应对人工智能风险
AI导读:
金融监管总局近日举行集体学习,强调加强数字金融发展和监管政策研究,有效防范人工智能带来的风险挑战。同时,关注人工智能在金融业的应用影响,包括提升效率和改善客户服务等,但也存在模型可解释性、公平性等风险。
据国家金融监督管理总局近日消息,5月20日,金融监管总局党委理论学习中心组围绕“深入学习贯彻习近平经济思想,切实做好科技金融、数字金融‘大文章’,推动人工智能等新质生产力发展”主题举行集体学习暨专题调研活动。金融监管总局党委书记、局长李云泽在活动中强调,加强数字金融发展和监管有关政策的研究制定,有效防范应对人工智能发展带来的风险挑战。
“加强数字金融监管政策研究制定”
李云泽在专题交流活动上强调,面对新一代人工智能技术快速演进的新形势,金融领域需及时跟进学习全球人工智能发展趋势和应用前沿,把握人工智能发展脉搏,加强数字金融发展和监管政策的深入研究与制定,加速监管数字化智能化转型,稳妥推进人工智能在金融领域的广泛应用,有效应对伴随而来的风险挑战。同时,要充分发挥金融服务实体经济的作用,持续完善与科技创新相适应的科技金融体制机制,优化科技金融服务体系,深入推进科技金融试点,坚持自主创新,更好地服务于我国人工智能等新质生产力的健康发展。
关于金融业应用人工智能的影响,金融监管总局相关负责人此前已有提及。在2024金融街论坛年会上,国家金融监督管理总局资管机构监管司副司长蒋则沈指出,人工智能不仅能提升金融机构的运营效率和降低成本,还能通过大数据分析改进投资决策和风险管理,改善客户服务体验,提供个性化解决方案,对金融服务的方式、效率、范围和准确性产生深远影响。但他同时警示,人工智能应用也带来了模型可解释性、公平性、责任归属以及潜在的系统性风险等挑战。
此外,去年11月,中国人民银行、金融监管总局等七部门联合印发了《推动数字金融高质量发展行动方案》。该方案明确提出,要构建先进高效的算力体系,加速云计算、人工智能等技术的规范应用。同时,方案还要求强化模型和算法风险管理,建立健全模型安全评估和合规审计体系,及时披露算法信息,提升算法的可解释性、公平性和安全性。
南都湾财社曾关注金融大模型风险
人工智能正深刻改变着金融业的方方面面。南都湾财社此前报道指出,自今年春节以来,Deepseek在证券基金业掀起热潮,但证券基金机构在投顾业务上的应用主要侧重于赋能员工。(点击阅读)
在银行业,大模型的应用场景也在不断拓展。5月20日,南都湾财社发布《金融调研③银行拥抱大模型背后,如何防范风险“灰犀牛”?》报道,聚焦大模型如何助力科技金融产品创新和风险防控,并探讨其带来的成本和模型风险管理难题。报道发现,多家银行的大模型应用场景已达上百个,主要集中在风险防控、信用评估与贷后管理、个性化投顾服务、智能客服、智能办公、合规监控与提升等方面。
多位金融业人士指出,随着数字化转型加速和金融科技快速发展,以模型风险、数据风险等为代表的新型风险不断涌现并快速演变。
兰台律师事务所高级合伙人康倩向南都湾财社记者分析称,从法律角度看,大模型在金融业的应用存在多方面的潜在风险:一是数据安全问题,技术漏洞或第三方依赖可能导致客户隐私数据泄露,且脱敏处理缺乏统一标准,构成严峻挑战;二是合规问题,现有监管规则未涵盖AI决策可解释性、算法歧视等问题,如AI自动为不同客户推荐投资策略时,金融机构的责任尚不明确;此外,系统性风险传导问题也不容忽视。若多家金融机构共同依赖同一技术供应商,一旦该供应商出现故障,可能引发跨机构的连锁反应,对于此类系统性风险的限制与追责,尚需探索解决方案。
她建议从技术、政策和生态等多方面入手防范上述风险。在政策层面,她表示,目前全国范围内尚缺乏系统性规范金融业大模型应用的相关监管政策,《数据安全法》和《个人信息保护法》构成了基础法律框架,相关法律规定与监管政策散见于银行业数字化、银行数据安全、移动互联网应用程序等相关通知办法中。
在她看来,面对大模型在金融业的广泛应用,监管部门应尽快出台类似《金融人工智能管理办法》的相关制度,明确算法审计要求和责任追溯规则;其次,可考虑建立动态风险评估模型,广泛征求监管创新意见;此外,在标准统一方面,建议制定大模型在金融领域应用的技术伦理标准,并强制要求披露训练数据的来源及决策逻辑。
(文章来源:南方都市报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

