AI导读:

随着生成式AI技术飞速发展,AI在多个领域展现出巨大潜力,但安全性问题也日益凸显。本文专访了大模型安全行业专家,深入探讨了AI技术安全性隐患、防护策略、企业应对及行业标准作用。

  随着生成式AI(人工智能)技术的飞速发展,AI在数据分析、智能交互、效率提升等多个领域展现出巨大的应用潜力,为解决复杂问题提供了新思路和新方法。然而,这些技术所引发的安全性问题也日益凸显。

  近期,AI换脸成为诈骗新手段,美国人工智能公司OpenAI旗下大模型拒绝自动关闭等新闻相继冲上热搜,引发社会高度关注。这些事件不仅揭示了AI技术可能带来的风险,也引发了人们对技术滥用、伦理道德、隐私保护及安全风险的广泛讨论。

  AI技术安全性究竟存在哪些隐患?目前主要的防护策略是什么?企业应如何应对大模型数据安全风险?行业标准又能发挥怎样的作用?带着这些问题,《每日经济新闻》记者(以下简称NBD)专访了大模型安全行业专家、蚂蚁集团大模型数据安全总监杨小芳。

  杨小芳深入阐释了当前AI技术的安全现状及未来发展方向,指出数据隐私、安全攻击门槛降低、生成式内容滥用、AI内生安全不足等风险正逐渐显现。她建议,引入和使用AI技术的企业应加速内部安全制度、流程、检测及防御技术的建设和发展。

  谈及技术创新与风险防范的平衡,杨小芳强调,AI安全与创新发展并非对立,而是互相成就。蚂蚁集团正高度关注AI的安全可信,用可信AI这一“缰绳”来提升驾驭大模型的能力。

  AI内生安全不足挑战长期存在

  NBD:目前,我国乃至全球AI安全面临哪些共同挑战?

  杨小芳:随着AI技术的逐步应用,风险从理论走向实际,数据隐私、安全攻击门槛降低、AIGC滥用、AI内生安全不足等问题亟待解决。

  NBD:针对大模型可能引发的数据泄露风险,目前主要的防护策略是什么?

  杨小芳:防范数据泄露风险的核心策略是全生命周期的数据保护,贯穿从采集、传输、存储、使用到销毁的全过程。

  NBD:现有的防护策略是否存在未被充分解决的盲区或挑战?

  杨小芳:主要在于供应链和生态风险,以及多智能体协作风险。

  NBD:在构建和维护生态系统或协作过程中,治理主体的角色和责任如何界定?

  杨小芳:平台方是实施一线管控和治理的关键主体,但治理工作也需政府或监管层面的介入。

  AI风险控制需精细化策略

  NBD:在大模型数据安全领域,当前最需要关注的风险点是什么?

  杨小芳:需关注AI服务安全“水位”不一致、企业内数据流转控制经受挑战、新型大模型安全攻击等风险。

  NBD:在保护用户隐私的同时,如何确保AI服务的高效性和用户体验?

  杨小芳:风险控制需精准定位问题,采取有效管控手段,避免“一刀切”。同时,应通过服务引导满足用户需求,提升用户体验。

  蚂蚁集团应对AI挑战

  NBD:蚂蚁集团如何应对AI带来的挑战?

  杨小芳:蚂蚁集团加强科技伦理建设,高度关注AI的安全可信,推出了全风险覆盖、攻防一体的大模型安全解决方案“蚁天鉴”。

  NBD:大模型数据安全是技术保障还是战略竞争力?

  杨小芳:两者兼而有之。数据安全既是技术保障,也是战略竞争力。

  行业标准构建安全生态

  NBD:如何看待AI安全的未来发展趋势?

  杨小芳:AI安全未来发展主要有三种路径:将安全能力嵌入AI基础设施、特定安全技术的突破、AI安全治理。

  NBD:在AI安全与创新发展之间,应如何制定动态平衡的决策框架?

  杨小芳:AI安全与创新发展互相成就。应更新对新兴技术的认知,利用AI对抗AI,同时推动安全可信的AI技术广泛应用。

  NBD:行业标准在推动AI安全发展中将发挥什么作用?

  杨小芳:行业标准是构建安全生态的基础框架,通过统一技术规范、协调多方利益、引导合规创新,发挥关键作用。

(文章来源:每日经济新闻)