AI导读:

全国政协委员、奇安信科技集团董事长齐向东建议,开展体系化的大模型安全防护,严格落实《生成式人工智能服务安全基本要求》。他指出,人工智能大模型面临数据安全、应用安全等四大挑战,呼吁加强防护,打造大模型数据安全“双控机制”。

  中新网北京3月6日电(记者吴涛)随着人工智能大模型的发展,大模型的数据安全和自身安全问题正逐渐成为焦点。全国政协委员、全国工商联副主席、奇安信科技集团董事长齐向东建议,开展体系化的大模型安全防护,严格落实《生成式人工智能服务安全基本要求》,以筑牢人工智能的安全防线。

  齐向东指出,以大模型为核心的人工智能技术,是引领创新范式变革与产业升级的关键驱动力。然而,技术的飞跃往往伴随着安全风险的增加。当前,人工智能大模型正面临数据安全、应用安全、基础环境安全以及大模型自身安全四大挑战。

  数据安全挑战尤为突出。大模型在训练、推理及使用过程中涉及的海量数据,易受到数据投毒、数据污染等攻击,导致大模型输出背离主流价值观或包含错误事实的内容。此外,不法分子还会利用提示词注入、劫持、爬虫等手段,窃取大模型用户的重要信息和敏感数据。

  为应对这些挑战,齐向东建议从技术层面全面排查并加固人工智能大模型的基础设施,构建大模型红域,打造适用于人工智能的纵深防御体系。这一体系将覆盖终端、应用、数据、大模型、算力与基础设施,形成多维度的核心防护能力。同时,结合威胁情报和大网数据监测,有效抵御针对大模型的新型攻击和恶意访问,实现“对外防攻击、对内防内鬼”的双重防护。

  齐向东还着重强调了打造大模型数据安全“双控机制”的重要性,以确保大模型的稳定运行。这一机制将对大模型的数据输入侧和输出侧进行有效管控,保障大模型的数据安全、内容安全及应用安全。他呼吁,部署大模型的关键信息基础设施运营单位,在网络和数据安全建设上的投入比例应不低于信息化建设的15%。(完)

(文章来源:中国新闻网)