AI导读:

6月10日,中国网络文明大会人工智能分论坛上,《向未成年人提供生成式人工智能服务安全指引》正式发布,旨在构建安全可控的未成年人AI服务治理框架,覆盖数据、模型开发、应用场景及运营全生命周期,提出详细安全管理要求。

  南都讯记者李玲 如何在生成式人工智能环境下为未成年人筑起安全防线?6月10日,合肥举办的2025年中国网络文明大会人工智能分论坛上,一份由60家单位联合起草的《向未成年人提供生成式人工智能服务安全指引》正式发布,为未成年人安全使用AI提供专门指引。

  据中国网络空间安全协会介绍,该《指引》在中央网信办网络管理技术局等部门的指导下,汇聚了产业、学术、教育等领域的智慧,旨在构建“安全可控、权责清晰、协同共治”的未成年人AI服务治理框架。

  这份《指引》覆盖了AI服务的全生命周期,从训练数据、模型开发到场景应用、服务运营,均提出了详细的安全管理要求。在数据阶段,严格保护未成年人个人信息,严禁采集非必要数据,并实施分类分级管理。

  针对学习教育类模型,《指引》特别强调建设高质量训练数据集,过滤错误知识,确保内容科学性。在模型训练阶段,重点防范有害内容生成和个人信息泄露,将内容安全性作为评价模型优劣的关键指标。

  在应用场景中,《指引》要求服务提供者采取技术防护措施,确保内容安全、可靠、真实,警惕未成年人沉迷、情感依恋等风险。在服务运营阶段,就未成年人身份认证、网络防沉迷、消费管理等提出建议,限制未成年人消费,确保服务与其民事行为能力相符。

  此外,《指引》倡导“主体责任+社会共治”模式,鼓励多方合作推动适龄化产品研发、AI素养教育与行业自律,为从业者提供具体操作指南。

(文章来源:南方都市报)