雷军建言加强AI换脸拟声监管,防范技术滥用风险
AI导读:
雷军提出加强“AI换脸拟声”违法侵权治理建议,指出该技术滥用已成重灾区,侵犯肖像权、诈骗等犯罪频发。建议加快立法进程,强化行业自律,明确平台责任,提高公众警惕性。监管需遵循专业、理性原则,区分创作与传播内容,聚焦传播层面实施中游监管。
特约评论员刘远举
3月4日,雷军提出加强“AI换脸拟声”违法侵权治理的建议,迅速登上热搜头条。雷军指出,AI换脸拟声技术滥用已成为违法侵权行为的重灾区,侵犯肖像权、泄露公民个人信息、实施诈骗等犯罪活动频发,对个人形象、声誉造成难以挽回的损害,并带来社会治理风险。AI深度合成技术门槛低、素材易得、侵权手段隐蔽,给治理带来巨大挑战。
雷军的建言直击社会热点。随着AI技术飞速发展,AI换脸拟声技术在电信诈骗和色情内容传播方面构成重大风险。针对这一问题,雷军建议加快单行法立法进程,提升立法层级,强化行业自律,明确平台企业责任,同时加大普法宣传力度,提高公众警惕性和鉴别力。
监管AI技术至关重要,但需遵循专业、理性、科学、宽容的原则。应明确区分创作内容与传播内容,AI作为工具,其生成内容仅面向个人用户,而非大规模受众。法律原本不监管创作层面或私人活动,若将监管直接降至创作层面,将增加AI行业合规成本。
将监管责任转嫁给AI内容生成工具,如WORD、输入法、Photoshop等,是不现实的。对于AI换脸拟声技术,由于AI无法区分恶意使用与私人使用,完全封禁成为唯一选择。然而,随着高性价比AI技术路线的出现,AI算力呈现分散化、私人化趋势,监管难度加大。大型AI厂商受监管更严,小型厂商或私人部署则相对宽松,不法分子可能利用这一漏洞进行违法活动。
因此,用户应对自己生成的内容负责,监管应聚焦传播层面,在平台上实施中游监管,更为合理。对生成式人工智能服务者和供应商提出过高合规要求并不明智。
AI技术带来便利的同时,也伴随着内生风险。大语言模型、多模态生成式AI等新技术同样面临挑战。因此,我们既要加强防范和监管,也要在精细化管理内生风险的同时,为新技术创造安全的成长空间。
(文章来源:21世纪经济报道)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

