AI导读:

过去一年,AI深度合成音视频侵权现象愈演愈烈,网店利用AI技术制作名人音视频牟利,已属侵权行为。专家呼吁加强法律监管,利用AI技术对抗检测AI,提高公众安全风险意识。

从恶搞企业家雷军到AI制作张文宏医生音视频为自己带货,过去一年,AI深度合成音视频侵权现象愈演愈烈。AI技术的滥用不仅侵犯了名人的肖像权和声音权,也给普通网民带来了潜在的风险。

此前,有网友曾利用AI制作的刘德华声音为自己博取流量,刘德华电影公司紧急发布声明,提醒网民不要落入伪造刘德华声音的AI语音合成技术骗局。

据央视新闻近日调查发现,实现AI深度合成音视频并不难,甚至在一些购物平台,AI深度合成技术已成为众多网店牟利的工具。花费几十元,即可定制AI深度合成的名人音视频。

网络主播直播教学

这些AI深度合成的声音和换脸是如何制作出来的?央视新闻记者调查发现,相应的深度合成软件在网络上下载不难,还有网络主播直播教学。

央视新闻记者在手机应用商城搜索换脸换声软件,发现众多工具,但逼真度不高。网店制作的逼真度高的AI深度合成声音和换脸又是如何做到的?中国网络空间安全协会专家表示,当前有很多开源软件和工具可实现换声换脸效果,但有一定的技术门槛。不过,仍有众多主播在教网民使用。

21世纪经济报道记者曾实测了一款个性化定制的文生音模型,198元即可定制角色,千元出头能定制6个角色,包括杨幂、刘亦菲等明星声音。

在使用上,瞬时克隆需上传5~8秒声音样本,专业克隆则需1分钟~60分钟训练素材。

未经授权合成制作他人视频声音属侵权

相关法律法规明确规定,未经授权,不得深度合成制作发布他人信息。网店接单AI深度合成制作名人视频,已属侵权行为,应承担法律责任。

北京航空航天大学法学院副教授赵精武表示,国内已审结首例AI生成声音人格权侵权案。在此案中,配音演员的声音被AI生成后对外出售,法院最终认定被告行为构成侵权。

不仅是名人,普通人甚至动画形象,若未经同意,用AI合成制作其音视频,也属侵权行为。

现代版“画皮”:AI换脸生成“爱情骗局”

去年10月,香港警方捣毁诈骗窝点,诈骗者利用深度伪造技术换脸成年轻女性,诱骗受害者投资虚拟货币,涉案金额超3.6亿港元。

联合国毒品和犯罪问题办公室报告指出,东南亚诈骗者利用生成式AI和深度伪造技术扩大诈骗规模。去年亚太地区深度伪造事件增1530%,暗网上深度伪造产品增600%以上。

在杀猪盘诈骗中,已有不少人遇到利用AI换脸的“盘哥”“盘姐”。国投智能首席科学家江汉祥分析,杀猪盘用AI视频换脸,真假难辨。

专家:可以用AI检测AI

中国网络空间安全协会专家指出,可利用AI技术对抗与检测AI。当前已有AI技术能检测图片或音视频是否后期加工合成。

天融信科技集团助理总裁张博提出三招识破套路:提高安全风险意识,在涉及敏感场景时保持警惕;接收视频信息时,观察细节是否自然;面临金融交易时,通过可靠方式确认对方身份。

法律专家提醒,法律没有灰色地带,AI深度合成制作和信息发布者切勿因小失大。赵精武强调,法律禁止不合法不合理的使用AI合成技术,尤其是禁止不标识、不提示的AI合成信息发布和传播。

(文章来源:21财经