AI导读:

AI技术为行业带来效率提升,但也被不法分子用作诈骗工具。近期,利用AI合成声音进行诈骗的事件频发,引发社会警惕。同时,AI在图像和视频上的创造能力也令人担忧,虚假信息泛滥成灾。

AI在为各行各业装上效率加速器的同时,也潜藏着被不法分子用作诈骗工具的风险。据英国媒体《每日邮报》报道,西班牙一家小型电影制作公司Peabody Films声称接到了英国著名男演员“卷福”本尼迪克特·康伯巴奇(Benedict Cumberbatch)的电话,对方对该公司的电影项目表达了浓厚兴趣,并寻求合作。

该电影的导演透露,他们最初通过电子邮件与自称是好莱坞明星经纪人的联系人取得联系。出于谨慎,他们建议直接通话,而来电者的声音与康伯巴奇惊人地相似,使得导演团队深信不疑。然而,在多次通话后,当电影公司邀请“康伯巴奇”见面时,对方始终拒绝,甚至要求公司先支付20万英镑的款项。最终,该公司意识到可能遭遇了诈骗,向康伯巴奇的经纪公司求证后,确认了这是一场利用AI技术实施的骗局。

该导演表示,当得知自己成为AI诈骗的受害者时,团队感到震惊和失望。目前,该公司正在考虑是否报警。康伯巴奇作为英国国宝级演员,其声音极具辨识度,这也使得他成为不法分子利用AI技术实施诈骗的目标。

这并非个例,近期国外还发生了利用AI合成歌手声音进行诈骗的事件。一名网友利用美国知名歌手弗兰克·奥申的歌曲片段训练AI,生成了仿冒其风格的歌曲,并在论坛上发布,伪造成唱片录制时的泄露片段,成功骗取了约970美元。此外,AI技术不仅可以克隆真实人声,还能进行“二次创作”,如模拟真人歌手孙燕姿声音的“AI孙燕姿”在网络上走红。

随着开源模型的普及,非编程人员也能轻松利用AI工具快速生成所需声音,这进一步降低了相关工具的使用门槛。微软研究人员展示的文本转语音AI模型“VALL-E”更是只需3秒钟音频,就能合成任何人的声音,并保留说话者的情绪基调。

这些技术的发展为骗子制造假信息提供了便利。网络安全公司迈克菲发现,在美国、英国、法国、德国、日本、澳大利亚和印度,有10%的人曾遭遇过人工智能语音诈骗。除了声音诈骗,AI在图像和视频上的创造能力同样令人担忧,AI生成的虚假图像和声音已经被广泛用于商业欺诈。

(文章来源:科创板日报,图片来源于网络)