AI导读:

AI技术带来便利的同时,AI造假问题频发,不法分子利用合成技术实施诈骗,不良商家通过AI假图误导消费者。国家四部门联合发布《人工智能生成合成内容标识办法》,要求AI服务提供者和平台对生成内容进行标识,推动AI健康发展,减少造假误导。

当前,人工智能(AI)技术给人们生产生活带来便利的同时,也伴随着诸多风险挑战,其中AI造假问题尤为突出。不法分子利用“AI换脸”“AI变声”等合成技术实施诈骗,极具迷惑性;同时,一些不良商家通过AI假图误导消费者,“图文不符”“货不对板”现象屡见不鲜。

为应对这一问题,国家互联网信息办公室等四部门联合发布了《人工智能生成合成内容标识办法》,明确规定AI服务提供者和内容传播平台需对AI生成内容进行标识,这是加强人工智能行业治理、遏制AI伪造内容产生和传播的重要举措。

该《办法》的出台,不仅有助于推动AI在合法框架内健康发展,还能让公众更容易识别人工智能合成内容,有效减少造假误导情况的发生,保障公众的合法权益。

要最大限度降低AI滥用带来的负面影响,让技术更好地服务于人类社会,需要社会各界达成共识,形成治理合力。互联网平台作为AI生成内容的主要传播渠道,应发挥更大的作用。《办法》特别强调了平台对合成内容的审核和核验责任。已有电商平台积极响应,发布新规严禁利用AI等技术合成虚假商品信息效果图,并向全行业发起倡议,规范使用AI生成图片,保障商品信息真实可靠,共同加入对AI假图的全面治理。

值得注意的是,商品图片与资讯、娱乐内容不同,它直接关系到消费者的购买决策,因此需要更加精细的管理。平台应主动出击,完善规范、推出治理方案,利用模型识别技术拦截失真的AI假图上传,并对存量假图进行整改提醒,同时标注提醒消费者注意甄别。

(文章来源:经济日报)