AI生成内容标识办法发布,规范信息传播
AI导读:
国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》,要求AI生成的文本、图片、音频、视频等内容均需添加标识,以提醒用户辨别虚假信息,规范内容制作和传播行为,解决信息混淆和传播误导风险。
不久前,某机场出现一张由人工智能(以下简称“AI”)生成的广告画面,因人物主体有六根手指引发热议。这一看似荒诞的失误,实则揭示了“AI幻觉”的严重问题。
随着算法驱动内容生产的兴起,AI能够迅速响应用户指令,一键生成各类文本、图像和音视频内容,这种便捷性让越来越多的人陷入“技术依赖”,但同时也带来了信息混淆和传播误导的风险。
为了应对这一问题,近日国家互联网信息办公室等四部门联合发布了《人工智能生成合成内容标识办法》(以下简称《标识办法》)。该办法聚焦于人工智能“生成合成内容标识”的关键点,旨在通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任和义务,从而规范内容制作、传播各环节的标识行为。
《标识办法》要求,所有由人工智能生成的文本、图片、音频以及视频等内容,均需添加显式或隐式的标识。显式标识,如文字、语音提示,能直观告知用户内容的生成来源;隐式标识,如元数据、数字水印,则能在不影响用户体验的前提下暗中标记内容的生成信息。这一举措有效解决了内容溯源问题,有助于重建网络空间的信任秩序。
技术的发展总是伴随着风险挑战。从实验室的前沿探索到医疗影像辅助诊断,从城市交通智慧调度到农业精准种植指导,AI为人们带来了更便捷智能的体验。然而,滥用AI也引发了一系列问题,如深度伪造技术制造的虚假影像难以分辨,AI换脸技术导致的身份盗用防不胜防,恶意生成内容更成为网络空间的新型污染源。
为了用好并管好AI,近年来我国已相继出台了《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等政策文件,既为技术创新开辟航道,又为公共利益筑牢堤坝。通过不断针对新出现的问题实施治理措施,并与算法备案、安全评估等制度相衔接,科技向善的愿景得以更好地维护和发展。
公众如何使用AI也显得尤为重要。人工智能最终是要为人服务的,需要人来做出选择和判定。我们需要形成批判性使用AI内容的共识,提高人们对AI生成内容的辨识能力和防范意识。只有这样,我们才能充分利用AI为工作和生活赋能,避免被AI带来的问题所困扰。
当前,AI以惊人的速度迭代,更深入地介入现实生活,生成内容的数量日均达到亿万量级。可以预见,与之相伴的AI治理问题还将持续出现。在创新的同时筑牢安全底线,实现动态平衡中的持续优化,将是AI时代长期面临的课题。只有将技术的“快”与人类的“慎”结合起来,才能更好地让技术为人类所用,服务社会发展。
(文章来源:人民日报海外版)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

