被算法误伤的真人创作者,如何自证不是AI?
AI导读:
“怎么向AI证明,我不是AI?”一批真人创作者正陷入“被AI误伤”的尴尬困境。
当下AI深度用于内容创作,各大平台纷纷加码了对AI内容的识别和治理。然而亲手敲下的文字、精心绘制的画作,一旦被算法“一眼鉴AI”打上A
“怎么向AI证明,我不是AI?”一批真人创作者正陷入“被AI误伤”的尴尬困境。
当下AI深度用于内容创作,各大平台纷纷加码了对AI内容的识别和治理。然而亲手敲下的文字、精心绘制的画作,一旦被算法“一眼鉴AI”打上AI标识后,平台会直接对作品进行隐藏、限流,甚至实施禁言、封号处罚。
2025年,网民李先生在社交平台发布了一条关于打工与学车的感悟,被平台误判为“未标注的AI生成内容”,受到内容被隐藏、账号被禁言一天的处罚。申诉无果后,李先生将平台诉至北京互联网法院,由此引发全国首例“平台判定用户内容AI生成”的案件。
记者梳理发现,类似的误判投诉在小红书、微博等平台屡见不鲜,不少网络用户在吐槽中总结出一些被判AI的规律,“发了一张图,用软件里的一键消除功能消除了路人,就被判成了AI”“使用了剪辑软件的识别歌词功能,就被判AI了,去掉了就没判”等。
AI检测为何频频“看走眼”
当前,主流平台普遍采用“用AI对抗AI”的策略进行内容审核,机器审核承担了90%以上的工作量,但AI检测的准确率始终存在瓶颈。此前人民日报报道,将朱自清的名篇《荷塘月色》与刘慈欣的《流浪地球》片段上传AI检测系统后,结果显示这两部经典作品AI生成内容总体疑似度竟分别达到了62.88%和52.88%。
有用户向记者提供了一份和某平台客服的聊天记录,在向客服申诉自己发布的图片和视频被误判为AI后,客服表示,因为发布的图频或视频可能用剪辑和美图类软件做过优化加工,这些创作工具在处理时,会自动写入相关AIGC数据,平台检测到这些数据后,就会显示对应的提示。
记者询问多位技术人士后得知,由于大模型以全量人类知识为养料,其优化目标是高度对齐人类的表达逻辑,所以AI的输出在统计学特征上会与人类创作的中位数高度重合。随着AI生成内容与人类创作日益接近,且人类日常输出中已包含大量AI生成的原始资料,二者边界愈发模糊,导致检测效果有限。
在防范AI滥用与保护真人原创间找到平衡
目前,AI内容治理已从平台自律走向法律规范。2025年9月1日起,《人工智能生成合成内容标识办法》正式施行,明确规定服务提供者必须对人工智能生成合成内容添加显式标识和隐式标识,以确保内容可被用户明显感知或技术核验。多家平台据此优化了AI声明入口。
而更多的现实情况是,多数平台缺乏专门针对“被误判”的申诉通道有不少用户吐槽对误判AI的投诉处理效率和标准参差不齐。
面对误判困境,各大平台正也在持续完善治理体系。4月27日,小红书首次公布AI治理主张,明确“AI可作为内容生产工具参与创作,但不能替代真人进行账号运营与互动”的边界,并上线针对AI笔记的申诉通道,供创作者对标识结果提出异议。
全国首例“平台判定用户内容AI生成”案的判决为平台治理划定了明确的司法边界。北京互联网法院认定,平台利用算法工具检测AI生成内容,既是算法工具的掌控方又是结果判断方,算法运算过程和审查结果均由其掌控,在此情况下应就判定结果进行合理举证或解释说明。该案最终判决平台构成服务合同违约,需撤销处理措施并删除违规记录。
全国政协委员、金杜律师事务所合伙人张毅在解读此案时指出,法院明确了AI治理中,平台权力与用户权利的边界划分。第一,平台处理的合法性不能只看“有约定”,还要看“执行合法”,判定过程不透明、解释不到位,即使有合同约定也可能构成违约;第二,举证责任向“优势方”转移,当用户客观无法举证时,平台作为技术掌握方必须证明判定的合理性;第三,“算法解释义务”是底线,平台不能用“黑箱”当挡箭牌。这一点尤其重要,相当于给平台的AI判定权套上了“透明枷锁”。
对普通用户来说,在创作时该如何避免被“误伤”呢?张毅建议,用户要做好“合规﹢留存”两件事。要严格遵守《人工智能生成合成内容标识办法》,并仔细阅读平台协议,搞清楚平台定义的“AI生成”到底包括什么,避免因为理解偏差踩坑。证据留存核心是记录创作过程,可以截图保存编辑日志等。
(文章来源:21世纪经济报道)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

