AI大模型挑战与应对:信息治理与监管新动向
AI导读:
随着AI大模型火爆全网,信息过载、模型偏见等问题也随之而来。中央网信办提出整治AI技术滥用乱象。本文探讨了政府、企业、公众等各方主体如何解决AI大模型带来的问题,包括直面“幻觉”、找到最优解及有效监管等方面。
随着人工智能(AI)大模型火爆全网,内容生成形态已然发生了颠覆性的变革,一些挑战与风险也随之而来,如信息过载、模型偏见及逻辑自证陷阱等。
一份由头豹研究院2月26日发布的《从Deepseek现象到信息治理革命:共建数字时代清朗空间》(下称《报告》)微报告指出,AI在提升生产效率的同时,也带来了信息过载严重、模型偏见加剧等风险。一旦媒体、券商等机构利用AI生成虚假内容,将削弱公众信任,引发资本市场波动,并冲击传统产业链。
中央网信办已明确提出整治AI技术滥用乱象,那么,如何解决AI大模型带来的问题?
直面“幻觉”
《报告》指出,AI大模型会将不同来源和立场的内容混杂,导致公众难以辨别信息真伪。此外,模型偏见会放大训练过程中的错误,导致内容出现偏差。而逻辑自证陷阱则指AI能构建看似合理的内容。
头豹联合创始人兼总裁王晨晖表示,AI一旦生成虚假内容,将对内容生态及公众产生严重影响,破坏信息生态健康发展。
为应对这些问题,王晨晖建议内容创作需依赖专业团队,确保专业性、准确性和可靠性。同时,内容发布平台需建立溯源审查机制,确保信息真实性、无偏性和合法合规性。若虚假信息仍存在,需加强网安公司与AI搜索引擎平台合作,建立防火墙和知识库,通过AI与人工审核结合,实时监控、分类和过滤信息。
中国数实融合50人论坛副秘书长胡麒牧认为,AI大模型生成虚假内容与模型训练及语料输入有关。一方面,通用大模型训练时使用的语料多为公共数据,缺乏专业数据。另一方面,中文语料较少,影响模型训练质量。
找到最优解
上海人工智能研究院算法专家陆文韬指出,为避免AI大模型生成错误结果,需注意三个方面:确保训练数据高质量和多样性;调整模型架构与训练策略;完善实时监控与反馈机制。
为平衡语料价值挖掘与技术秘密保护,胡麒牧建议,企业可训练专有AI大模型或接入相关服务,并建立数据流通和交易机制,以激励企业开放专业语料库。
陆文韬还提到,数据安全技术与合规机制需并行推进,如采用数据脱敏与加密、区块链技术等。
有效监管
《报告》称,随着信息生态复杂度提升,单一监管手段难以应对虚假信息传播。建议网络安全公司与AI技术合作,构建全链条监控体系。
胡麒牧表示,监管部门可通过了解安全“域值”预判风险,但现阶段更建议企业用AI生成初稿后,再进行人工校对。陆文韬则建议制度与技术协同,如创建白名单知识库、进行跨境数据审查等。
国际上已有相关案例,如欧盟《数字服务法案》要求平台部署全链条监控体系。王晨晖呼吁跨行业协作,共同构建坚固的内容监管链条,确保内容质量和可信度,推动AI时代内容普惠化生产,促进信息生态健康发展。
(文章来源:第一财经)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

