AI虚假信息泛滥:幻觉问题成焦点
AI导读:
2025年,AI已成为普及工具,但虚假信息问题凸显。DeepSeek发布R2模型谣言等事件频发,大模型幻觉问题成为焦点。成因复杂,虽可通过技术手段缓解,但难以根除。抗击虚假信息需多方合力。
2025年,AI已非科幻概念,而是普及工具。全球超81亿人口中,已有17亿至18亿人使用过AI工具,每日使用者约5亿至6亿。对25岁以下年轻人,AI聊天助手成获取信息重要渠道。
但AI虚假信息问题凸显。如Deepseek发布R2模型谣言,虽被证伪,却拉动AI概念股上涨。传播中,部分媒体引述对话记录,AI搜索产品将其作为可信信源,造成假象。

图片来源:媒体报道
类似事件频发,从“DeepSeek向王一博道歉”到“三层游船倒扣江中”谣言,AI假新闻层出不穷。美国西北大学陈灿宇博士发起应对虚假信息项目,指出虚假信息分两类:用户恶意生成和模型幻觉。
大模型幻觉指内容看似合理,实则虚假。成因复杂,包括自回归生成机制、训练数据时效性限制等。虽可通过对齐技术、检索增强生成等手段缓解,但难以根除。
推理模型被认为能减少幻觉,但实测数据并非如此。OpenAI和DeepSeek的推理模型幻觉率均高于前代。DeepSeek在R1版本更新时,特别优化了幻觉问题。
AI算法工程师解释,推理模型提升答案精确度,但中间过程可能存在幻觉。DeepSeek采用基于规则的奖励系统,包括准确性奖励和格式奖励,以避免训练复杂化。
DeepSeek推动AI普及,也放大了幻觉风险。陈灿宇认为,抗击虚假信息需多方合力,包括大模型厂商、平台和用户。他建议普通用户通过多次生成回答或对比不同模型结果来辨别幻觉。
目前,C端AI产品附上参考来源,但引用来源存在局限性。AI算法工程师表示,核心挑战在于信息源和搜索引擎端建设。调节模型温度参数是减轻幻觉的常用方式。
多位受访者表示,在某些场景下,幻觉是有利且必要的,体现多样性和发散性。
(文章来源:蓝鲸新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

