AI幻觉风险凸显,完善治理成必然选择
AI导读:
国泰海通证券指出,以ChatGPT为代表的大语言模型推动数智化转型,但AI幻觉频发引发风险。AI幻觉在应用端形成多重危机,或引发企业多维度治理风险。完善AI治理是实现可持续发展的必然选择,需多方协同管控风险。
国泰海通证券发表观点:以ChatGPT、Deepseek为代表的大语言模型(LLM)掀起人工智能应用新潮,推动企业与政府加速“数智化”转型。然而,技术缺陷带来的风险日益显现,尤其是模型“幻觉”频发,已引发多起风险事件。各类机构在接入LLM的同时,亟需重视其潜在治理问题,提前构建防范机制,确保AI技术安全可控发展。
AI幻觉已在应用端形成多重危机。AI幻觉(AIhallucinations)是指人工智能模型生成的看似合理但实际错误的内容,这种现象通常表现为脱离现实、逻辑断裂或偏离用户需求的输出。大型语言模型的技术架构与训练方法决定了幻觉现象的固有性,其中推理模型的幻觉率尤为突出,这不仅加剧了互联网信息生态的污染问题,更因其在医疗、法律等专业领域的应用失准而诱发系统性风险,最终可能演变为广泛的社会信任危机。
AI幻觉现象或引发企业的多维度治理风险。AI技术的规模化部署正在重塑企业运营模式,但同时也催生了系统性风险。在专业化应用场景中,这种技术缺陷正引发更严峻的挑战——医疗诊断的误判、法律建议的偏差等案例频发,不仅造成直接经济损失,更侵蚀着社会对AI系统的信任基础。尤其当模型被深度嵌入金融、政务等关键领域时,单一错误可能通过智能决策系统产生级联效应,最终演变为波及多行业的系统性危机。
完善AI治理是实现人工智能可持续发展的必然选择。近年来,中国通过密集出台专项法律与政策文件,初步构建起覆盖人工智能全生命周期的治理法律框架。此外,为应对这些挑战,产业界需采取技术改进(如不确定性量化、检索增强生成)、管理优化(人机协同决策、动态风险评估)和制度建设(版权认证、伦理审查)相结合的综合治理方案。只有通过多方协同,才能在释放AI技术潜力的同时,有效管控其带来的各类风险,实现人工智能的负责任发展。
(文章来源:财中社)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

