AI导读:

今年的《政府工作报告》强调人工智能的实际应用与安全健康发展。在金融领域,AI大模型成为标配,但AI幻觉问题让金融从业者困扰,模型误判可能导致资金损失。金融行业需对AI大模型保持一定容错度,减少AI幻觉的发生。

  今年的《政府工作报告》对推进“人工智能+”行动提出了新的要求,着重强调了人工智能的实际应用,特别是在产业赋能和终端应用方面。同时,报告多次提及“安全”,强调产业的安全健康发展。

  在金融领域,庞大的用户群体和海量数据为人工智能技术的落地提供了丰富场景。随着“人工智能+”行动的推进,AI大模型已成为众多金融机构的标配。然而,问题也随之浮现,AI幻觉现象让不少金融从业者感到困扰。金融业的高精确性要求使得AI幻觉问题被放大,模型误判可能导致资金损失。

  AI幻觉是指AI大模型生成的内容与现实世界事实或用户输入不一致。金融行业已有不少投诉案例与AI幻觉相关,如AI智能客服的“已读乱回”现象,让用户陷入沟通困局。

  中国邮政储蓄银行研究员娄飞鹏指出,AI幻觉若出现在营销或风险管理领域,可能给银行带来额外挑战。同时,AI幻觉的出现与行业间的信息壁垒有关,数据整合难题制约了AI模型的训练精度。

  招联首席研究员董希淼认为,AI模型的训练需大量数据支持,如何在保证隐私和安全的前提下进行训练是行业共同面临的问题。在部分金融应用场景中,AI幻觉可能阻碍新技术的落地。现行金融监管体系需适应AI技术驱动的新兴业态。

  虽然完全消除AI幻觉不现实,但金融机构需对AI大模型保持一定容错度。对不同类型的决策,需在AI生成结果和人工经验判断上设置不同权重。同时,通过增加数据指标、调整优化大模型等方法减少AI幻觉的发生。

(文章来源:经济日报)