AI导读:

2025年被称为“智能体元年”,AI发展路径跃迁。但风险也越发明显,智能体自主性、行动力恰是风险窗口。报告从三个角度探讨智能体安全合规问题,并指出AI幻觉、数据泄露等是行业普遍关心的安全合规问题。

2025年,被称为“智能体元年”,AI发展路径从“我说AI答”跃迁到“我说AI做”。但越接近落地,风险也越实感,智能体自主性、行动力恰是风险窗口。

《智能体体检报告——安全全景扫描》从最新发展状况、合规认知度、合规实际案例三个角度,试图回答智能体狂奔之时,安全合规是否就绪。

报告认为可以从“容错性”“自主性”两个维度划定坐标轴,建立智能体的价值生态。问卷结果显示,67.4%的受访者认为智能体的安全合规问题“非常重要”。

AI幻觉与错误决策、数据泄露、有害内容输出是行业最普遍关心的三个安全合规问题。随着智能体生态的丰富,多个智能体的互动近在眼前,智能体协作框架的涌现引发了多重安全隐患。

智能体的协同工作涉及多个环节,每一个环节都可能触发用户数据的收集、存储、调用、跨主体交换,近八成的业内人士担心用户数据泄露的后果。

对通义、星辰、文心、智谱、元器、扣子6个智能体平台的用户协议与隐私政策进行比对发现:用户与智能体交互所产生的数据,普遍被归类为“开发者数据”,责任划分基本框架已成形。

(文章来源:21世纪经济报道)