2025智能体元年:安全合规能否跟上发展步伐?
AI导读:
2025年被称为“智能体元年”,AI发展路径跃迁。但风险也越发明显,智能体自主性、行动力恰是风险窗口。报告从三个角度探讨智能体安全合规问题,并指出AI幻觉、数据泄露等是行业普遍关心的安全合规问题。
2025年,被称为“智能体元年”,AI发展路径从“我说AI答”跃迁到“我说AI做”。但越接近落地,风险也越实感,智能体自主性、行动力恰是风险窗口。
《智能体体检报告——安全全景扫描》从最新发展状况、合规认知度、合规实际案例三个角度,试图回答智能体狂奔之时,安全合规是否就绪。
报告认为可以从“容错性”“自主性”两个维度划定坐标轴,建立智能体的价值生态。问卷结果显示,67.4%的受访者认为智能体的安全合规问题“非常重要”。
AI幻觉与错误决策、数据泄露、有害内容输出是行业最普遍关心的三个安全合规问题。随着智能体生态的丰富,多个智能体的互动近在眼前,智能体协作框架的涌现引发了多重安全隐患。
智能体的协同工作涉及多个环节,每一个环节都可能触发用户数据的收集、存储、调用、跨主体交换,近八成的业内人士担心用户数据泄露的后果。
对通义、星辰、文心、智谱、元器、扣子6个智能体平台的用户协议与隐私政策进行比对发现:用户与智能体交互所产生的数据,普遍被归类为“开发者数据”,责任划分基本框架已成形。
(文章来源:21世纪经济报道)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

