美国研究:AI通过“观察学习”内化文化价值观
AI导读:
美国华盛顿大学一项研究表明,AI系统可以通过观察人类行为学习并内化文化价值观。研究通过让AI观察人类互动并学习利他行为,为AI跨文化适应提供新思路。
美国华盛顿大学一项研究首次表明,人工智能(AI)系统可以通过观察人类在特定文化中的行为,学习并内化相应的文化价值观。这为解决AI跨文化适应问题提供了新思路。相关论文已发表于《PLOS One》。
当前,AI通常基于大规模互联网数据进行训练,而这些数据中蕴含的价值观往往具有文化偏向性,导致系统在不同文化背景的用户面前表现不一致。为此,研究团队尝试让AI以“观察学习”的方式,从具体文化群体的行为中吸取价值观,而非被预先植入某一套通用准则。
研究团队试图探索的是,AI能否像儿童那样,通过观察周围人的行为,自然而然地习得所在文化的价值观。团队招募了190名成年人参与实验,让他们分别与AI代理进行互动。实验中,参与者玩一款改编自游戏《Overcooked》的协作任务。在游戏中,参与者可选择是否将自己获得的资源无偿赠送给明显处于劣势的机器人玩家,尽管这会影响自己的任务得分。结果显示,有一组参与者整体表现出更多的利他行为。
AI代理则通过“逆向强化学习”方法,从所观察群体的行为中推断其行为目标与内在价值观。在后续测试中,这些代理成功地将习得的“利他倾向”推广到捐赠资金等新场景中:基于这一人类组数据训练的AI,在捐赠任务中表现出更高的慷慨度。
“这类似于儿童的学习方式——他们并非被反复训练做某件事,而是通过观察父母与他人的互动,潜移默化地学会分享、关怀等社会行为。”论文合著者、华盛顿大学心理学教授安德鲁·梅尔佐夫表示,“价值观更多是‘被捕捉’而非‘被教授’的。”
团队认为,如何创建具有文化适应性、能理解他人视角的AI,是当前社会面临的重要课题。随着输入数据的文化多样性和体量增加,这类方法有望帮助开发出更贴合特定文化背景的AI系统。不过,该研究目前仍处于概念验证阶段,未来还需在更多文化情境、价值冲突场景及复杂现实问题中进一步验证其可行性。
(文章来源:科技日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

